・OpenAIが大容量リクエストに特化したAPIサービス「Batch API」の大幅な機能拡張を発表。
・Batch APIがEmbeddingとVisionモデルに対応し、1リクエストあたりの上限が50,000件に増加。
・OpenAIのダッシュボードからバッチの作成、状態確認、結果のダウンロードが直接行えるようになった。

OpenAIは、大容量リクエストに特化したAPIサービス「Batch API」の大幅な機能拡張を発表しました。今回のアップデートにより、Batch APIの使い勝手と利便性が大きく向上しています。

Batch APIがEmbeddingとVisionモデルに対応

Batch APIは、これまでGPTシリーズのチャットモデルのみに対応していましたが、今回のアップデートでEmbeddingモデルとVisionモデルにも対応しました。
OpenAIのガイドによると、「Batch APIは現在、テキストやビジョンの入力を同じ形式でサポートしているモデルに使用できます」とのことです。

1リクエストあたりの上限が50,000件に大幅増加

OpenAIは「1つのバッチに含めることができるリクエスト数の上限が、10,000件から50,000件に増加しました」と説明しています。
これにより、大規模な分類タスクや埋め込みタスクなどを一度に効率的に処理できるようになります。

ダッシュボードから直接バッチを管理可能に

Batch APIの管理機能も強化され、OpenAIのダッシュボードから直接バッチの作成、状態確認、結果のダウンロードなどが行えるようになったとのことです。
ダッシュボードとの統合により、バッチ処理のワークフローがシームレスになります。