Googleは、開発者向けに提供しているGemini APIに新機能「Batch Mode(バッチモード)」を追加したことを発表しました。
この機能により、大量のAPIリクエストを標準価格の半額で、かつ非同期で処理できるようになります。
即時の応答が必要ないデータの前処理や大規模な評価タスクなど、これまでコストや効率の面で課題があったユースケースでの活用が期待されます。
Gemini APIの「Batch Mode」とは?

Batch Modeは、大量のプロンプトを一度にまとめて送信し、非同期で処理を実行する機能です。主な特徴は以下の通りです。
非同期処理
リクエストを送信後、すぐに結果を待つ必要がありません。
目標処理時間は24時間以内とされていますが、多くの場合それよりずっと速く完了します。
大幅なコスト削減
料金は、通常のインタラクティブ(同期的)なAPIコールの50%オフに設定されています。
これにより、大規模なデータ処理のコストを大幅に抑えることが可能です。
大規模タスクに最適
即時性が求められない、以下のようなタスクに最適です。
- データ分類・ラベリング
- 感情分析
- 要約・翻訳
- モデルの品質評価
Batch Modeのメリット
特徴 | メリット | 主な用途 |
---|---|---|
非同期処理 | 即時応答が不要なタスクを効率的に実行できる。APIのタイムアウトを気にする必要がない。 | データの前処理、バッチ推論、レポート生成 |
料金50%オフ | 大規模処理のコストを劇的に削減できる。 | 何百万ものドキュメントの要約、大規模なモデル評価 |
シンプルなAPI | インラインまたはファイルアップロードで簡単に大量のリクエストを送信できる。 | データ分析パイプラインへの組み込み |
Batch Modeの使い方
Batch Modeでリクエストを送信するには、主に2つの方法があります。
インラインリクエスト
少量のバッチ(合計リクエストサイズが20MB未満)に適した方法です。
リクエストを直接コード内に記述して送信します。
from google import genai
from google.genai import types
client = genai.Client()
# GenerateContentRequestオブジェクトのリスト
inline_requests = [
{
'contents': [{'parts': [{'text': 'Tell me a one-sentence joke.'}], 'role': 'user'}]
},
{
'contents': [{'parts': [{'text': 'Why is the sky blue?'}], 'role': 'user'}]
}
]
inline_batch_job = client.batches.create(
model="models/gemini-2.5-flash",
src=inline_requests,
config={
'display_name': "inlined-requests-job-1",
},
)
print(f"Created batch job: {inline_batch_job.name}")
入力ファイル (JSONL)
大量のリクエストを処理する場合に推奨される方法です。
各リクエストをJSON Lines (JSONL) 形式のファイルに記述し、そのファイルをアップロードしてジョブを作成します。
ファイルサイズは最大2GBまで対応しています。
my-batch-requests.jsonl の例:
{"key": "request-1", "request": {"contents": [{"parts": [{"text": "Describe the process of photosynthesis."}]}]}}
{"key": "request-2", "request": {"contents": [{"parts": [{"text": "What are the main ingredients in a Margherita pizza?"}]}]}}
このファイルをアップロード後、そのファイル名を指定してバッチジョブを作成します。
開発者・コミュニティの反応
この新機能の発表を受け、X(旧Twitter)では多くの開発者やAI専門家が反応しています。
コスト面でのメリットや、具体的な活用方法についての議論が活発に行われています。
まとめ
Gemini APIに新たに追加された「Batch Mode」は、大量のAI処理を必要とする開発者や企業にとって、コストと効率の両面で非常に強力な選択肢となります。
特に、データ分析、モデル評価、コンテンツ生成などのバックグラウンド処理において、その真価を発揮するでしょう。
より詳細な使い方や技術仕様については、公式ドキュメントやクイックスタートガイドをご確認ください。
公式ドキュメント:https://ai.google.dev/gemini-api/docs/batch-mode?hl=ja
Google Developers Blog:https://developers.googleblog.com/ja/scale-your-ai-workloads-batch-mode-gemini-api
Colabノートブック:https://colab.research.google.com/github/google-gemini/cookbook/blob/main/quickstarts/Batch_mode.ipynb