【速報】Gemini APIに「Batch Mode」登場!大量リクエストを非同期&半額で処理可能に

Googleは、開発者向けに提供しているGemini APIに新機能「Batch Mode(バッチモード)」を追加したことを発表しました。

この機能により、大量のAPIリクエストを標準価格の半額で、かつ非同期で処理できるようになります。

即時の応答が必要ないデータの前処理や大規模な評価タスクなど、これまでコストや効率の面で課題があったユースケースでの活用が期待されます。

目次

Gemini APIの「Batch Mode」とは?

Batch Modeは、大量のプロンプトを一度にまとめて送信し、非同期で処理を実行する機能です。主な特徴は以下の通りです。

非同期処理

リクエストを送信後、すぐに結果を待つ必要がありません。

目標処理時間は24時間以内とされていますが、多くの場合それよりずっと速く完了します。

大幅なコスト削減

料金は、通常のインタラクティブ(同期的)なAPIコールの50%オフに設定されています。

これにより、大規模なデータ処理のコストを大幅に抑えることが可能です。

大規模タスクに最適

即時性が求められない、以下のようなタスクに最適です。

  • データ分類・ラベリング
  • 感情分析
  • 要約・翻訳
  • モデルの品質評価

Batch Modeのメリット

特徴メリット主な用途
非同期処理即時応答が不要なタスクを効率的に実行できる。APIのタイムアウトを気にする必要がない。データの前処理、バッチ推論、レポート生成
料金50%オフ大規模処理のコストを劇的に削減できる。何百万ものドキュメントの要約、大規模なモデル評価
シンプルなAPIインラインまたはファイルアップロードで簡単に大量のリクエストを送信できる。データ分析パイプラインへの組み込み

Batch Modeの使い方

Batch Modeでリクエストを送信するには、主に2つの方法があります。

インラインリクエスト

少量のバッチ(合計リクエストサイズが20MB未満)に適した方法です。

リクエストを直接コード内に記述して送信します。

from google import genai
from google.genai import types

client = genai.Client()

# GenerateContentRequestオブジェクトのリスト
inline_requests = [
    {
        'contents': [{'parts': [{'text': 'Tell me a one-sentence joke.'}], 'role': 'user'}]
    },
    {
        'contents': [{'parts': [{'text': 'Why is the sky blue?'}], 'role': 'user'}]
    }
]

inline_batch_job = client.batches.create(
    model="models/gemini-2.5-flash",
    src=inline_requests,
    config={
        'display_name': "inlined-requests-job-1",
    },
)

print(f"Created batch job: {inline_batch_job.name}")

入力ファイル (JSONL)

大量のリクエストを処理する場合に推奨される方法です。

各リクエストをJSON Lines (JSONL) 形式のファイルに記述し、そのファイルをアップロードしてジョブを作成します。

ファイルサイズは最大2GBまで対応しています。

my-batch-requests.jsonl の例:

{"key": "request-1", "request": {"contents": [{"parts": [{"text": "Describe the process of photosynthesis."}]}]}}
{"key": "request-2", "request": {"contents": [{"parts": [{"text": "What are the main ingredients in a Margherita pizza?"}]}]}}

このファイルをアップロード後、そのファイル名を指定してバッチジョブを作成します。

開発者・コミュニティの反応

この新機能の発表を受け、X(旧Twitter)では多くの開発者やAI専門家が反応しています。

コスト面でのメリットや、具体的な活用方法についての議論が活発に行われています。

まとめ

Gemini APIに新たに追加された「Batch Mode」は、大量のAI処理を必要とする開発者や企業にとって、コストと効率の両面で非常に強力な選択肢となります。

特に、データ分析、モデル評価、コンテンツ生成などのバックグラウンド処理において、その真価を発揮するでしょう。

より詳細な使い方や技術仕様については、公式ドキュメントやクイックスタートガイドをご確認ください。

公式ドキュメント:https://ai.google.dev/gemini-api/docs/batch-mode?hl=ja

Google Developers Blog:https://developers.googleblog.com/ja/scale-your-ai-workloads-batch-mode-gemini-api

Colabノートブック:https://colab.research.google.com/github/google-gemini/cookbook/blob/main/quickstarts/Batch_mode.ipynb

このコンテンツの投稿者

Tomのアバター Tom 代表取締役 CEO

Dify を活用した企業の DX 支援や AI エージェント事業などに取り組む株式会社MYUUUという生成AIスタートアップの代表。生成AIユーザーが1,400名所属し、Difyの最新ユースケースを学び合うコミュニティ「FRACTAL LAB」を運営しています。書籍『お金を使わず、AIを働かせる「Dify」活用 』の著者。

目次