Gemini API が Webhooks を推進:Google は長期のタスクの繰り返しポーリングという課題を解決し、Batch/Veo は即時にプッシュ可能

ChainNewsAbmedia

Google は 5 月 4 日に Gemini API で Webhooks 機能を公開し、長期稼働ジョブ(long-running jobs)の開発者の悩みを解決しました。Google 公式ブログでは、Webhooks はイベント駆動型のプッシュ通知メカニズムであり、開発者は Gemini API に対してポーリング(polling)で継続的にタスクの状態を問い合わせ続ける必要がなくなる、と説明しています。API が完了すると、結果は開発者が指定した endpoint に自動的にプッシュされます。Google の AI 開発者リレーション担当責任者 Logan Kilpatrick(@OfficialLoganK) は X 上で、これを「長期タスク DevX にとって重要な一歩」だと述べています。

何を解決するのか:バッチ、動画生成、長い推論のポーリングコスト

これまで Gemini API の開発者は、バッチ(複数件の処理)、動画生成(Veo 2)、長い推論タスクにおいて、数秒ごとに status endpoint を呼び出してタスクの進捗を確認しなければなりませんでした。この方式は、資源消費、API クォータ、遅延の 3 つの面でどれも理想的ではありません:

資源の無駄—大量の意味のない status check 呼び出し、API クォータの占有

遅延が制御不能—ポーリング間隔が短いとクォータを燃やし、長いと結果を知るのが遅れる

コードが複雑—クライアント側でステートマシンを実装し、複数の並行タスクのポーリングを管理する必要がある

Webhooks はこのパターンを反転させます。開発者は callback URL を登録し、Gemini API がタスクを完了したら、その URL に結果を主導して POST します。クライアント側はプッシュを受けて処理するだけで済みます。

適用シーン:Batch API、Veo 2 動画、長いコンテキスト推論

今回提供される Webhooks は主に、次の 3 種類の非同期タスクに対応します:

Batch API—Gemini のバッチ処理 endpoint。大量のテキスト、埋め込みベクトル、分類タスクに利用でき、公式に 50% の割引価格が提供され、目標は 24 時間のレスポンス、実際には数時間以内に完了することが多い

動画生成(Veo 2)—1 本の動画生成には分単位の時間がかかり、過去には開発者が絶えずポーリングする必要がありました

長い context 推論—1M token 以上の長文書分析で、Gemini 内部の処理には数十秒から数分かかる可能性があります

開発者が実装する観点では、webhook を登録した後、クライアントは「タスクを投げて、それを忘れる」ことができ、結果が完了した際には Gemini が自然に通知してくれます。この方式は、サーバレス(serverless)アーキテクチャに特に適しており、バックエンドはイベント到達時にだけ起動され、ポーリング用の常時稼働プロセスを維持する必要がありません。

OpenAI、Anthropic との対応関係:誰が先にやり、誰が後か

長期タスク webhook の進捗状況(3 大 AI プラットフォーム):

Google Gemini:5 月 4 日に Webhooks を提供(本件)、batch、動画、長い reasoning のすべてをカバー

OpenAI:Codex、Sora 2 などの長期タスクは現状、主に SSE(Server-Sent Events)によるストリーミングに依存しており、バッチタスクには独立した endpoint があるものの、ネイティブな webhook はありません

Anthropic:Claude API には現時点でネイティブな webhook がなく、Claude Code の内部ではポーリング方式で長期タスクを処理しています

Google は DevX(developer experience)という軸で、過去 12 か月で投資を明らかに強めてきました。Gemini 2.5 Pro の 1M context、AI Studio の視覚化開発、Cloud Next 2026 で提供される Agent Designer、Memory Bank、そして今回の Webhooks まで。OpenAI が「直接コンシューマ向けプロダクト」(ChatGPT、Operator)に優先順位を置くのに対し、Google は「企業/開発者向けの基盤」路線を歩んでいます。Webhooks は、その路線の中での具体的な一部です。

今後の観察:webhook のセキュリティ機構、適用できるモデル範囲

次の段階で注目するポイント:

Webhook のセキュリティ機構—Gemini は HMAC の署名検証を提供し、callback URL が偽造リクエストによる攻撃で叩かれるのを防げるのか

適用モデルの拡張—現状では batch、Veo 2、長い reasoning をカバーしており、今後は Imagen の画像生成、Speech-to-Speech、Gemini Live も併せて支援されるのか

OpenAI、Anthropic の回答—Google が DevX をこのレベルまで引き上げたとき、競合他社は追随するのか

台湾の開発者の実務という観点では、もしあなたが Gemini API で batch タスク(たとえば顧客データの分類処理やドキュメント要約など)を使っているなら、Webhooks はすぐに統合する価値がある機能であり、API クォータの消費とシステムの複雑さを大幅に下げられます。

この記事「Gemini API が Webhooks を公開:Google が長期タスクのポーリング痛を解決、Batch/Veo は即時プッシュが可能」は最初に 鏈新聞 ABMedia に掲載されました。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

アンソロピックのClaude Dreams:エージェントが作業の合間に自動的に記憶を整理し、重複や矛盾を解消する

Anthropic は Code with Claude の大規模イベントで Dreams を発表し、Claude Managed Agents が複数の会話にわたって自動的に記憶を整理し、重複や矛盾を解消し、古い項目を更新して、監査可能な整理済みの記憶データベースを出力します。入力上限は 100 セッションと 4,096 文字で、非同期で実行され、数分から数十分で完了します。ストリーミングによる観察に対応しています。研究プレビューは申請が必要で、現時点では claude-opus-4-7 と claude-sonnet-4-6 のみ対応し、正式な提供開始時期は未定です。

ChainNewsAbmedia54分前

Anthropic は SpaceX の計算資源を奪う:Colossus 1 を丸ごと 22 万 GPU 確保、Claude は利用制限を解除

Anthropic は SpaceX と Colossus 1 データセンターに関する計算能力の連携で合意したと発表し、22万基超の Nvidia GPU、300MW 以上の容量を投入する予定です。1か月以内にすべてを設置して Anthropic の利用に供し、Claude や Code の演算と体験を向上させます。あわせて、Pro/Max/Team/Enterprise の 5 時間あたりの使用量上限を緩和し、ピーク時の上限を撤廃し、Opus API のレートを引き上げます。アジアおよび欧州の基盤インフラも同時に拡張し、今後は「軌道 AI 計算」などの意向もあるものの、現時点では未契約です。

ChainNewsAbmedia1時間前

コインベースのエンジニア:AIエージェントはウェブ広告のモデルを混乱させ得る

Coinbaseのエンジニアであるエリック・レッペルは、人工知能エージェントがインターネットの広告依存のビジネスモデルを根本的に損なう可能性があると述べました。レッペルによれば、ウェブ経済は人間のユーザーから生み出される広告収益に大きく依存していますが、AIエージェントはその仕組みを迂回します

CryptoFrontier1時間前

アンスロピック、SpaceXの取引で300MWの容量を確保した後、Claudeのコードレート制限を倍増

Odailyによると、AnthropicはSpaceXと提携に署名し、Colossus 1データセンターのコンピューティング能力すべてにアクセスできるようにし、今月中に新たな300メガワット超の稼働能力と、220,000台以上のNVIDIA GPUを確保した。即時に、Claude CodeのPro向けの5時間あたりのレート制限が、

GateNews1時間前

OpenAI が MRC スーパコンピュータ ネットワーク プロトコルを公開!NVIDIA、AMD、Microsoft と協力して Stargate の基盤インフラを構築

OpenAI は、AI スーパーコンピュータ・ネットワーク・プロトコル MRC を公開し、AMD、Microsoft、NVIDIA などと連携して OCP でオープンソース化しました。MRC はデータを分割しつつ複数の経路を同時に通し、マイクロ秒レベルで回避を行うことで輻輳を減らし、GPU の同期を維持して、大規模な学習用クラスタの転送ボトルネックを解決します。Stargate のテキサス州 Abilene などの拠点では、すでに 800Gb/s のインターフェースが導入され、実際の訓練にも投入されています。

ChainNewsAbmedia2時間前

AI採用プラットフォームのEthosが5月6日にa16z主導でシリーズAの資金調達2,275万ドルを完了

BlockBeatsによると、ロンドン拠点のAI採用プラットフォームEthosは5月6日に、Andreessen Horowitz(a16z)が主導しGeneral Catalystが参加した形で、シリーズAラウンド2,275万ドルの資金調達を完了した。同プラットフォームはAIを使って候補者を面接し、分析する。

GateNews3時間前
コメント
0/400
コメントなし