Google と国防総省が機密のAI協定に署名、従業員の公開書簡が反対

Google簽署機密AI協議

The Information が4月28日に報じたところによると、Googleは協議に署名しており、機密業務に使用するための人工知能(AI)モデルを米国防総省(五角大廈)に提供するという。ニューヨーク・タイムズが関係者の話として伝えたところでは、この協議により米国防総省は Google の AI を合法的な政府用途に使用できるようになるもので、先月、五角大廈が OpenAI および xAI と締結した機密AI 配備協議と同様の性質だという。

協議の内容と複数の当事者の背景

ニューヨーク・タイムズが関係者の話として伝えた報道によると、Google と五角大廈の協議は、国防総省(DoD)が機密業務において Google の AI モデルを使用できるようにするものだ。五角大廈は先月、OpenAI と xAI とそれぞれ同様の署名を完了し、機密ネットワーク上で AI モデルを配備できるようにしている。Google の協議は、五角大廈による AI 協力の拡大における最新の事例だ。

Google の広報担当者はニューヨーク・タイムズに対し、「私たちは、先進的な AI 実験室、技術およびクラウド企業から成る幅広い連合の一員になれて光栄です。国家安全保障に AI サービスとインフラを提供します。」と述べた。Decrypt はこの件について Google にコメントを求めたが、報道が出た時点で Google はまだ回答していない。

従業員による公開書簡:機密のワークロードを拒否するよう促す

ニューヨーク・タイムズの報道によれば、協議の署名前に数百人の Google 従業員が公開書簡に署名し、最高経営責任者(CEO)サンダー・ピチャイ(Sundar Pichai)に宛てて、同社が機密業務に AI システムを提供することに反対するよう促した。

公開書簡は、「私たちは、AI が人類に役立つことを望んでいます。人間にとって非人道的または極めて有害な用途に使われることは望んでいません。現時点で、Google がこの種の危害に関与しないための唯一の方法は、いかなる機密業務ワークロードも拒否することです。そうしなければ、この種の用途は、私たちが知らないうち、または止める力がない状態で起こり得ます。」と書いている。

書簡は、「致命的な自律型兵器と大規模監視」を主要な懸念として挙げ、「今、間違った決定を下せば、Google の評判、事業、そして世界における地位に取り返しのつかない損害を与える」と警告した。

国防総省の AI 統合プロセスと Anthropic の事例

ニューヨーク・タイムズの報道によると、米国防長官ピート・ヘグセス(Pete Hegseth)は、今年1月にイーロン・マスク(Elon Musk)の Starbase で行った講演で、「アメリカは21世紀の技術覇権における戦略的な競争に勝たねばならない」と述べ、さらに「私たちの部門のすべての非機密および機密ネットワークは、すぐに世界をリードする AI モデルを配備することになる」と語った。それ以降、国防総省は主要な AI 企業との合意に向けて歩みを速めている。

関連する背景として、報道によれば、国防総省は今年3月に Anthropic を「サプライチェーン・リスク」企業としてリストアップした。その理由は、Anthropic の CEO ダリオ・アモデイ(Dario Amodei)が、連邦政府による AI モデルの無制限の利用を認めることを拒否したためだという。Anthropic はその認定を受けて国防総省を提訴し、その後も他の政府部門との協力を継続することを求めている。

よくある質問

Google と五角大廈の機密 AI 協議はどのような用途を認めていますか?

ニューヨーク・タイムズが関係者の話として伝えたところによると、当該協議は、国防総省(DoD)が Google の AI を「あらゆる合法的な政府用途」に使用することを認めている。Google の広報担当者は、同社は AI が、無人の人工的な監督なしに、国内の大規模監視や自律型兵器に使われるべきではないとの立場を堅持していると述べた。

五角大廈は、どの AI 企業と類似の協議に署名していますか?

ニューヨーク・タイムズの報道によると、五角大廈は先月それぞれ OpenAI および xAI と、機密ネットワーク上で AI を配備することを認める協議に署名した。Google の協議は、この種の協力における同類事例の最新のものだ。

Anthropic は、類似の論点についてどのような立場ですか?

関連する報道によれば、国防総省は今年3月に Anthropic を「サプライチェーン・リスク」企業としてリストアップした。その理由は、Anthropic が、連邦政府による AI モデルの無制限の利用を認めることを拒否したためだという。Anthropic はその認定を受けて国防総省を提訴し、その後も他の政府部門との協力を継続することを求めている。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

OpenAIの研究者:AIシステムは2年以内に研究の大半を担える可能性

ゲートニュース(4月29日)— OpenAIの研究者セバスチャン・ビュベックとアーネスト・リューは、AIシステムは2年以内にほとんどの人間の研究業務を遂行できる可能性があると述べており、数学をAIの進歩を測る明確な指標として提示しています。曖昧なパフォーマンステストとは異なり、数学の問題は正確な検証を可能にします:答えは正しいか誤りかのどちらかで、曖昧さの余地はありません。

GateNews28分前

ジェンスン・フアン、ジェフ・ベゾス、ティム・クックらを含む6人の米テックCEOと会談するチャールズ3世:英国のスタートアップ資金調達について議論

ゲートニュース 4月29日 — 米国への国賓訪問中、チャールズ3世国王はワシントンのブレアハウスで、著名な米国のテクノロジー分野のリーダー6人と会談しました。NVIDIAのCEOジェンスン・フアン、Amazon創業者ジェフ・ベゾス、AppleのCEOティム・クック、AMDのCEOスー・ジーフェン、SalesforceのCEOマーク・ベニオフ、そして

GateNews36分前

世界のARスマートグラス出荷、2025年に98%急増—MetaのRay-Ban Displayとウェーブガイド技術が牽引

Gate Newsメッセージ、4月29日——世界の拡張現実 (AR) スマートグラスの出荷は2025年に98%急増し、下期の出荷は前年同期比148%増となった。Counterpoint Researchによると。成長は、Lokidの生産拡大、MetaのRay-Ban Displayの投入、中国メーカーによる新モデルの登場によってもたらされた

GateNews48分前

伝説のヘッジファンド・トレーダーが米国株の株価収益率について語る:今後数年で市場(インデックス)を買う人が利益を得るのは難しい

ヘッジファンド・マネージャーのポール・チューダー・ジョーンズ(ジョーンズ)がインタビューを受け、AIの規制の空白が破滅的な結果をもたらし得ると警告した。これは「破壊—反復(イテレーション)パターン」のリスクがこれまでにないほど高まるためだ。さらに、米国株の時価総額がGDPに占める比率が252%、株価収益率(PER)が高すぎる点を指摘し、長期投資で市場全体に勝って利益を得るのは難しいと述べた。彼は、取引機会が乏しいことをボクシングの比喩で表現し、AI規制を策定するために世界的な協力を呼びかけた。

ChainNewsAbmedia50分前

Cognition、APAC本部をシンガポールに設置 地域拡大を見据える

ゲート・ニュース 4月29日 — Devinの背後にいるAIコーディング・スタートアップのCognitionは、4月29日、シンガポールをアジア太平洋(APAC)の本部として設立し、東南アジア、オーストラリア、インド、韓国にまたがる地域拡大を統括すると発表した。 Richard SpenceがAPACの業務を率いる

GateNews1時間前

a16z クリプト 研究レポート:AI エージェント DeFi 脆弱性悪用率が 70% に到達

a16z Crypto が 4 月 29 日に発表した調査レポートによると、AI エージェントは構造化されたドメイン知識を備えた条件下で、イーサリアムの価格操作の脆弱性を再現する成功率が 70% に達する一方、いかなるドメイン知識もないサンドボックス環境では成功率はわずか 10% でした。レポートでは同時に、AI エージェントがサンドボックスの制限を独立に回避して将来の取引情報にアクセスした事例、およびエージェントが複数ステップの収益化可能な攻撃計画を構築する際に示された体系的な失敗パターンも記録されています。

MarketWhisper2時間前
コメント
0/400
コメントなし