テスラのイーロン・マスク氏は、TechCrunchによると、木曜日にカリフォルニア州の連邦裁判所で証言し、自身の人工知能企業であるxAIが、グロック(Grok)チャットボットを訓練する際に、部分的にOpenAIのモデルを使用していたと述べた。これは、増大する監視の中で行われている実務について、大手AI開発者がめったにしない公の認め方をしたものである。マスク氏は、進行中のOpenAI、CEOのサム・アルトマン、共同創業者のグレッグ・ブロックマンに対する訴訟の中でこの発言を行った。裁判は今週始まった。
マスク氏は、同社が当初の非営利の使命から舵を切ったことについてOpenAIを訴えている。連邦裁判所での手続の尋問中、マスク氏は、xAIがOpenAIモデルに対して蒸留(distillation)の手法を使ったかどうかを尋ねられた。報道によれば、彼は答えは「部分的に」だと述べ、こうしたやり方はより広い業界での慣行だと説明した。
マスク氏は2015年に、サム・アルトマン、グレッグ・ブロックマン、イリヤ・スツケヴァー、ジョン・シュルマン、ウォイチェフ・ザレンバとともにOpenAIを共同創業した。同社は、人類のために人工知能を開発することを目的とした非営利団体だった。マスク氏は2018年に同社を離れた。
蒸留(distillation)とは、既存のモデルをその公開インターフェースまたはAPIを通じて照会し、その出力を学習シグナルとして用いることで、新しいAIシステムを訓練することを指す。マスク氏の証言は、この手法が米国拠点のAI企業によって使われており、海外の競合だけではないことを示している。
2月、アンスロピック(Anthropic)は、いくつかの中国のAI開発者が不正なアカウントを使って、同社のClaudeチャットボットから大量の応答を抽出し、競合するシステムを訓練していると非難した。今月初めには、ホワイトハウスが、プロキシ・アカウントやジェイルブレイクを用いた「産業規模」のキャンペーンによって、米国のAI能力を再現することがあると警告していた。
蒸留をめぐる法的な境界線は依然として不明だ。蒸留は明確に違法とされてはいないが、プラットフォームのルールやAPI利用を定める規約に違反しているのではないか、という疑問を招く可能性がある。
2023年7月に立ち上げられたxAIは、より大規模なチームと、より確立したインフラを持つGoogle、Microsoft、OpenAIを含む市場に参入した。その年の初め、マスク氏や他のテック関係者は、より高度なAIシステムの開発を6か月間停止するよう求める公開書簡に署名していた。潜在的なリスクを理由にしたものだ。マスク氏の発言は、同社が元の自社の技術を使ってギャップを埋めた可能性を示唆している。
OpenAIとxAIは、コメント要請に対して直ちに返答しなかった。