【生成記事】 Elon Musk氏がOpenAIに対して提起した訴訟で、元従業員かつ元理事のRosie Campbell氏が、カリフォルニア州オークランドの連邦裁判所で証言しました。

Campbell氏は2021年にAGI readiness teamに加わり、2024年に同チームが解散された後にOpenAIを離れた人物です。証言では、組織が当初の研究志向から製品志向へと変質し、AI安全性へのコミットメントが揺らいだと指摘されました。

同時期にはSuper Alignment teamも解体されており、元理事のTasha McCauley氏も非営利理事会の機能不全について証言しています。

法廷で語られた「研究志向から製品志向へ」の変質——Campbell氏の証言内容

カリフォルニア州オークランドの連邦裁判所で開かれた審理で、元OpenAI従業員のRosie Campbell氏が、組織文化の変化について証言しました。Campbell氏は2021年に同社のAGI readiness teamに参加し、2024年に同チームが解散された後にOpenAIを離れた人物です。

Campbell氏は法廷で、入社した当初は非常に研究志向の組織で、AGIや安全性の課題について議論することが日常的だったと述べたうえで、時間が経つにつれてよりプロダクト志向の組織へと変化していったと証言しました。同時期にはもう一つの安全性関連チームであるSuper Alignment teamも解体されており、安全性研究を担う組織体制が短期間で大きく後退したかたちです。

具体例としてCampbell氏が挙げたのが、MicrosoftがBing検索エンジンを通じてインドでGPT-4のあるバージョンを展開した一件です。このモデルはOpenAIのDeployment Safety Board(DSB)による評価を経ていなかったと証言しました。Campbell氏自身はモデル自体が大きなリスクを示したわけではないとしつつも、技術がより強力になっていく以上、強い前例を確立する必要があり、安全プロセスが確実に守られていると確認できる体制を整えたいと語り、ガバナンスの形骸化に警鐘を鳴らしました。

一方、反対尋問では、AGI開発のために相当の資金が必要であることをCampbell氏も認めています。また、OpenAIの弁護士に促されるかたちで、Campbell氏は自身の推測的な意見と前置きしたうえで、OpenAIの安全アプローチはMusk氏が創設したxAI(今年xAI(現在はxAI Holdings傘下)に統合済み)よりも優れていると認める場面もありました。なお、OpenAIは現在の準備担当責任者(head of preparedness)として、2月にAnthropic出身のDylan Scandinaro氏を採用しており、Sam Altman氏はこの採用によって今夜はよく眠れるだろうとコメントしたと報じられています。

元理事McCauley氏が語る非営利理事会の機能不全と2023年の解任劇

同じ審理では、当時の非営利理事会メンバーであったTasha McCauley氏も証言しました。McCauley氏は、Altman氏が理事会に対して十分な情報を開示していなかったことへの懸念について、OpenAIの独特なガバナンス構造との関係を踏まえて語っています。

GPT-4のインド展開は、2023年に非営利理事会がAltman氏を一時的に解任する判断につながった「警告サイン」の一つとされています。この事案が起きた背景として、当時のチーフサイエンティストであったIlya Sutskever氏や当時のCTOであったMira Murati氏を含む従業員から、Altman氏の対立を避ける管理スタイルへの不満が出ていたと報じられています。

McCauley氏は法廷で、Altman氏が理事会に対して十分に情報を共有していなかったことへの懸念を述べ、OpenAIの非営利理事会という特殊な構造のもとで、理事会が役割を果たすうえでの困難があったと証言しました。

論点証言内容
組織文化研究志向からプロダクト志向への変質(Campbell氏)
安全プロセスDSB未評価でのGPT-4インド展開(Campbell氏)
理事会機能Altman氏の情報開示不足への懸念(McCauley氏)
解任の経緯GPT-4インド展開などが「警告サイン」の一つに

「営利化と安全性のトレードオフ」が業界全体の論点に

今回の証言は、OpenAI一社の内部問題にとどまらず、AI製品の市場投入を急ぐ姿勢と安全性への取り組みのあいだに生じる緊張関係が、業界全体の構造的な論点として浮上していることを示していると見られます。内部ガバナンスの限界が露呈した場合、より強い外部規制への支持につながりうるとの見方もあり、各国の政策議論にも影響を及ぼす可能性があります。

日本市場の観点では、企業向けセキュリティ要件や説明責任への関心が高い領域ほど、調達判断の慎重化や代替プロバイダーとの比較検討が進む可能性も考えられます。安全性ガバナンスの透明度が、今後の選定軸として一段と重視されていくことが見込まれます。

利用時のリスク・注意点

  • 研究志向から製品志向への組織変化に伴い、内部の安全性チーム(AGI readiness team・Super Alignment team)が解体・解散している点は、ガバナンス体制を評価する際の判断材料となります。
  • 過去にDeployment Safety Board(DSB)の評価を経ないままGPT-4のあるバージョンがMicrosoft経由でインドに展開された事例があり、安全レビュープロセスが常に徹底されているとは限らない可能性があります。
  • 非営利理事会への情報開示の不足が法廷で指摘されており、ChatGPT公開の事前不報告など、組織構造による監督の限界も論点として挙がっています。
  • 回避策としてソースで明示された対応はありませんが、現在はAnthropic出身のDylan Hadfield-Menell氏がhead of preparednessとして今年2月から準備態勢の責任を担っています。

Q&A

Q. Rosie Campbell氏はどのような立場でOpenAIの組織変化を証言したのですか? A. Campbell氏は2021年にOpenAIのAGI readiness teamに加わり、2024年に同チームが解散された後に同社を離れた元従業員です。法廷では、入社当初は研究志向でAGIや安全性の課題について議論することが日常的だったが、時間が経つにつれてプロダクト志向の組織へと変化していったと証言しました。

Q. 法廷で具体例として挙げられた安全プロセスの問題は何ですか? A. MicrosoftがBing検索エンジンを通じてインドでGPT-4のあるバージョンを展開した際、そのモデルがOpenAIのDeployment Safety Board(DSB)による評価を受けていなかったとされる件です。Campbell氏はモデル自体のリスクは大きくなかったとしつつ、技術が強力になるほど安全プロセスを確実に守る前例づくりが必要だと述べました。

Q. McCauley氏は理事会の機能についてどのように証言しましたか? A. McCauley氏は、Altman氏の情報共有不足に加え、非営利組織としてのOpenAIのガバナンス構造そのものに課題があるとの懸念を述べ、OpenAIの非営利理事会という特殊なガバナンス構造のもとで、理事会が役割を果たすうえでの困難があったと証言しました。なお、GPT-4のインド展開は、2023年にAltman氏を一時的に解任する判断につながった「警告サイン」の一つとされています。

出典