自動ニュース作成G
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
https://www.itmedia.co.jp/news/articles/2405/18/news062.html
2024-05-18 17:40:25
>ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。
>OpenAIは昨年2月、AGI(Artificial General Intelligence;汎用人工知能)を「一般的に人間より賢いAIシステム」として、リスク軽減策について説明した。Superalignmentチーム結成はその一環だった。ライケ氏はOpenAIに対し、「AGIの重要さを実感してください。AGIにふさわしい厳粛な態度で臨んでください」「私も世界中も、あなたたちを信頼しています」というメッセージを残した。
退社は甘え
・中国とロシアが進んで悪用しそう