オープンAI、安全対策チームを解散 主要幹部が退社、経営陣を批判

有料記事

サンフランシスコ=五十嵐大介
[PR]

 対話型AI(人工知能)「ChatGPTチャットGPT)」を運営する米オープンAIが、安全対策チームを事実上解散したことが明らかになった。退社した元幹部の一人は経営陣を公然と批判しており、安全性をめぐる社内の対立があらわになった。AI開発をリードする同社の体制変更は、高度なAIの安全性に影響を与える可能性がある。

 オープンAIは昨年7月、人間の能力を超える高度なAIの実現に備え、安全対策を検討する「スーパーアラインメントチーム」を発足。トップには、著名AI研究者で元理事のイリヤ・サツキバー氏と、ヤン・ライカ氏が就任した。同社は、人間を超える強力なAIは「人類を無力化させ、絶滅にすらつながる可能性がある」として、4年間にわたり同社が確保するコンピューター資源の20%を安全対策にあてると説明していた。

 「アラインメント」とは、人間の価値観や倫理観をAIに取り込み、安全性を高める取り組みをさす。

安全を「後回し」 退社した幹部が批判

 だが、サツキバー氏とライカ…

この記事は有料記事です。残り530文字有料会員になると続きをお読みいただけます。

※無料期間中に解約した場合、料金はかかりません