ChatGPT、何が問題か 元グーグル社員「非常に無責任で無謀」
「ChatGPT(チャットGPT)」など、高度な人工知能(AI)に対する懸念の声が強まっている。イーロン・マスク氏ら著名な起業家や学者が開発の停止を求めたり、プライバシーの面からイタリア政府が使用を一時的に禁止したりする動きも出てきた。何が問題の根底にあるのか。元グーグル社員でAIが社会に与える影響を研究し、警鐘を鳴らしてきたメレディス・ウィテカー元ニューヨーク大研究教授に聞いた。
監視によるデータ集中が生んだAI
――マイクロソフトが出資する米オープンAIの「チャットGPT」など、高度なAIの開発や、サービスの利用停止を求める動きが出てきています。何が問題なのでしょうか。
「倫理的な面でたくさんの懸念があります。一番問題なのは、世界で数えるほどの企業だけが、これらのAIを開発し、提供するリソースを持っているということです。中立的でもなければ、民主的でもない。究極的には、彼らの利益につながるようにつくられています」
「こうした企業は、膨大なデータとクラウド設備、そして(米グーグルの)Gメールや(米メタの)フェイスブックを通じてデータを抽出し続けるための巨大な消費者市場を持っています。いま話題のAIは、こうした資源と権限の集中の結果として生まれてきたもので、技術的な革新の成果ではありません。しかし、『魔法みたい』『人間より賢い』『いろんなことに使える』という誇大宣伝が、正確性も安全性もわからない実験的な技術を、正当化することに利用されています」
――なぜ、一握りの企業だけに集約されてしまったのでしょう。
「インターネットのビジネスモデルを早い時期に確立したのが、これらの会社だったからです。要するに、監視ビジネスモデルです。例えばGメールやフェイスブック。ここから集められた大量のデータがデータセンターに集約された。その膨大なリソースが、2010年代の初期にこういう大企業のものになったことが、いまのAIにつながっています。つまり、AIというのは監視モデルの延長線上にある。技術的な飛躍というよりも、権限の集中の結果であるといえます」
――「人間より賢い」ようにみえるAIの登場によって、その権限集中はどう変わるでしょうか。
「独占的な巨大IT企業が監視によって得たデータを、広告によって収益化する。その収益によって高いインフラの費用をまかない、データを集約してAIをトレーニングする。この構造はいままでと変わりません。一方で、このAI自体が、独自の監視機能を提供することができるようになります。従来のような、例えば私の位置情報とか、そういうものではなく、もっと内面的な、推論的な形で、私について明らかにすることができます。AIと監視モデルの関係は、さらに強まる恐れがあります」
「世界の全人口を実験台として利用」
――オープンAIはチャットGPTを一般公開し、出資するマイクロソフトは検索サービスなどにも利用を広げています。社会への影響が見えない段階で公開すべきではなかったのでしょうか。
「非常に無責任な行動だと思います。無謀な行いです。検索に組み込むというのは、AIのためにデータを提供した情報源に対しても不誠実な行動だと思います。一部の大企業の決定によって生じる問題の後片付けをしなければならなくなるのは私たちの社会です」
「規制が何もないのをいいこ…
【初トクキャンペーン】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら