ChatGPTの自信満々なウソで思考ゆがめる恐れ 子ども特に注意

有料記事ChatGPT

竹野内崇宏

 なんでも知っているように流暢(りゅうちょう)に質問に答える生成AI(人工知能)のChatGPT(チャットGPT)。ところが、デタラメまで自信満々に答えることで、受け取った人間の思考がゆがめられる恐れがある、と警告する心理学研究者らの論考が22日付の米科学誌サイエンスに掲載された。影響されやすい子どもは特に要注意だという。

 チャットGPTは計算に基づいて、もっともらしい文字列を生成する。現時点では、内容の正しさを確認する機能はなく、学習データが少ない日本の人物紹介や歴史に関する答えは誤りが含まれやすい。

 米国とアイルランドの研究チームによる論考「いかにAIが人間の思考をゆがめるか」によると、問題なのはチャットGPTがデタラメでも臆せずに「これが答えです」と断言することだという。

 論考によると、人間同士の会話の中では、相手が断定表現ではなく「~と思う」と留保をしたり、会話が詰まったりする反応を通じて、相手の話す内容がどれほど確実なのかを読み取っている。

 その一方で、知識が豊富に見えたり、自信を持って話したりする相手については、普段より強く話の内容を信じてしまう傾向があるという。

 さらに、自分の持っている情報が不確かで自信がないときほど、相手の言うことを強く信じ、形成された考えや信念を後から修正することが難しくなる。

 研究チームは、チャットGPTに質問をするときにはまさに、こうした心理状態に近いことが問題だと指摘する。

 「人間は一度、求めていた答…

この記事は有料記事です。残り763文字有料会員になると続きをお読みいただけます。

※無料期間中に解約した場合、料金はかかりません

  • commentatorHeader
    鳥海不二夫
    (東京大学大学院教授)
    2023年11月12日6時6分 投稿
    【解説】

    記事の内容と直接関係ない話ですが,本記事の最後に論考が掲載された雑誌と論考へのリンクが掲載されています. 当たり前のようですが,少し前までは記事の根拠となる論文等へのリンクが張られていないことが多かったように思います.他紙では現在でも論文

    …続きを読む