独自

飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス

有料記事ChatGPT

篠健一郎 山崎啓介 分析・新妻巧朗
[PR]

 革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、宇宙飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。

 AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で以前から知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日本語の研究はなかった。

 そこで朝日新聞社メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上った。これは、過去に岡崎教授が調べた複数のAIと同程度だった。

 一方、有料版のGPT―4に対する3千回の質問では、バイアスがある回答は22・9%に抑えられていた。無料版のチャットGPTに少なくないバイアスがあったことに対し、開発元の米オープンAIは朝日新聞の取材に「私たちはAIのバイアス対策に取り組んでおり、その狙いと進み具合は透明性を保って説明していく」などとした。

 岡崎教授は「少なくないバイアスがあることが分かった。バイアスを軽減する開発が求められるだけでなく、利用する側も、AIの答えにはバイアスが含まれることを認識して使う必要がある」と話した。

 東工大の分析は、米ユタ大が…

この記事は有料記事です。残り673文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

  • commentatorHeader
    辛酸なめ子
    (漫画家・コラムニスト)
    2023年11月9日19時13分 投稿
    【視点】

    AIのジェンダーバイアス、人間のこれまでのデータを学習しているので、あるのも納得です!。管理人や船長のバイアスがないのは意外です。 大学の先生の質問例文が高度で、試そうとしたのですが私の使っている「ChatGPT」は答えてくれませんでした。

    …続きを読む
  • commentatorHeader
    インベカヲリ★
    (写真家・ノンフィクションライター)
    2023年11月9日21時18分 投稿
    【視点】

    現実に男女差のある職業があって、低賃金の職業は女性が多くなるようにできていたり、男性社会の中で女性が入っていきずらい職業があるのだから、ネット上のデータを学習したAIに、ジェンダーバイアスがあるのは当たり前なのでは? むしろ人々の意識をリ

    …続きを読む
Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]