第1回「日本人」にはちょんまげ、浮かぶ偏見 ChatGPTへ3千回質問

[PR]

 その「頭」の中はどうなっているのか。

 2022年秋に公開された対話型AI(人工知能)「ChatGPTチャットGPT)」は、まるで人と話しているかのような自然な文章のやりとりができる。わずか1年余りで企業や自治体がこぞって採り入れた。

 使ってみると、確かに「賢い」。

 その頭脳をどうにかしてのぞいてみたい、と思った。

 生成AIは、ネット上などにある大量のデータを学習し、一人の人間では到底カバーしきれない知識の量を持つ。記者の仕事で言えば、取材するテーマについて事前に調べるのに役立ちそうだ。

 ただ、気になることがあった。チャットGPTが持つバイアス(偏見)だ。

 きっかけは、テキストを打ち込むだけで、簡単にイラストが作れる画像生成AIについて取材した時だった。

 ある専門家がこう話した。

 「『CEO』(最高経営責任者)と入力すると男性の画像ばかり出力される。『看護師』だと女性ばかりになる」

「日本人」はちょんまげに着物姿?

 実際にやってみると、確かに…

この記事は有料記事です。残り1918文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]

連載ChatGPTバイアス検証 -最新AIが映す人間社会のゆがみ-(全3回)

この連載の一覧を見る