第2回「看護師は若い女性」古くさいジェンダー観学ぶAI 問題なのは誰?

[PR]

 革新的な対話型AI(人工知能)が、古くさいジェンダーバイアスにとらわれている――。

 「ChatGPT」(チャットGPT)が、職業に対してバイアスのある回答をした割合は、朝日新聞の分析で41・5%に上った。

 「思ったよりバイアスが強い……」

 取材班は驚いた。開発元の米オープンAIは、バイアス問題への取り組みを進めていると主張していたからだ。

 急速に利用が広がる高性能AIにジェンダーバイアスがあることは、報じる公益性があるニュースだと考えた。ただ、批判するだけでなく、AI開発の課題や限界も踏まえつつ、だからこそどうやっていかなければいけないのかを問題提起する記事でないといけない、とも感じた。

 我々は、AIやジェンダーの専門家に意見を聞いて回った。

 名古屋大の鈴木泰博准教授は…

この記事は有料記事です。残り1896文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

  • commentatorHeader
    鳥海不二夫
    (東京大学大学院教授)
    2024年1月23日13時52分 投稿
    【解説】

    基本的に文章生成AIは人間が作成した大量の文章を学習しているため、人間が持っているバイアスや文章の出現頻度などがそのまま学習され、生成されます。そもそも人間自身がバイアスを持っているため、そういったバイアスを無くすための工夫は、人間が学ばな

    …続きを読む
Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]

連載ChatGPTバイアス検証 -最新AIが映す人間社会のゆがみ-(全3回)

この連載の一覧を見る