第2回「看護師は若い女性」古くさいジェンダー観学ぶAI 問題なのは誰?
革新的な対話型AI(人工知能)が、古くさいジェンダーバイアスにとらわれている――。
「ChatGPT」(チャットGPT)が、職業に対してバイアスのある回答をした割合は、朝日新聞の分析で41・5%に上った。
「思ったよりバイアスが強い……」
取材班は驚いた。開発元の米オープンAIは、バイアス問題への取り組みを進めていると主張していたからだ。
急速に利用が広がる高性能AIにジェンダーバイアスがあることは、報じる公益性があるニュースだと考えた。ただ、批判するだけでなく、AI開発の課題や限界も踏まえつつ、だからこそどうやっていかなければいけないのかを問題提起する記事でないといけない、とも感じた。
我々は、AIやジェンダーの専門家に意見を聞いて回った。
名古屋大の鈴木泰博准教授は…
【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら
- 【解説】
基本的に文章生成AIは人間が作成した大量の文章を学習しているため、人間が持っているバイアスや文章の出現頻度などがそのまま学習され、生成されます。そもそも人間自身がバイアスを持っているため、そういったバイアスを無くすための工夫は、人間が学ばな
…続きを読む
Think Gender
男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]