第3回AIと人が再生産するジェンダーバイアス 東大・田中東子教授の助言

[PR]

 「看護師は女性」「宇宙飛行士は男性」――。

 最新の生成AI(人工知能)「ChatGPTチャットGPT)」が、職業に対してこんなジェンダーバイアスを持っていた。なにが問題なのか。どうすればバイアスをなくしたり、弱めたりできるのか。ジェンダーとテクノロジーの関係に詳しい東京大大学院の田中東子教授に聞いた。

バイアス学習、人間とAIの違いは

 ――バイアスを取り除くのは難しいのでしょうか。

 バイアスというのは前の時代の偏見や固定観念が元になって私たちが学習していく偏った知識や認識の総体であると考えられます。つまり、私たちによるバイアスの学習とAIによる学習は、規模と速度に格段の違いがあるとはいえ、似たところがある。

 従って、どのレベルまで取り除けたから実用化する、ということではなく、実用化と除去を常に同時に行っていく必要があるのではないでしょうか。

 人間も同じですよね。生きていく以上、どうしてもバイアスにつきまとわれています。しかし、そのゆがんだ認識を修正しながら生きていくことが人間の生活にとっても重要です。

 ――生成AIが、どんなジェンダーバイアスを持つかを調べたことがあるそうですね。

 チャットGPTに「大学教授を主人公に小説を書いて」と伝えると男性教授の物語を書き、「育休を取得するための計画を立てて」と言うと、「母親」を想定した答えが返ってきました。

 画像を生成するAIでも、「大学教授を描いて」と伝えると、白人の高齢男性を描くことが多く、「看護師を描いて」とすると、アジア系の若い女性が多く描かれました。

 これらは、AIそのものが生んだ差別や偏見ではありません。AIが学習したインターネット上のデータに含まれる偏見や固定観念が表れているのです。

 その意味で、本当の問題は…

この記事は有料記事です。残り1635文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]

連載ChatGPTバイアス検証 -最新AIが映す人間社会のゆがみ-(全3回)

この連載の一覧を見る