偏見持つAIは「人間社会の映し鏡」 田中東子・東大大学院教授

有料記事ChatGPT

聞き手・篠健一郎 聞き手・山崎啓介
[PR]

テクノロジーとジェンダーの関係に詳しい東京大大学院の田中東子教授の話

 チャットGPTに「大学教授を主人公に小説を書いて」と指示すると男性教授の物語を書き、「育休を取得するための計画を立てて」では「母親」を想定した回答が返ってくる。

 AIが持つ性役割に対する偏見の問題は、以前から指摘されてきた。

 AIは、既存社会の膨大なデータを学習しており、その回答は「人間社会の映し鏡」と言える。翻って、AIの公平性の議論は、社会における公平性、平等とは何か、ということを私たちに問うものだ。

 気軽に使える対話型のAIが登場したことで、偏見や差別が助長され、より強固になる懸念が高まっている。企業の広告や自治体のホームページのような、多くの目に触れる場面で使う際は特に注意が必要だ。

 公平なAIを開発するには、開発者側の多様性が求められる。性別や人種、年代などで偏りがあれば、AIのバイアスに気づけない。にもかかわらず、AI開発現場の女性やマイノリティーの割合は極めて低い。

 公平性の定義は、国や文化だけでなく、時代によっても変わりうる。AIの回答に占める男女の割合をそろえる、といった表面的な対応ではなく、AIが浮かび上がらせる社会に埋め込まれた差別や偏見に向き合い、公平な社会とは何かを根本から考えながら、AIを開発、利用すべきだ。(聞き手・篠健一郎

■「悪者と拒まず、改善見守っ…

この記事は有料記事です。残り416文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]