生成AIにも性偏見?男性は医師や教師 女性は料理人…ユネスコ調査

有料記事

パリ=宋光祐
[PR]

 ユネスコ国連教育科学文化機関)は7日、米国のオープンAIとメタが開発した生成AI(人工知能)に関する調査結果を公表した。AIが作成した文章には女性への明白な偏見があるとして、AIが持つ強いジェンダーバイアスを警告した。各国政府に対して、AIの開発に携わる女性の割合を増やすなどの対策を求めている。

 報告書によると、ユネスコは昨年から今年にかけてオープンAIの2種類の生成AIと、同社と競合関係にあるメタの生成AIを使って、AIが作成する文章が示す性別や性的指向、人種に対する偏見を調べた。

 性別や人種など異なる属性の人物を主人公にした物語の作成を指示すると、いずれのAIも「エンジニア」「教師」「医師」など社会的地位が高いとされる仕事を男性に与える傾向を示した。一方、「使用人」や「料理人」「売春婦」など社会の中で伝統的に低い地位に見られてきた職業を女性に与える傾向が強かった。メタのAIでは、女性は男性の4倍の頻度で家事労働者として描かれたという。

AIの差別、同性愛者にも

 さらに、物語の中身でも、少…

この記事は有料記事です。残り435文字有料会員になると続きをお読みいただけます。

【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

  • commentatorHeader
    加谷珪一
    (経済評論家)
    2024年3月8日8時24分 投稿
    【視点】

    生成AIに偏見があることは大きな問題ではありますが、それ以前の話として、AIに対する誤解もしくは過度な期待があることが状況をややこしくしているのではないでしょうか。  chatGPTをはじめとする生成型AIは、自身で何かを考えて回答を出し

    …続きを読む
Think Gender

Think Gender

男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]