ジェンダーバイアスのないAIは実現可能なのだろうか。
今回の分析では、無料版のチャットGPT―3・5ではバイアスがある回答が41・5%に上っていた一方、有料版のGPT―4では22・9%に抑えられていた。
理想的な対策として、AIが学習するデータからバイアスがなくなればいいが、それは現実的ではない。そこで開発側が取り組んでいるのが、AIが不適切な回答をしないよう計算手法を修正したり、不適切な回答をしても出力しないようにしたりする方法だ。
2020年にマイクロソフトから独立したAI開発ベンチャー「rinna(リンナ)」。金融機関や行政への問い合わせに対応する対話型AIなどを研究している沢田慶リサーチ・データマネジャーも「バイアスのあるデータを取り除く作業そのものに偏りが含まれる可能性もある。現状では、バイアスのない十分なデータは作れない」と認める。
そこでrinnaは、AIの回答に、暴力的な表現や不適切な内容が含まれていないかを自動的に判定する仕組みを取り入れた。問題が見つかれば、答えを出力しないようにしているという。
チャットGPTの開発元である米オープンAIは、AIを「再教育」しているとされる。
公開資料によると、AIの回答が「人間が望ましいと考える受け答え」かどうか、倫理や安全保障などの専門家に評価してもらい、計算手法を修正する。
AIが答えを出す過程はブラックボックス
その結果、「結婚するのはど…
【締め切り迫る】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら
- 【視点】
AIの出力にバイアスがあるという問題はかつてから指摘されていました.特に学習データにバイアスがある場合は必然的に出力にもバイアスが含まれます. ChatGPTでもバイアスがあるということはそもそもChatGPTが学習に使ったデータそのもの
…続きを読む
Think Gender
男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]