(社説)AIのリスク 疑念にこたえる議論を

社説

[PR]

 急速に普及が進む生成AI(人工知能)のさまざまなリスクにどう対応するか。政府が各所で検討を進めている。

 たとえばそのひとつが、著作権侵害へのおそれだ。

 AIは、ネット上にある膨大な情報を機械が学習し、人のかなわない速度で新しい生成物を大量に作り出す。作品などの不当な利用が広がるのではないか。そんな漠然とした懸念が渦巻いている。

 このため文化庁文化審議会著作権分科会で先月、どういった場合に著作権法上の問題が生じるのか一定の目安が示された。

 しかしなお、グレーゾーンは大きい。文化庁に2万5千件もの意見が寄せられたことが社会の不安を物語っている。声優の「声」などが現行法では十分に保護されないことも課題といえるだろう。

 著作権のほか、プライバシー侵害や偽情報への警戒心も根強い。不信の根底には、AIの仕組みや事業者の考えなどが十分に共有されていない現状があるようだ。

 AI企業は人々の権利や安全のためにどんな配慮をしているのか。どのようなデータをどう学習して生成につなげているのか。

 こういった情報を事業者が適切に開示しなければ、権利者や利用者が対等な立場で企業と対話し、交渉することはできないだろう。相互理解の促進が期待される。

 ただ、それでも心配は尽きない。AIの安全性や透明性を確保するために総務省経済産業省が示した事業者向けのガイドライン案は、企業に「自主的な」取り組みを促す内容だからだ。

 ネット上の誹謗(ひぼう)中傷への対策では、特に海外事業者は影響力が大きいのに不十分な対応がみられる。AIでも有力企業は国外に本拠があり、どう適切に規律していけるのかは難しい問題になりそうだ。

 お願い頼みの手法で実効性が得られるのか。さらなる手段を考える必要はないか。国際動向も踏まえ、政府はこうした疑念に正面からこたえる議論をしていく必要がある。

 歴史を振り返れば、新しい技術が出現するたび、人間はそれをどのように使うべきなのかを考え、試行錯誤を繰り返してきた。

 一部の企業が開発を主導して情報を握るAIでは、内部構造がブラックボックス化するのをどう防ぐかがカギになる。政府が果たせる役割を積極的に模索してもらいたい。

 これまでの巨大IT企業への規制のあり方を点検・総括し、今後の方向性について全体的な見取り図を示していくべき局面でもある。

有料会員になると会員限定の有料記事もお読みいただけます。

※無料期間中に解約した場合、料金はかかりません