なぜクマとバイソン間違う? AIに説明責任求める人類

有料記事

松尾一郎 勝田敏彦
[PR]

 人工知能(AI)の活用が広がる中、クルマの自動運転や医療、軍事など、人命や経済損失につながる分野で使うには、「なぜその結論を出したのか」が人間には分からないことが大きな課題になっている。AIを信頼するためにカギとなる「説明できるAI」を実現しようと、様々な取り組みが国内外で進む。

 防犯カメラに映った数千人の群集の中から不審者を特定したり、囲碁で最強の棋士を打ち負かしたり――。日常生活の中ですでにAIは身近になりつつある。

 コンサルティング会社マッキンゼーは昨年9月、AIの普及が、2030年までに全世界で約13兆ドル(1452兆円)の経済効果をもたらすという予測を公表した。

 一方、その能力をさらに発揮するには大きな課題もある。高性能AIの正体は、コンピューターでしか解けない極めて複雑な計算式のようなものだ。結論だけを提示する「ブラックボックス」で、その判断によって人命や財産に損害が出た際に検証が難しく、実用化の壁になっている。

 前橋市では3月まで、路線バ…

この記事は有料記事です。残り1889文字有料会員になると続きをお読みいただけます。

【お得なキャンペーン中】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら