AIのリスク、正しく理解していますか?

 「産業界のデジタルトランスフォーメーションをAIと人の協調により実現する」株式会社ABEJAの岡田です。

 AIがより実践的なものとして活用されつつある一方、システムのアルゴリズムにより生じるバイアスが、この数年のうちに注目されるようになってきて、日経においても関連記事が見受けられるようになってきました。

 チャットボットが悪意のあるユーザーによって差別発言を学習しヘイト発言を繰り返してしまう、特定の性別や人種に有利・不利な結果をもたらす、など実際の報告も増加傾向にあり、AIシステムが不公平な結果をもたらすことにより、開発・提供企業が、プロダクトの開発や提供を停止するケースも発生する事象も生じています。

 問題意識は世界で高まっています。欧州委員会は2019年の時点でAI倫理ガイドラインを策定し、社会が求める規範に基づき、AIが満たすべき要件をまとめています。
 日本においても経済産業省が「AI原則実践のためのガバナンス・ガイドライン」が取りまとめるなど、AI倫理やガバナンスに関する議論は、理念から実践へと移行しています。

 ABEJAでも、AI倫理に関する議論を社内で重ね、2019年にAIに関する課題について外部の有識者(2022年7月時点7名)が倫理、法務的観点から討議する委員会「Ethical Approach to AI」(EAA)を設立しました。ガバナンスや倫理において、判断が難しい案件は、EAAに議題として提出し、客観性、独立性を担保した意見や知見を得て、慎重に対応しています。
 加えて、2022年1月には、ABEJAの顧客や取引先とAI倫理に関する意識を一つにし、AI倫理上の課題に対応することを目的として、AIの開発や利用に関する指針となるAIポリシーを自社で策定し運用を進めています。

 こうしたAI倫理に関する取組みによって、ABEJA社内には、テクノロジーと倫理・ガバナンス両観点に立った実践を踏まえたナレッジが蓄積され、パートナー企業から相談を受ける機会も増えてきました。そのニーズを踏まえて、先月7月より、「AIガバナンス構築支援サービス」および「AIシステム倫理アセスメント支援サービス」の2つのコンサルテーションサービスの提供を始めました。
 「AIガバナンス構築支援サービス」は、顧客の事業・将来像に照らして、あるべきAI倫理のためのガバナンスを支援するサービスで、具体的には、ポリシーの策定、リスク評価と対応策の策定、運用組織の構築、AI倫理に関するエデュケーション等を提供します。
 「AIシステム倫理アセスメント支援サービス」は、個別のAIシステムの倫理的課題の発見・深堀・対応策の検討を支援するサービスで、具体的には、ステークホルダーの特定、リスクの評価と対応策の策定、当該AIシステムについて開示すべき事項の策定等を想定しています。

 AIバイアスは、学習に用いられたデータから発生するもので、AIシステムそのものがバイアスの原因ではありません。人間の過去の決定から生じるものです。
 AIシステムが編み出す推論の精度は、データによって変わりうるし、その中に社会問題につながるバイアスが潜んでいるということは否定できません。
 機械学習とバイアスの問題は、相反する要素が絡んでいるのです。
 私は、AIシステムに学習させるデータを完璧にフェアなものに昇華させるというのは、現時点ではなかなか難しいのではないかと考えています。
 日常生活で使用しているデータに、こうしたバイアスがどれほど入り込んでいるかを見極め、整備することは困難ですし、大きな問題が生じない限り、どうしても後回しになりがちな課題であるという現実的な壁もあります。

 本課題においては、AI倫理に完璧に対応できるソリューションを開発しているか、よりも、AI開発や運用をよりオープンにし、関わる人間を増やし、多面的な視点を持って、課題解決を目指して議論しアクションし続けることが重要なのではないでしょうか。
 人間が目指すべき方向は、AIの完成度を高めることではなく、テクノロジーを活用して、より豊かな世界を実装することだということを忘れてはいけないと改めて考えます。


この記事が気に入ったらサポートをしてみませんか?