AIによるバイアスとビジネスへの影響
AI技術の進化に伴い、その利便性とともに新たな問題も浮上しています。今回はAIとESG評価の記事においても少しご紹介したAIによって生じるバイアスについて取り上げてみたいと思います。AIバイアスの具体例とその原因、そしてビジネスにおけるリスクについて探ります。
AIのバイアス事例
人間がバイアスを持ち、それによって差別的な取り扱いが生じることは多くの方が想像できるでしょう。しかし、AIにおけるバイアスはどのようなものなのでしょうか。本記事では、AIによるバイアスが引き起こした有名な事例をいくつか紹介します。
アップルカードの与信審査
2019年にAppleがゴールドマン・サックスと提携して提供を開始したクレジットカード「アップルカード」をご存知でしょうか。このカードの与信審査はAIが行っていましたが、このAIにバイアスが生じ、性差別的な審査が行われているという疑義が生じました。告発者である開発者の男性とその妻は共同で納税申告を行い、同等の「クレジットスコア」を持っていたにも関わらず、アップルカードによって設定された妻の利用限度額が彼の20分の1に過ぎなかったというのです。
Amazonの採用AI
Amazonが実験段階で断念した「採用AI」も、バイアスが発生した事例の一つです。同社は2014年からAIを使った書類選考システムを開発していましたが、このシステムに女性の評価が低くなるバイアスが発見されました。Amazonはこのバイアスを排除しようと試みましたが、完全に排除することが難しいと判断し、プロジェクトを中止しました。
画像生成AI「DALL-E」の事例
以下の記事にAIバイアスの分かりやすい事例が紹介されています。
では、現在はどうなっているのでしょうか。筆者が2024年6月25日時点で「DALL-E」(モデル: GPT-4o)に「弁護士の画像を10枚ください」と入力したところ、以下の画像が生成されました。どうやら一定のバイアス是正の取り組みが実施されているようです。
バイアスはなぜ生じるのか
サンプルバイアス
では、なぜ上記のようなバイアスが生じてしまうのでしょうか。例えば、Amazonが取りやめた書類選考AIの場合、過去10年間に同社に応募があった履歴書を学習データとして使用していました。技術職への応募者のほとんどが男性であったため、このデータを学習した機械学習モデルは「男性を採用することが好ましい」と認識してしまいました。これは、機械学習モデルに使用するデータが十分に大きくない、あるいは代表的でないために発生するサンプルバイアスの一例です。
確証バイアス
その他にも、AIにバイアスが生じる原因はいくつかあります。例えば、確証バイアスがあります。これは、人間でも生じることですが、データ内の特定の傾向に依存しすぎると、そのバイアスが増幅してしまう現象です。仮説を強化するためにデータを選択してしまう、いわゆるチェリーピッキングによって発生します。例えば、1人あたりのチョコレート年間消費量とその国のノーベル賞受賞者数に因果関係があると誤って結論付ける事例などがあります(他の因子を考慮していない)。
既存バイアスの増幅
また、社会に存在するデータを学習データとして用いるため、人間が持っている既存のバイアスが増幅してしまうケースもあります。従来のメディアやソーシャルメディアには差別的な表現や傾向が含まれており、それらをAIが学習し、バイアスのあるアウトプットを生成してしまうことがあります。
ビジネス上の注意点
AIから生じる人権リスクと炎上
こうしたリスクに企業としてはどのように対応していけばよいのでしょうか。AI事業者でなくとも、AIの活用が日常化している企業にとって、AIからもたらされるリスクは無視できません。
バイアスの事例で述べた通り、AIから生じるリスクには深刻な人権侵害の可能性があります。また、そこから発生する炎上やレピュテーションリスクも大きいでしょう。
人権DDにおけるAIリスク評価
例えば、富士通はAIを提供しているため、人権デューデリジェンス(人権DD)の結果を見ると、既に「テクノロジーの倫理的活用」が人権課題として取り上げられています(参考:人権影響評価の実施)。AI倫理の取り組み一環として、バイアスの是正も実施されているようです。
AIを提供する事業者でなくても、AIを事業で活用している企業は、その活用によるリスクを抱えることになります。したがって、人権DDのスコープにAIによるバイアスを含めたAIリスクを取り込む必要があります。AI関連のプロジェクトを実施する際には、プロジェクトごとのDDも必要となるでしょう。
日本企業にも適用されるEUのAI規制法
AIリスクに関連して、EUのAI規制法(EUのRegulation)が今年5月に成立しました。この規制はリスクベースアプローチを採用しており、AIをそのリスクの高低によって類型化し、そのリスクレベルに応じて義務を変えています。例えば、上記の例で述べた与信審査や書類選考に使われるAIは、個人の権利に大きな影響を与えるため、「ハイリスク」に該当し、厳しい義務が課されると考えられます(リスク管理、データガバナンス、トレーサビリティの確保、人的監視の実施など)。
この規制はEU企業だけでなく、EU域外の企業にも適用され、罰則も存在します。EU域内に製品やサービスを提供する場合、Providerとして適用対象となることは分かりやすいですが、AIのアウトプットをEU内で使用する場合にもDeployerとして適用対象となり、Deployerとしての義務が生じるため注意が必要です(基本的権利影響評価の実施など)。
このような法律が存在することからも、AIのリスク評価、リスクの監視、透明性の確保を実施することが事業者にとって急務となっています。企業はこれを機に、自社のAIシステムのバイアスなどのAIリスクを見直し、持続可能なAI運用に向けた対策を行うべきでしょう。