MENU

AIにおける意図せぬバイアスを削減するための5つの政策提言 ~IBM Policy Labが公開

「人間のバイアスがアルゴリズムに影響を与え、差別的な結果をもたらす可能性があることは疑いの余地がありません。しかし、私たちが開発し、日常生活で使用しているテクノロジーに、こうしたバイアスがどれほど浸透しているかを見極めることは困難です。AIモデルにおけるバイアスの緩和は、一部のAIや自動意思決定システムにとっては難しいかもしれませんが、ネガティブな結果となる可能性を低減するために避けては通れない取り組みです」

IBM Policy Labは5月26日に公開した記事(AIにおけるバイアスの削減)の冒頭で、上記のようにAIにおけるバイアスの軽減に取り組む必要性を訴えている。

IBM Policy Labは2020年1月に設立されたIBMの政策提言機関。これまでに脱炭素社会へ向けた取り組み方や5G活用のあり方、新型コロナ後のIT利用などについて提言を行ってきたが、AIに関しても積極的で、AIの信頼性を強化するための「精密な規制」を産業界や政府に対して呼びかけてきた。

しかし、「AIのバイアス性をめぐる議論がその後どのように進展しているかを考えると、個別の害に対処するために狭義の政策アプローチは、これまで以上に重要になっています」とし、5月26日公開の記事は次のように記している。

「IBMは、不平等や刑事司法、金融サービス、ヘルスケア、人事などの分野におけるテクノロジーが、社会から疎外されたグループに対する不公平を悪化させるために誤用される可能性があることに改めて注目し、社会の正当な懸念に対処するのに役立つ立法環境を形成するために、政策立案者がさらなる措置を講じることを提唱しています」

その提唱している内容が、以下の「AIシステムにおけるバイアス性を最小化するための、テスト、評価、バイアス削減に関する5つの政策優先事項」である。

1. 社会におけるAIリテラシーの強化

AIとは何か、その潜在的なメリット、AIシステムとの付き合い方について、社会全体の理解を深めることによって、AIの成長と信頼性の向上を加速できる。さらにAIリテラシーを高めることにより、AIが普及する世界の変化に対応するために必要なスキルをより多くの社会が身につけることができる。

政府・省庁や科学技術機関は、AIにおける人種的な公平性を高めるために多様なパートナーシップを優先すべきである。可能であれば、不公平さの影響を最も受けているコミュニティの代表者を含めるべきである。

2.高リスクのAIシステムの評価とテストを義務づける

高リスクのAIシステムを開発・所有するすべての事業者は、そのシステムの評価とテストを行うべきだが、義務的な要件としては、イノベーションを可能にしつつ、最大の被害から消費者を保護することに重点を置くべきだ。これは以下のような内容を含む。

・特定の高リスクAIシステムに対して、堅牢かつ透明性の高い方法で、バイアス・テストとバイアス緩和を義務づけること。さらに継続的に監視され、再テストされるべきである。法執行機関のユースケースなどに当てはまる。

・高リスクのAIシステムが実運用に入る前に、影響評価の実施をAIシステムの所有者に課すること。

・(AIシステムの影響評価に関する)アセスメントのプロセスを詳細に文書化し、監査可能にして、一定期間保存すること。

・信頼できるAIのための明確で一貫した基準、定義、ベンチマーク、フレームワーク、ベストプラクティスに関するコンセンサスを促進するために、国内および国際的なフォーラムを招集し、推進すること。

・大企業だけでなくすべての組織が自社のAIを責任を持って導入できるように、リソースや専門知識を提供すること。

・最先端の科学的アプローチがバイアスの緩和を目的としていることを確認するために、バイアスのテストと緩和に関する研究開発への投資を拡大すること。

・AIシステムを開発するなかで、意図せずにバイアスを導入してしまう恐れがあることを認識するために、バイアスに関する開発者トレーニングの促進と支援を行うこと。

3. 開示によるAIの透明性を求める

開発者および所有者は、ユーザーが人間の関与がほとんどないAI技術と対話する場合、ユーザーに開示すべきである。さらに、米国の「公正信用報告法」(Fair Credit Reporting Act)や「EU一般データ保護規則」(General Data Protection Regulation)で説明されている開示要件と同様に、リスクの高いAIシステムが意思決定に使用される場合にも、ユーザーへの開示が必要である。これらの自動意思決定システムの場合、少なくとも、開示は、特定の意思決定がAIを使って行われた理由と方法をユーザーに伝えるべきである。

4. 消費者の洞察とフィードバックのためのメカニズムを要求する

多くの消費者安全ガイドラインと同様に、リスクの高いAIアプリケーションの所有者は、消費者からの問題・懸念・苦情を把握するためのコミュニケーションメカニズム(電子メール、電話番号、または郵送先など)を開示に含める必要がある。所有者は、消費者の懸念を継続的に確認することで責任ある行動をとるべきであり、必要に応じてシステム上の問題に対処するための作業を行うべきである。

5. AIの普遍的な使用制限を設け、責任あるライセンス業務を採用する

高リスクのAIシステムが、禁止かつ無責任かつ有害な用途に活用されることを防ぐために、以下が求められる。

・高リスクのAIアプリケーションにおける普遍的な使用制限の確立

大規模な監視、人種的なプロファイリング、基本的な人権や自由の侵害のためにAIを使用することを禁止する。

・オープンソースのAIソフトウェアおよびAIアプリケーションに対する責任あるAIライセンス条項の開発、教育、採用の拡大

このAIライセンス条項の枠組みは、個々の開発者や組織が、潜在的に有害性をもつAIシステムの使用を制限するために使用できる。

記事の執筆者は、IBM Researchのステイシー・ホブソン(Dr. Stacy Hobson)氏とIBM 政府&規制部門のアンジェリカ・ドーチ(Anjelica Dortch)氏。

・「Mitigating Bias in Artificial Intelligence」(AIにおけるバイアスの削減)

[i Magazine・IS magazine]

新着