オンラインシンポジウム「AIと差別」

AI(人工知能)の開発が急速に進み、これまで人間が知識と思考を駆使して行ってきたさまざまな営みに入り込んできている。東大の教員が中国人の採用に関してTwitterで差別的書き込みを行い、それをAIの「過学習」のせいであると責任転嫁した事件は記憶に新しい。
現実には、量刑・人事・融資等、人生の重要な局面でAIを用いた判断がなされつつあり、学習したデータにバイアス(偏り)があればAIが差別的な判断をしてしまうおそれがある。「AIによる差別をどう防ぐのか?」これは新しい問題のように見えるが、古くから人間社会に存在してきた。この問題について、3月25日、IMADRは3人の研究者によるオンラインシンポジウムを開いた。成原慧さん(九州大学准教授、情報法)による基調報告、それを受けた堀田義太郎さん(東京理科大学講師、哲学・倫理学)と明戸隆浩さん(東京大学特任助教、社会学)のコメント、そして3人によるディスカッションと続いた。新型コロナウィルス感染防止のために、IMADR初の試みとしてオンラインで開催した。SNSなどによる案内で、約70人が傍聴参加した。以下、その概要を報告する。

AIによる差別のメカニズムを考える
基調報告として、まず成原さんがAIによる差別が起こるメカニズムを解説した。一般的には開発者が差別的な考えを持っていて、差別的なアルゴリズムが設計されることを想像しがちだが、現実には悪意を持った開発者は少ない。しかし、開発者が無意識のうちにバイアスを持っていて意図せずに差別的な設計を行う可能性はあるので、開発者に多様性を確保することが必要である。よりAIに特徴的なのは、学習データに起因する差別である。AIとは単なる「知能を持った機械」ではなく、「データから学習することによって自らの出力とプログラムが変化するシステム」のことを言う。そのためにAIが学習するデータに多様性が確保されていなかったり、現実の社会にバイアスがあると、データにそのバイアスが反映され、AIによって差別的判断の再生産が起こるのだ。また、AIは個人を一人の人間としてではなく、属性の束として扱うため、例えば出身地、性別、人種、学歴などの属性に基づく差別が起こりうる。それは前近代の身分による差別と類似のものだが、AIが介在する場合はそのインパクトは大きく、差別が固定化されやすい。成原さんは以上の考察から、AIが差別を生み出している、というよりはこれまで社会に存在している差別をAIが再生産している、またはAIによる差別が社会における差別を可視化し、我々に差別とは何か、公平性とは何かという問いを突きつけていると述べた。
次いで、コメンテーターである明戸さんと堀田さんからは、AIがデータや統計に基づいて選別する際に、どこまでが許される差別でどこからが許されない差別なのか、その線引きを考える必要性があるという視点が提供された。その上で今後の対策として、まず何が差別で、公平性とは何かという議論を社会全体で行い、コンセンサスを作ること、それに基づいて倫理規範や法規範を作り、その上で技術的な議論を行う必要性が強調された。また、従来新しいテクノロジーの開発においては、開発後に法的な議論や社会学的批判が行われてきたが、今後はテクノロジーの開発段階から倫理や法といった視点を取り入れる必要があることが共有された。

2時間30分にわたるシンポジウムは、今後も続けていくべき議論の方向性のひとつを指し示すものとなった。国際社会においてもすでに議論が始まっている。人種差別撤廃委員会はAIと人種プロファイリングに関して2017年から協議を始め、近いうちにこのテーマに関する一般的勧告が採択される予定だ。IMADRも国連などでの議論および国内での議論を視野にいれながらこの問題を追求していく。
最後になるが、シンポジウムの内容を「AIと差別」と題したブックレットにして近々発行する予定である。多くの人に読んでいただきたい。