生成AIも差別する 「無意識の偏見」から自由になれるか

江間有沙・東京大学未来ビジョン研究センター准教授
ChatGPTのロゴ=ロイター
ChatGPTのロゴ=ロイター

 チャットGPTのような対話型の生成AI(人工知能)が作り出す答えに偏見はないか。

 政府のAI戦略会議の有識者委員も務める、江間有沙東京大学未来ビジョン研究センター准教授は、社会の偏見を再生産する問題は、AIでも、グーグルのような検索エンジンでも以前からある課題だと言います。

 解決策はあるのか。江間さんに聞きました。【聞き手・須藤孝】

 ◇ ◇ ◇

「社長」で画像検索すると

 ――生成AIの性格上、社会にある無意識の偏見や思い込みを反映するのではないでしょうか。

 江間氏 論争的な課題については、両論併記で答えるように設計されているようです。

 しかし、文章や物語を生成する時には、女性がアシスタント業務についているとか、政治家や裁判官の職に就くのは男性というような、アンコンシャス・バイアス、無意識の偏見と言われる記述がされる可能性があります。

 ――AIに限った問題ではありませんね。

 ◆「社長」で画像検索をするとどんな人が出てくるか。あるいは「看護師」ではどうでしょうか。外国の例では「警官」で画像検索をすると白人男性が多く出てくることなどが指摘されます。

 結果に偏りがあることを認識したうえで使わなければならないとは以前から言われてきました。

 機械学習をベースにしているAIは、現在は過去と同じだという前提で結果を出力します。社会の偏見がAIによって再生産されることは、AIによって生じるバイアスとして問題となっています。

人間が調整している

 ――人間社会の構造を反映しているわけですが、だからいいというわけにはいきません。

 ◆どう補正するかは難しい問題です。たとえ…

この記事は有料記事です。

残り950文字(全文1633文字)

東京大学未来ビジョン研究センター准教授

 東京大学大学院総合文化研究科広域科学専攻博士課程修了。博士(学術)。2017年1月より国立研究開発法人理化学研究所革新知能統合研究センター客員研究員。専門は科学技術社会論(STS)。人工知能やロボットを含む情報技術と社会の関係について研究。主著は「AI社会の歩き方-人工知能とどう付き合うか」(化学同人、2019年)、「絵と図で分かるAIと社会」(技術評論社、2021年)。