
チャットGPTのような対話型の生成AI(人工知能)が作り出す答えに偏見はないか。
政府のAI戦略会議の有識者委員も務める、江間有沙東京大学未来ビジョン研究センター准教授は、社会の偏見を再生産する問題は、AIでも、グーグルのような検索エンジンでも以前からある課題だと言います。
解決策はあるのか。江間さんに聞きました。【聞き手・須藤孝】
◇ ◇ ◇
「社長」で画像検索すると
――生成AIの性格上、社会にある無意識の偏見や思い込みを反映するのではないでしょうか。
江間氏 論争的な課題については、両論併記で答えるように設計されているようです。
しかし、文章や物語を生成する時には、女性がアシスタント業務についているとか、政治家や裁判官の職に就くのは男性というような、アンコンシャス・バイアス、無意識の偏見と言われる記述がされる可能性があります。
――AIに限った問題ではありませんね。
◆「社長」で画像検索をするとどんな人が出てくるか。あるいは「看護師」ではどうでしょうか。外国の例では「警官」で画像検索をすると白人男性が多く出てくることなどが指摘されます。
結果に偏りがあることを認識したうえで使わなければならないとは以前から言われてきました。
機械学習をベースにしているAIは、現在は過去と同じだという前提で結果を出力します。社会の偏見がAIによって再生産されることは、AIによって生じるバイアスとして問題となっています。
人間が調整している
――人間社会の構造を反映しているわけですが、だからいいというわけにはいきません。
◆どう補正するかは難しい問題です。たとえ…
この記事は有料記事です。
残り950文字(全文1633文字)