- ツイート
- みんなのツイートを見る
- シェア
- ブックマーク
- 保存
- メール
- リンク
- 印刷

人工知能(AI)で用いられる技術の一つ「機械学習」の「公平性」を考える研究が活発になっている。機械学習とは、過去の膨大なデータから、機械自身が特徴を見つけ出して将来を予測する手法だ。既に社会で広く利用され始めているが、社会的、倫理的に偏りのある結果が導き出されてしまい、公平性が問題になるケースが報告されている。専門家らは「研究者だけでなく、社会全体で考えていくべき問題だ」と指摘する。
「機械学習は過去の事例をまねて将来を予測する技術。過去の事例に偏りがあれば結果も偏る。正しく理解して使っていく必要がある」。1月9日、東京都千代田区で機械学習の公平性についてのシンポジウムが開催され、企画者の一人である、AIのベンチャー企業「プリファードネットワークス」(東京)の丸山宏フェローが冒頭で訴えた。平日夜の開催にもかかわらず、会場には企業の技術者ら約350人が集まり、専門家らの講演に耳…
この記事は有料記事です。
残り756文字(全文1150文字)