メインメニューをとばして、このページの本文エリアへ

密着けいざい

AIの今/5止 暴走・悪用のリスク 道徳学習させる必要性

人工知能(AI)には「自ら善悪を判断する『基準』や『原則』が必要」と話す米タフツ大のマティアス・シューツ教授=米東部ボストン近郊で、清水憲司撮影

 「前に進みなさい」「すみません。できません」。米タフツ大学は、自らの判断で人間の命令を拒否する人工知能(AI)ロボットを開発した。机の上に置かれると、そのまま進めば机から落ちてしまうことを理解し、命令を拒む。「ちゃんと受け止めるから」という言葉を聞き、ようやく歩き始めた。

 開発したマティアス・シューツ教授は「AIは自分の行動を理解し、善悪を判断する基準を持つ必要がある」と言う。例えば「オイルをかけて」と命じられた家事ロボットが、料理ではなくストーブに油を注げば火事を起こしてしまう。「結果を考えずに単純に命令に従うAIはむしろ危険」というわけだ。

 3月には、インターネット上で人々と会話しながら発達する米マイクロソフトのAI「Tay(テイ)」の実…

この記事は有料記事です。

残り1499文字(全文1825文字)

毎日新聞のアカウント

話題の記事

アクセスランキング

毎時01分更新

  1. 記者不明 「皇太子命令取り違え、将軍が殺害で収拾」報道
  2. サウジ記者不明 アップルウオッチ通じ録音か トルコ紙
  3. プロ野球CS 広島が2年ぶり日本シリーズ出場 8回目
  4. ORICON NEWS 『この世界の(さらにいくつもの)片隅に』公開延期を発表 「制作に時間要する」19年中公開へ
  5. 伊藤園 業界初、缶入り「とん汁」22日発売 豚肉なし

編集部のオススメ記事

のマークについて

毎日新聞社は、東京2020大会のオフィシャルパートナーです