メインメニューをとばして、このページの本文エリアへ

坂村健の目

軍事研究、リアルな葛藤

 先ごろ「グーグル 人工知能(AI)利用に関する原則示す 兵器などに使わない方針」というニュースがあった。グーグルが米国防総省とAIの研究開発契約を結んだことに技術者が抗議の退職をし、それに応えて会社として正式な原則を表明したのである。

     その原則とは「全般的に害を及ぼす、またはその恐れのある技術、害を与えることを目的とした兵器、国際的に受け入れられている規範に反する監視技術、広く認識されている国際法や人権の原則に違反する技術を開発しない」というもの。原則の割に冗舌なのは「害を与えない兵器」を考慮に入れるべきだという葛藤があったからだろう。

     学問研究は本質的に、扱い方によって平和目的にも軍事目的にも利用される両義性を持っている。例えば大規模な救急救命--特に東日本大震災のような情報が錯綜(さくそう)し混乱する現場では、災害医療支援AIは多くの命を救うはずだ。しかし非日常の現場でのデータは日常で得られず、データが足りずにAIを教育できないというジレンマがある。そういう研究では「非日常が日常」の戦場でのデータが使えれば大きく役立つだろう。

     グーグルと米国防総省のプロジェクトも、映像から助けるべき人を探し出すようなものなので、当然広域災害での救助時にも役立つはずだ。しかしこれはまた自律ドローンによる攻撃にも利用できるので「悪になるな」を社是としてきた同社内で問題になった。

     AIが「支配欲」を持ち人類に反抗するというようなSFは多いが、これを現実的と考える専門家は少ない。しかし、人が意図しないのに反抗するのではなく、意図したとおり効率的に殺人するAI--つまり「兵器としての殺人AI」の出現は時間の問題と思われている。テロリストが公開されたAIを取り込み、民生用ドローンで自爆兵器を作る恐怖もある。

     敵に乗っ取られないようにAI兵器への命令系統は暗号技術などで強く守られるが、暗号鍵がなくなったら止められない。そういう意味で殺人AI兵器の拡散は、人の意思が介在する核より危険と言う人もいる。

     その汎用(はんよう)性ゆえに「軍事利用できるAIは禁止」と言えば全て禁止になってしまう。だからこそ世界では、AI兵器禁止条約について、技術だけでなく哲学や政治の面からも真剣に討議されている。

     日本は軍事がタブーで深く考えない傾向がある。「悪になるな」を真剣に考えて退職する技術者にも、真剣に対応する会社にも「青臭さ」を感じるかもしれない。しかし「軍事研究は、これを行わないこととします」といった、日本でよくある安易な言い切りは、単にそのリアルな葛藤を感じないナイーブさの表明としか言いようがない。割り切れない中でどう進むべきか。日本が蚊帳の外に置かれるとしたら、そういうタフな議論ができないからだろう。(東洋大INIAD学部長)

    毎日新聞のアカウント

    話題の記事

    アクセスランキング

    毎時01分更新

    1. 日産会長逮捕 ゴーン神話「数字の見栄え良くしただけ」
    2. ゴーン会長逮捕 日産社長「私的流用、断じて容認できない」 会見詳報(1)
    3. 全国高校サッカー 県大会 西京、5年ぶり全国切符 高川学園の猛攻しのぐ /山口
    4. 高校野球 誤審で甲子園行き明暗…終了一転逆転 岡山大会
    5. 日産 ゴーン会長を解任へ 「会社資金を私的に流用」

    編集部のオススメ記事

    のマークについて

    毎日新聞社は、東京2020大会のオフィシャルパートナーです