更新日:2015年12月23日 12:42
ニュース

戦場でロボットが人を殺す「人工知能兵器」。核兵器より容易に作れ、ハッキングの危険性も

ロボット兵器の開発が進んでいる 国際NGO「アムネスティ」は、人工知能を搭載したロボット兵器の開発が米露、中国、英国、イスラエル、韓国で特に顕著だと指摘する。  戦場でロボットが人を殺す世界は、すでに現実化しているため、各国の研究者や専門家から規制すべきだという声が高まっている。  危険性としてまず考えられるのが誤爆だ。実戦に投入されて久しい自律型軍事用ドローンの誤爆は、その危険性を十分に裏付ける。 「パキスタン、アフガニスタン、イエメンなどの国々ではすでに、米軍の軍事用ドローンの誤爆で多くの民間人犠牲者が出ており、その死者数は3000人以上に達するという試算もあります」(ロボット専門メディア『ロボティア』編集長・河鐘基氏)  国立情報学研究所准教授・市瀬龍太郎氏は「AI兵器には反対」との立場を取りながら「AI搭載型兵器に賛成する人々のなかには、自国兵士に死者が出ないばかりか、一般の人間より正確にミッションを達成できると主張している者もいる」と話す。  また、誤爆以外にも懸念すべき点は多い。例えばテロ組織にAI兵器が拡散する可能性が挙げられる。 「核兵器などとは異なり、比較的容易に作れ、入手・流通してしまう可能性がある」(京都大学大学院情報学研究科教授・西田豊明氏)  さらにISのようにIT技術に長けたテロリストの場合、人工知能兵器をハッキングして乗っ取ることも考えられる。  何よりもまず、機械が人を殺すということは、道徳的・倫理的にも大きな問題を抱える。 「38度線ではすでに韓国軍が知能型攻撃システム『SGR-1』を配備している。現状では最終的な射撃判断は人間がしますが、人工知能による攻撃も可能です」  AI兵器は日本のすぐ近くですでに運用されているのだ。 【河鐘基氏】 ロボット専門メディア『ロボティア』編集長。著書に『ドローンの衝撃』(扶桑社刊)など。http://roboteer-tokyo.com/ 【市瀬龍太郎氏】 国立情報学研究所准教授。汎用人工知能研究会主幹事。共訳書に『エージェント・アプローチ 人工知能』など 【西田豊明氏】 京都大学大学院情報学研究科教授。人工知能学会倫理員会メンバーで中心的役割を担っている 取材・文/SPA!AI取材班 ※写真はイメージです ― 本当は恐ろしい[人工知能]の世界 ―
ドローンの衝撃

法的解釈を含め、ドローンに関する基礎的情報をいっきに紹介する

エージェントアプローチ 人工知能

人工知能全般について、「知的エージェント」を統一テーマとして詳細に解説。

おすすめ記事