2020年、平和軍縮時評

2020年04月30日

自律型殺人ロボットの開発と規制に向けた動き  森山拓也

 AI(人工知能)の発展により、AIを搭載したロボット兵器の登場が現実味を帯びてきている。市民や科学者の間では、AIに人命を奪う判断を任せて良いのか、その場合の責任は誰が負うのかといった、新しい争点が生まれている。国連では人間が命令しなくてもAI の判断で自律的に動く兵器を「自律型致死兵器システム」(Lethal Autonomous Weapon Systems: LAWS)と呼んでいる。2014年から特定通常兵器使用禁止制限条約(CCW)の枠組みで、規制に向けた議論が行われてきた。

自律型「殺人ロボット」の開発に高まる懸念

国連のグテーレス事務総長は2020年1月22日に行った所信表明演説[1]で、21世紀の進歩を危うくする4つの脅威として、①地政学的緊張、②地球温暖化、③グローバル規模での政治不信、④科学技術発展の負の側面を挙げた。このうち「科学技術発展の負の側面」について、グテーレス事務総長は「AIは人類に大きな進展とともに、大きな脅威をもたらしている。人間の判断を介さずに殺人が行える自律型殺傷兵器は、倫理観と政治的な観点から受け入れられるものではない」と述べ、AIを用いた兵器の開発に対し警鐘を鳴らした。

人間による命令や操作がなくてもAIの判断で動くことのできる完全に自律したLAWSはまだ存在していない。だが米国、ロシア、中国、フランス、イスラエル、韓国などがLAWSの開発に力を入れている。AI 兵器の自律化が実現すれば、火薬、核兵器に次ぐ軍事上の「第3 の革命」になるといわれ、戦争の様相を大きく変える可能性がある。ヒューマン・ライツ・ウォッチは2012 年の報告書で、今後30 年以内に完全自律型の殺人ロボットが開発されると予想している[2]。

LAWS の使用は、AI の判断が正確であることを前提にすれば、戦場で恐怖や興奮、復讐心などに左右されて判断を誤る人間の兵士に比べ、市民への誤爆が減るなど、むしろ人道的であるとの考え方もある。他方、LAWS に対する懸念としては、AI に人命を奪う判断をさせて良いのかという倫理的・道義的な問題が大きな争点となっている。AI が人命を奪う判断をした場合、責任の所在があいまいになる。AI の判断による違法行為に対して誰も責任を取らなくなれば、違反者を罰することで違法行為を防いできた国際人道法が機能しなくなる恐れがある。

また、戦争へのハードルが下がるのではないかという懸念がある。LAWS を使用すれば自軍の兵士が死傷する可能性が下がるため、為政者は戦争開始の判断をしやすくなる。LAWS は機械である以上、故障や誤作動を起こす可能性もある。さらに、AI が人間に反乱を起こす事態を懸念する科学者もいる。

LAWS開発の現状

ロボット兵器と聞くと、SF映画『ターミネーター』のような兵器がまず頭に浮かぶかもしれない。完全に自律した兵器は、ターミネーターのように人間に近い思考能力を持ち、自らの判断で標的を選び、攻撃を加える。だが現在のところ、そのような完全に自律した兵器はまだ存在しない。一方、AIを搭載し、機能の一部を自動化した兵器は既に存在し、戦場で使用されている。以下では栗原聡が著した『AI兵器と未来社会:キラーロボットの正体』(2019年、朝日新書)の中でのロボット兵器の分類を参考に、LAWS開発の現状を整理する。 

・半自動型兵器

まず半自動型兵器とは、人間が攻撃対象を設定し、引き金も人間が引くが、その途中過程の多くが自動化された兵器を指す。巡航ミサイルのトマホークは発射されると目的地まで自動飛行するが、目的地の設定と最後に目標を破壊するかどうかの判断は人間が行うため、半自動型である。このような半自動型兵器はすでに数多く実用化されている。半自動型兵器は人間の操作なしに運用することはできず、LAWSには含まれない。

・自動型兵器

現在、開発の禁止が議論されているLAWSに含まれるのは、次の自動型兵器からになる。自動型兵器は人間ではなくAIがプログラムに従って攻撃目標を見つけ、引き金を引く。ただし、それらの動作はあらかじめ設定されたプログラムの範囲内であり、自動化はされているが自律兵器とは言えない。自動型兵器は軍人が手を下さなくても機械が自動的に引き金を引くが、機械の動作はプログラムに従うため、実質的にはプログラムを書くエンジニアが引き金を引くということになる。

用途を限定した自動型兵器はすでに実用化されている。例えば、イスラエルが開発した無人攻撃機「ハーピー」は自爆型ドローンとも呼ばれ、攻撃対象のエリア情報を入力して発射すれば、遠隔操作なしに対象エリア上空を旋回しながら標的を自動的に見つけ、近づいて自爆する。

・自律型兵器

以上までの兵器は、どのような状況においてどのように行動するかがプログラムとして組み込まれており、行動が自動化されてはいても、兵器が自ら考えるわけではない。したがってプログラムで想定されていない状況には対応できず、誤作動する可能性もある。

これに対し、自律型兵器には、まずメタ目的が与えられる。メタ目的とは、抽象的な目的のことであり、兵器でいえば「戦況を打開せよ」といった目的がそれにあたる。自律型兵器は、与えられたメタ目的を達成するためにどのような行動をするかを自ら考える。変化する状況に応じて目標を達成するための高い汎用性も備える。

自律型兵器はまだ実現していないが、各国が基礎研究に力を入れている。

LAWSの規制に向けた交渉

LAWSの規制をめぐり、国連では地雷などの非人道兵器を規制する特定通常兵器使用禁止制限条約(CCW)の下で、2014年に非公式の専門家会合が設置された。2017年からはCCWの政府専門家会合が開かれ、各国の代表や国際機関、NGO、研究者らがLAWSの規制を議論してきた。

2019年8月にジュネーブで開催された政府専門家会合では、LAWSを規制する11項目の指針を盛り込んだ報告書が全会一致で採択された[3]。LAWS規制の初めての枠組みとなる指針は、LAWSには国際人道法が適用されること、兵器を使用する責任は人間にあること、開発・配備・使用の全ての段階で人間が関与することなどを求めている。一方、AIそのものの開発や平和利用を妨げないことも求めた。指針は同年11月のCCW締約国会議で承認され、2年後に見直しのための会合を開くことも決まった。技術や法律、軍事などの観点から議論を発展させ、国際規制の取りまとめを目指す。

政府専門家会合では中南米やアフリカを中心とする非同盟諸国のグループが、条約化などLAWSに対する法的拘束力のある規制を求めた。LAWS開発国の中国も法規制を支持するが、規制の対象となる「完全自律型」の範囲を人間が制御できない兵器や自ら進化する兵器に限定することを求めるなど、LAWS開発で争う米国に対抗して自国に有利な条件で規制議論を進める狙いとみられる。

米露など中国以外のLAWSを開発中とされる国々は、既存の国際人道法で規制可能であるとし、新たな規制には反対の立場だ。日本はCCWの政府専門家会合に向けた作業文書[4]で、完全自律型の致死性を有する兵器(LAWS)を開発する計画はないという立場を表明した。ただし、有意な人間の関与が確保されたLAWSについては、ヒューマンエラーの減少や、省力化・省人化といった安全保障上の意義があるとした。日本はフランスやドイツなどと法的拘束力のない政治宣言などの形での規制を目指している。

政府専門家会合で合意された指針はLAWS規制に向けた方向性を初めて示した点で意義があるが、法的拘束力がなく、各国の「努力目標」の域にとどまる。CCWでの決定事項は全会一致が原則であるため、思惑の異なる国々が曖昧な形で決着した結果である。ルールを都合よく解釈する国が表れる懸念があり、LAWSの問題を告発してきた国際人権団体などは失望の声をあげている。

LAWSの規制を求める国々やNGOの中には、CCWの枠組みにこだわらず、一部の国だけで新たな禁止条約を目指すべきとの議論もある。その念頭には、核兵器廃絶国際キャンペーン(ICAN)などNGOの主導で成立した核兵器禁止条約での成功体験がある。

だが、核兵器禁止条約には核保有国やその核の傘に頼る同盟国が参加せず、実効性に疑問符も付いた。LAWS禁止条約にLAWS開発国が参加する可能性は極めて低く、実効性が乏しいという問題がある。LAWS規制をめぐる対立関係は、核兵器禁止条約をめぐる対立関係と似た構図になっている。

科学者や企業もLAWS規制に向け動き

科学者や企業の間でも、LAWSに反対する動きが広がっている。国際人工知能学会は2018年7月、LAWSの開発、生産、取引、使用を行わないとする宣言を発表した。宣言には、米グーグル社傘下のAI開発企業など160社と2400人の個人が署名した。

米IT大手のグーグル社は2017年、米国防総省との間で、グーグルのAIによる映像解析をドローン攻撃の性能向上に用いるプロジェクトに契約した。2018年にこの契約が明らかになると、社内外でAIの軍事転用への懸念が高まり、複数の従業員が抗議のため退職した。さらに4千人以上の従業員が、戦争ビジネスへ参入しないようピチャイ最高経営責任者に求める公開書簡に署名した。こうした動きを受け、ピチャイ氏は2018年6月、グーグル社はAIを兵器開発や監視技術に使わないなどとするAI利用の指針[5]を発表した。

グーグル社は開発しないAIアプリケーションとして、「危害をもたらす可能性のある技術」「人を傷つけることが主目的の兵器や技術」「国際的規範に反した監視のために情報を収集・使用する技術」「国際法や人権を侵害することを目的とした技術」の4項目を挙げた。ただし、兵器使用のためのAI開発は行わないが、サイバーセキュリティ、研修、人事管理など、その他の分野での軍民協力は継続するとした。

オランダのNGO「Pax」は2019年8月、米アマゾン・ドットコム社や米マイクロソフト社といった世界有数のハイテク企業が殺人ロボットの開発に関与し、世界を危険にさらしているとする調査報告書を発表した[6]。報告書は12カ国50社をLAWSに対する姿勢で「最善の事例」「中程度の懸念」「大きな懸念」にランク付けしている。AIを兵器開発に使用しない指針を発表したグーグル社は、日本のソフトバンク社などと共に「最善の事例」に挙げられたが、米国防総省のクラウドコンピューティング契約へ入札したアマゾン社やマイクロソフト社は「大きな懸念」に分類された。

AIやロボットは軍民両用の技術であり、使用者だけでなく、開発者にも倫理が求められる。技術の軍事転用を防ぐため、AIやロボットの開発に取り組む企業は、何に取り組み、何には取り組まないかの倫理指針を定めるべきだ。

完全に自律したLAWSはまだ存在せず、その定義もあいまいな点が残るが、AI技術は急速に発展しており、本格的なLAWSが登場する前に実効性を持った規制の枠組みを作る必要性が増している。核兵器や対人地雷、生物・化学兵器は、それらが実際に使用された後に規制や禁止の国際ルールが作られた。LAWSでも技術が先行し、規制の議論が置き去りになっている。LAWSの使用が悲惨な結果を招く前に、それを防ぐルール作りが求められる。さらに言えば、軍事力によらない安全保障体制の構築をめざし、戦争のない世界を作るという観点からは、そもそもLAWSのような兵器体系の開発そのものを禁止する枠組み作りが求められている。

[1] 国連HP

https://www.un.org/sg/en/content/sg/statement/2020-01-22/secretary-generals-remarks-the-general-assembly-his-priorities-for-2020-bilingual-delivered-scroll-down-for-all-english-version

[2] https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots

[3] ピースデポ刊『ピース・アルマナック2020』(2020年6月刊行予定)に11項目の指針の日本語訳。

[4] 外務省HP https://www.mofa.go.jp/mofaj/files/000459707.pdf

[5] https://www.blog.google/technology/ai/ai-principles

[6] https://www.paxforpeace.nl/publications/all-publications/dont-be-evil

 

TOPに戻る