RT 5 Jan, 2020 間違ってはいけない:軍用ロボットは人間の命を守るためにあるのではなく、更にいっそう終わりのない戦争を可能にするためにある https://www.rt.com/op-ed/476705-killer-robots-save-lives-war/ 米国人ジャーナリスト、RT政治コメンテーター|ヘレン・ブイニスキー記 戦場で人間の軍隊がロボットに取って代わられる時、それは国防総省が人命の価値について何らかの啓示を受けたからではなく、目に見える死傷者を最小限に抑えることによる、反戦抗議活動を鎮めるための取り組みとなるだろう。 米軍の指揮官たちは、陸軍の戦争シミュレーションで人間とロボットの連合軍がその3倍の規模の人間だけの部隊を何度も撃退したことから、殺人ロボットを手に入れたくてうずうずしている。コンピューターでシミュレートされたこの武力衝突に使われた技術はまだ存在しない―コンセプトは数ヶ月前に考案されたばかりだ。しかし、開発は進行中であり、戦争より平和を好む人なら誰でも気になるはずだ。 「我々は米軍に対するリスクを基本的にゼロにし、それでも任務を遂行することができた」と、フォートベニング機動戦闘研究所でシミュレーション上の兵士たちを指揮して十数回の戦闘を経験したフィリップ・ベランジャー陸軍大尉は先週、ブレイキング・ディフェンス誌に語った。ロボットの援軍なしで、自分たちの3倍の規模の部隊と再び戦おうとした時は?「上手くいかなかった」とベランジャーは認めた。 ■何が間違っているのか? では、なぜ米軍は殺害向けに特別に設計されたロボットを送り込んで部隊を救ってはいけないのだろうか?米国が拡大し続ける終わりのない戦争に反対する理由には、米国人の命を守ることがその一つにあるが、それだけではないということだ。無人機攻撃による民間人の死傷は既に大きな問題となっており、一部の推定によると、意図した標的を殺害できる確率は僅か10パーセントに過ぎない。殺人ロボットの初期形態である無人機は、操作者への感覚入力を最小限に抑えるため、戦闘員と非戦闘員を区別するのが難しい。歩兵ロボットを遠くから操作する兵士は、地面に張り付いているため視界が更に悪くなり、アクションから物理的に離れているため、一人称視点のシューティング ビデオゲームで引き金を引くのと変わらない「先に撃って質問は後回し」という行為に至る。 従って、ロボット部隊を使うことで米軍の命が救われる分、相手側の民間人の死傷者が急増することになるだろう。「巻き添え被害」がしばしばそうであるように、メディアはこれを無視するだろうが、国連や他の国際機関は長らく行方不明だった背骨を見つけ出し、国防総省の殺人マシンによる罪のない人々の大虐殺を叫ぶかもしれない。 更に悪いことに、文字通り「自腹を切る」必要がないということは、米国がその意向に従わない国と戦争を始めるのを かつては阻止していた主要な障壁の一つが低くなることを意味する。米国はこの半世紀以上、軍事的に対等な敵との戦いを選んでこなかったが、国防総省の軍事力を9倍に増強できるロボットは、米国側が有利になるよう、勢力の均衡に深刻な変化をもたらすだろう。この国のトップクラスの戦争屋たちは、誰を最初に攻撃するかを巡って仲間内で争うことになるだろうが、不安を募らせる国民には、米国が選んだ標的がたまたま報復として海外で爆弾を投下するような場合を除き、自分たちの息子や娘が危険に晒されることはないのだと釘を刺すのである。 自国の兵士の犠牲が回避できれば、米国がこれまで戦争したくてもできなかった、あらゆる戦争への扉を開くことになるという ぞっとするような可能性は、既に22兆ドルを超える借金を抱えているという事実に突き当たっている。既に巨大な軍事力をこれ以上拡大する余裕はあり得ない。しかし、国防総省は決して資金不足に陥ることはない。今年、国防総省は予算に210億ドルを追加したし、最も無謀な兵器計画であっても資金がないと言われたことは一度もない。つまり、資金こそが終わりなき戦争の拡大を支えているのだろうが、米国ではFRBが更に印刷するだけで済むのである。 ■もっと悪くなる可能性もある フォートベニングの実験は既に、終わりのない戦争というディストピア的な未来を暗示している。しかし、小競り合いのシミュレーションに勝利するために使用された技術は、開発中の他の技術に比べれば、全く古めかしいものだ。自律型殺人ロボット(人工知能を使って自ら標的を選んで殺すロボット)は、戦争を完全に非人間化し、質問もせず、口答えもせず、撃てと言われれば誰であろうと躊躇なく撃つ兵士で隊列を埋めるという使命の論理的終着点である。 このような技術の落とし穴は明らかだ。もしAIが皮肉と普通の会話、あるいは有罪判決を受けた重罪犯と議員を区別できるように訓練ができないなら、どうやって民間人と兵士を―あるいは敵と味方を―確実に区別することができるだろうか? ロボットが終末をもたらすのをスクリーン上では誰もが見たことがるが、イーロン・マスクやスティーヴン・ホーキング博士のような現実世界の聡明な頭脳が、AIが人類に破滅をもたらす可能性があると警鐘を鳴らしたことで、SFが現実を侵害し始めている。彼らの警告は、技術系メディアの数十もの解説記事によって反響を呼んだ。 ロボット仲間の「フレンドリーファイア」によって死亡した最初の人間の兵士は、間違いなく事故に仕立てられるだろう。しかし、本格的なロボットの反乱が起こった場合、誰が責任を負うのだろうか?ターミネーターやマトリックスのプロットを覚えている人はいるだろうか? 戦争ロボットに関心のある軍部は、悪評を承知している。国防総省の最近の研究(ロボットで強化された人間に焦点を当てたものだが、ロボット兵士にも適用可能)では、こうした技術の影響に対しては、恐らくはロボットによる大惨事に反応して、後から急いで規制の枠組みを作るよりも、事前に規制の枠組みを作ることで「予測」し「準備」する方が良いと警告している。軍事指導者たちは、自分たちが適切と考える技術を自由に開発できるようにすべく、「強化技術に関する否定的な文化的言説を覆す」努力をすべきである。一般市民が頭の中に抱えているディストピア的言説が、開発者たちの全ての楽しみを台無しにしてしまわないように。 一方、人類を破滅させかねない技術に対して「様子見」的なアプローチをとらない反戦団体、科学者、学者、政治家の連合である「殺人ロボット阻止キャンペーン」は、自律型殺人マシンの国際的禁止を採択するよう国連に呼びかけている。あなたは誰の未来を望むだろうか?
チャンネルに入会
フォロー
孫崎享チャンネル
(ID:18471112)
RT 5 Jan, 2020
間違ってはいけない:軍用ロボットは人間の命を守るためにあるのではなく、更にいっそう終わりのない戦争を可能にするためにある
https://www.rt.com/op-ed/476705-killer-robots-save-lives-war/
米国人ジャーナリスト、RT政治コメンテーター|ヘレン・ブイニスキー記
戦場で人間の軍隊がロボットに取って代わられる時、それは国防総省が人命の価値について何らかの啓示を受けたからではなく、目に見える死傷者を最小限に抑えることによる、反戦抗議活動を鎮めるための取り組みとなるだろう。
米軍の指揮官たちは、陸軍の戦争シミュレーションで人間とロボットの連合軍がその3倍の規模の人間だけの部隊を何度も撃退したことから、殺人ロボットを手に入れたくてうずうずしている。コンピューターでシミュレートされたこの武力衝突に使われた技術はまだ存在しない―コンセプトは数ヶ月前に考案されたばかりだ。しかし、開発は進行中であり、戦争より平和を好む人なら誰でも気になるはずだ。
「我々は米軍に対するリスクを基本的にゼロにし、それでも任務を遂行することができた」と、フォートベニング機動戦闘研究所でシミュレーション上の兵士たちを指揮して十数回の戦闘を経験したフィリップ・ベランジャー陸軍大尉は先週、ブレイキング・ディフェンス誌に語った。ロボットの援軍なしで、自分たちの3倍の規模の部隊と再び戦おうとした時は?「上手くいかなかった」とベランジャーは認めた。
■何が間違っているのか?
では、なぜ米軍は殺害向けに特別に設計されたロボットを送り込んで部隊を救ってはいけないのだろうか?米国が拡大し続ける終わりのない戦争に反対する理由には、米国人の命を守ることがその一つにあるが、それだけではないということだ。無人機攻撃による民間人の死傷は既に大きな問題となっており、一部の推定によると、意図した標的を殺害できる確率は僅か10パーセントに過ぎない。殺人ロボットの初期形態である無人機は、操作者への感覚入力を最小限に抑えるため、戦闘員と非戦闘員を区別するのが難しい。歩兵ロボットを遠くから操作する兵士は、地面に張り付いているため視界が更に悪くなり、アクションから物理的に離れているため、一人称視点のシューティング ビデオゲームで引き金を引くのと変わらない「先に撃って質問は後回し」という行為に至る。
従って、ロボット部隊を使うことで米軍の命が救われる分、相手側の民間人の死傷者が急増することになるだろう。「巻き添え被害」がしばしばそうであるように、メディアはこれを無視するだろうが、国連や他の国際機関は長らく行方不明だった背骨を見つけ出し、国防総省の殺人マシンによる罪のない人々の大虐殺を叫ぶかもしれない。
更に悪いことに、文字通り「自腹を切る」必要がないということは、米国がその意向に従わない国と戦争を始めるのを かつては阻止していた主要な障壁の一つが低くなることを意味する。米国はこの半世紀以上、軍事的に対等な敵との戦いを選んでこなかったが、国防総省の軍事力を9倍に増強できるロボットは、米国側が有利になるよう、勢力の均衡に深刻な変化をもたらすだろう。この国のトップクラスの戦争屋たちは、誰を最初に攻撃するかを巡って仲間内で争うことになるだろうが、不安を募らせる国民には、米国が選んだ標的がたまたま報復として海外で爆弾を投下するような場合を除き、自分たちの息子や娘が危険に晒されることはないのだと釘を刺すのである。
自国の兵士の犠牲が回避できれば、米国がこれまで戦争したくてもできなかった、あらゆる戦争への扉を開くことになるという ぞっとするような可能性は、既に22兆ドルを超える借金を抱えているという事実に突き当たっている。既に巨大な軍事力をこれ以上拡大する余裕はあり得ない。しかし、国防総省は決して資金不足に陥ることはない。今年、国防総省は予算に210億ドルを追加したし、最も無謀な兵器計画であっても資金がないと言われたことは一度もない。つまり、資金こそが終わりなき戦争の拡大を支えているのだろうが、米国ではFRBが更に印刷するだけで済むのである。
■もっと悪くなる可能性もある
フォートベニングの実験は既に、終わりのない戦争というディストピア的な未来を暗示している。しかし、小競り合いのシミュレーションに勝利するために使用された技術は、開発中の他の技術に比べれば、全く古めかしいものだ。自律型殺人ロボット(人工知能を使って自ら標的を選んで殺すロボット)は、戦争を完全に非人間化し、質問もせず、口答えもせず、撃てと言われれば誰であろうと躊躇なく撃つ兵士で隊列を埋めるという使命の論理的終着点である。
このような技術の落とし穴は明らかだ。もしAIが皮肉と普通の会話、あるいは有罪判決を受けた重罪犯と議員を区別できるように訓練ができないなら、どうやって民間人と兵士を―あるいは敵と味方を―確実に区別することができるだろうか?
ロボットが終末をもたらすのをスクリーン上では誰もが見たことがるが、イーロン・マスクやスティーヴン・ホーキング博士のような現実世界の聡明な頭脳が、AIが人類に破滅をもたらす可能性があると警鐘を鳴らしたことで、SFが現実を侵害し始めている。彼らの警告は、技術系メディアの数十もの解説記事によって反響を呼んだ。
ロボット仲間の「フレンドリーファイア」によって死亡した最初の人間の兵士は、間違いなく事故に仕立てられるだろう。しかし、本格的なロボットの反乱が起こった場合、誰が責任を負うのだろうか?ターミネーターやマトリックスのプロットを覚えている人はいるだろうか?
戦争ロボットに関心のある軍部は、悪評を承知している。国防総省の最近の研究(ロボットで強化された人間に焦点を当てたものだが、ロボット兵士にも適用可能)では、こうした技術の影響に対しては、恐らくはロボットによる大惨事に反応して、後から急いで規制の枠組みを作るよりも、事前に規制の枠組みを作ることで「予測」し「準備」する方が良いと警告している。軍事指導者たちは、自分たちが適切と考える技術を自由に開発できるようにすべく、「強化技術に関する否定的な文化的言説を覆す」努力をすべきである。一般市民が頭の中に抱えているディストピア的言説が、開発者たちの全ての楽しみを台無しにしてしまわないように。
一方、人類を破滅させかねない技術に対して「様子見」的なアプローチをとらない反戦団体、科学者、学者、政治家の連合である「殺人ロボット阻止キャンペーン」は、自律型殺人マシンの国際的禁止を採択するよう国連に呼びかけている。あなたは誰の未来を望むだろうか?