A―1人知超すAIは人を操る 「ゴッドファーザー」が語る脅威(日経)
テクノ新世インタビュー トロント大学のジェフリー・ヒントン名誉教授
[会員限定記事]【この記事のポイント】
・人類存続の危機をもたらす恐れがAIにある
・自律的に人を殺すロボット兵器が10年以内に登場
・大規模言語モデルは脳より効率的に学習できる
人工知能(AI)が驚異的な速さで進化を続けている。あらゆる分野で人類の知能を上回る時代が訪れたとき、世界はどう変わるのか。
A-2汎用人工知能による人類滅亡のリスク(ウィキペディア)
汎用人工知能による人類滅亡のリスクとは、汎用人工知能(Artificial General Intelligence:AGI)の大幅な進歩により、人類の絶滅や地球規模の大災害が起こる可能性があるという仮説。
概要
汎用人工知能による人類滅亡のリスクの可能性は広く議論されている。かつてのサイエンス・フィクションの専売特
ここから先は有料になります
ニコニコポイントで購入する
チャンネルに入会して購読する
- この記事は過去記事の為、今入会しても読めません。ニコニコポイントでご購入下さい。
-
中国(王毅外相)は対ロ関係深化を約束し、中国を抑圧することへの米国の「執着」を批判。バイデン氏が台湾独立を支持しないと約束したことを指摘、台湾での「火遊びの罪で焼かれる」と付け加え、グローバル・サウスはサイレント・マジョリティーではなく、国際秩序を改革する力」
-
一覧へ
-
随想⑪ 松本竣介立てる像 1941年『みづゑ』に寄稿「芸術一般に於けるヒューマニティは普遍妥当性を持った外延量となるのである。如何に国家、民族性を強ひようとも、ヒューマニティの裏づけがなければ、内包量の拡大は望まれない。」(大東亜共栄圏への批判)。そしてすくっと立つ自画像を描く
コメント
RT 5 Jan, 2020
間違ってはいけない:軍用ロボットは人間の命を守るためにあるのではなく、更にいっそう終わりのない戦争を可能にするためにある
https://www.rt.com/op-ed/476705-killer-robots-save-lives-war/
米国人ジャーナリスト、RT政治コメンテーター|ヘレン・ブイニスキー記
戦場で人間の軍隊がロボットに取って代わられる時、それは国防総省が人命の価値について何らかの啓示を受けたからではなく、目に見える死傷者を最小限に抑えることによる、反戦抗議活動を鎮めるための取り組みとなるだろう。
米軍の指揮官たちは、陸軍の戦争シミュレーションで人間とロボットの連合軍がその3倍の規模の人間だけの部隊を何度も撃退したことから、殺人ロボットを手に入れたくてうずうずしている。コンピューターでシミュレートされたこの武力衝突に使われた技術はまだ存在しない―コンセプトは数ヶ月前に考案されたばかりだ。しかし、開発は進行中であり、戦争より平和を好む人なら誰でも気になるはずだ。
「我々は米軍に対するリスクを基本的にゼロにし、それでも任務を遂行することができた」と、フォートベニング機動戦闘研究所でシミュレーション上の兵士たちを指揮して十数回の戦闘を経験したフィリップ・ベランジャー陸軍大尉は先週、ブレイキング・ディフェンス誌に語った。ロボットの援軍なしで、自分たちの3倍の規模の部隊と再び戦おうとした時は?「上手くいかなかった」とベランジャーは認めた。
■何が間違っているのか?
では、なぜ米軍は殺害向けに特別に設計されたロボットを送り込んで部隊を救ってはいけないのだろうか?米国が拡大し続ける終わりのない戦争に反対する理由には、米国人の命を守ることがその一つにあるが、それだけではないということだ。無人機攻撃による民間人の死傷は既に大きな問題となっており、一部の推定によると、意図した標的を殺害できる確率は僅か10パーセントに過ぎない。殺人ロボットの初期形態である無人機は、操作者への感覚入力を最小限に抑えるため、戦闘員と非戦闘員を区別するのが難しい。歩兵ロボットを遠くから操作する兵士は、地面に張り付いているため視界が更に悪くなり、アクションから物理的に離れているため、一人称視点のシューティング ビデオゲームで引き金を引くのと変わらない「先に撃って質問は後回し」という行為に至る。
従って、ロボット部隊を使うことで米軍の命が救われる分、相手側の民間人の死傷者が急増することになるだろう。「巻き添え被害」がしばしばそうであるように、メディアはこれを無視するだろうが、国連や他の国際機関は長らく行方不明だった背骨を見つけ出し、国防総省の殺人マシンによる罪のない人々の大虐殺を叫ぶかもしれない。
更に悪いことに、文字通り「自腹を切る」必要がないということは、米国がその意向に従わない国と戦争を始めるのを かつては阻止していた主要な障壁の一つが低くなることを意味する。米国はこの半世紀以上、軍事的に対等な敵との戦いを選んでこなかったが、国防総省の軍事力を9倍に増強できるロボットは、米国側が有利になるよう、勢力の均衡に深刻な変化をもたらすだろう。この国のトップクラスの戦争屋たちは、誰を最初に攻撃するかを巡って仲間内で争うことになるだろうが、不安を募らせる国民には、米国が選んだ標的がたまたま報復として海外で爆弾を投下するような場合を除き、自分たちの息子や娘が危険に晒されることはないのだと釘を刺すのである。
自国の兵士の犠牲が回避できれば、米国がこれまで戦争したくてもできなかった、あらゆる戦争への扉を開くことになるという ぞっとするような可能性は、既に22兆ドルを超える借金を抱えているという事実に突き当たっている。既に巨大な軍事力をこれ以上拡大する余裕はあり得ない。しかし、国防総省は決して資金不足に陥ることはない。今年、国防総省は予算に210億ドルを追加したし、最も無謀な兵器計画であっても資金がないと言われたことは一度もない。つまり、資金こそが終わりなき戦争の拡大を支えているのだろうが、米国ではFRBが更に印刷するだけで済むのである。
■もっと悪くなる可能性もある
フォートベニングの実験は既に、終わりのない戦争というディストピア的な未来を暗示している。しかし、小競り合いのシミュレーションに勝利するために使用された技術は、開発中の他の技術に比べれば、全く古めかしいものだ。自律型殺人ロボット(人工知能を使って自ら標的を選んで殺すロボット)は、戦争を完全に非人間化し、質問もせず、口答えもせず、撃てと言われれば誰であろうと躊躇なく撃つ兵士で隊列を埋めるという使命の論理的終着点である。
このような技術の落とし穴は明らかだ。もしAIが皮肉と普通の会話、あるいは有罪判決を受けた重罪犯と議員を区別できるように訓練ができないなら、どうやって民間人と兵士を―あるいは敵と味方を―確実に区別することができるだろうか?
ロボットが終末をもたらすのをスクリーン上では誰もが見たことがるが、イーロン・マスクやスティーヴン・ホーキング博士のような現実世界の聡明な頭脳が、AIが人類に破滅をもたらす可能性があると警鐘を鳴らしたことで、SFが現実を侵害し始めている。彼らの警告は、技術系メディアの数十もの解説記事によって反響を呼んだ。
ロボット仲間の「フレンドリーファイア」によって死亡した最初の人間の兵士は、間違いなく事故に仕立てられるだろう。しかし、本格的なロボットの反乱が起こった場合、誰が責任を負うのだろうか?ターミネーターやマトリックスのプロットを覚えている人はいるだろうか?
戦争ロボットに関心のある軍部は、悪評を承知している。国防総省の最近の研究(ロボットで強化された人間に焦点を当てたものだが、ロボット兵士にも適用可能)では、こうした技術の影響に対しては、恐らくはロボットによる大惨事に反応して、後から急いで規制の枠組みを作るよりも、事前に規制の枠組みを作ることで「予測」し「準備」する方が良いと警告している。軍事指導者たちは、自分たちが適切と考える技術を自由に開発できるようにすべく、「強化技術に関する否定的な文化的言説を覆す」努力をすべきである。一般市民が頭の中に抱えているディストピア的言説が、開発者たちの全ての楽しみを台無しにしてしまわないように。
一方、人類を破滅させかねない技術に対して「様子見」的なアプローチをとらない反戦団体、科学者、学者、政治家の連合である「殺人ロボット阻止キャンペーン」は、自律型殺人マシンの国際的禁止を採択するよう国連に呼びかけている。あなたは誰の未来を望むだろうか?
ロシア正教にはICBMの守護聖人がいるらしいし、核兵器に祝福を与えるらしいですね。大ロシア主義はロシア正教と相性抜群だし。
ロシア正教だけのせいではないけど、「兵士は畑にはえてくる」などといって、使い捨てにするのは、むかしからのロシア(ソ連)の伝統だし、現にプリゴジンもそういう戦い方したし、アウディーイウカもそんな感じだったらしいね。
ま、そういうわけなので、すでにロシアには、「超兵器:ロシア正教」が存在してるんですよ。似たようなのは大日本帝国にも存在してたかもしれませんが。
西欧や北米でこの手の議論がおきるのは、19世紀に神様をいっぺん殺しちゃったからでしょうね。テクノロジーのなかに一神教的な神が復活するのかしないのか、つねに問題にするひとが出てくる。大きなチカラのあるテクノロジーは大量に人を殺す可能性があるというのは、そのとおりですが、言ってることが新しい感じはまったくしません。
戦争にとって宗教は二次的な関連しかないと思いますね。剰余価値を求める資本にとってロシアとアラブの地はフロンテイアなんです。プーチンはそのことを深く理解しておりその防衛に於いては抜かりはないでしょう。元々武器つくりのうまさではロシア人は米国人に負けてませんし。
本件は人類の存亡に関わる問題ゆえ、米国は帝国主義をいさぎよく放棄し、フランクリンルーズベルトの帝国の枠組みを残し中露を家臣に取り立て恒久平和を樹立すべき時期に来ていると私は思ってます。
(ID:119568177)
>将来の知能の爆発が人類を危機に陥れる可能性があり、そのような予測不能な知能の爆発が人類の絶滅またはそれに匹敵する大災害をもたらす可能性がある。
理論的には超知能AIが人類の制御を超えて、人類に自立対抗する未来は三文SF小説だけに留まらぬ現実なのだろう。
しかし、よく考えてみると、人類は大昔から今日に至るまで殺しあい即ち、戦争を繰り返してきた。
ウクライナで、ガザ地区で大規模な戦争が継続している。そして、これらが人類によって「制御」されているか、というと、私にはとてもそうは見えない。
ロシアの特別軍事作戦は、ロシア勝利のうちに終結して、外交交渉によりクリミアからウクライナ南東部はロシアに併合され、ウクライナは弱小内陸国としてロシア庇護の下、細々と存続することが合理的だと考えられるが、そのような合理性に収斂していく道筋はまだ見えない。
それは竹槍でB29に対抗しようとした大日本帝国末期を思わせるムダな無駄な抵抗を続けるゼレンスキーウクライナの不合理であり、未だにウクライナ人の死を無意味に増大させるだけの武器支援を続けるアメリカ帝国の不合理であり、欧州軍のウクライナ派兵を唱えるフランス・マクロンのエスカレーション主張であり、ウクライナでの戦争による経済的自滅の筆頭格ドイツのウクライナへのミサイル供与検討の愚である。
要するに、人類は全く戦争を「制御」、「統制」出来ない。悲劇は続き、ヒトは死に続けている。
ガザ地区はイスラエルによる虐殺無法地帯と化した。イスラエルは国際司法裁判所を無視し続けている。国際法なるものが、全く機能しないことを見せつけている。しかも、イスラエルはホロコーストやアウシュヴィッツの犠牲者、被害者だった過去を暴力虐殺正当化に転換したような、道徳的倫理的退廃を見せつけている。正に過去の悲劇から高次元のメタ倫理にアウフヘーベンするどころか、自らの迫害者とイスラエルは同類であったことを暴露した。
ここにはモラルの面でも、人類の退廃、堕落がある。
合理的制御や統制は、一般的には法律の形に結晶するだろう。しかし、上記のように、国際法は機能しないし、社会のアチコチに実際には「無法地帯」は出現する。社会の無法地帯は反社会的勢力とか、麻薬組織が社会的に根を張り法律に対抗しうる独自ルールを構築している状態を想定すると、分かりやすいと思われる。
制御や統制を担う「社会契約」としての法律の外側、即ち無法地帯という「自然状態」は今もアチコチで発生している。その中で、ヒトは殺されている。つまり、戦争や犯罪である。
私は、未だに人類は戦争や犯罪を合理的に制御、統制出来ずにいると、悲観的に見ている。AIが爆発的に機能するミライは、進歩のない人類の自滅を加速させる役割を担うのだろうか?
いずれにせよ、根本的に愚かなのは、AIではなく人類だ、というのが結論ではなかろうか?