FC2ブログ

【新たなる脅威AI兵器】NHK紅白「AI美空ひばり」の違和感とは異質・別次元!完全自律型の致死性兵器(LAWS)!

2020/01/01
NHK紅白歌合戦に登場した「AI美空ひばり」
NHK紅白歌合戦に登場した「AI美空ひばり」

令和初のNHK紅白歌合戦に最新の人工知能(AI)技術でよみがえらせた「AI美空ひばり」が登場、驚きや感動を呼ぶ一方で「違和感がある」「気持ち悪い」などと不評も買ったようです。深層学習(ディープラーニング)により、AI関連の技術は急速に進展しており、新たな技術や社会システムの変革が進んでいますが、その先にあるのは輝かしい未来の予想だけではありません。

問題となっているのは、高度な人工知能(AI)を搭載した兵器が、自らの判断で攻撃して相手を殺傷する自律型致死兵器システムLAWS(ローズ=Lethal Autonomous Weapons Systems)です。LAWS、またの名を「キラーロボット」。

ロボット工学の専門家として世界的に知られ、ベンチャー企業の会長も務める広瀬茂男氏の話が産経新聞に掲載されました。広瀬氏と記者の一問一答をご紹介します。

広瀬茂男氏「開発には歯止め必要」

記者:LAWSの開発に反対する国際的な公開書簡に2017年、唯一の日本人として署名した。

広瀬氏AIの開発がこのまま進んだら、非常に危ないと考えた。個人を認識する能力などが上がり、かなり知的な判断ができるようになってきた。なかでもLAWSは正確な攻撃で大きな被害を与えるだけでなく、味方の損失を避けられるため戦争へのハードルを下げかねない。

テロや特定の民族への攻撃も可能、コピーで簡単に拡散も!

記者:AIは近年、急速に開発が進んでおり、もはや私たちの暮らしに欠かせない。

広瀬氏:確かにAIは現代社会のキーテクノロジーで、もっと可能性を追求すべきだが、悪用も簡単だ。例えば自動車の自動運転で、安全のために人や障害物を避けるのではなく、逆にぶつけるようにソフトウエアを書き換えればテロに利用できる。ビッグデータをうまく使えば民族を見分けることも可能となり、特定の民族だけを攻撃できる。これはもはやSFの世界ではないと感じる。しかもLAWSをはじめとしたAIのプログラムは一度作るといくらでもコピーでき、容易に拡散してしまう。

記者:LAWSは特定通常兵器使用禁止制限条約(CCW)の締約国会議で開発規制に向けた初の指針がまとまった。

広瀬氏:人間を関与させる方向で指針をまとめた点は評価できる。でも、規制はとても難しい。今の機械はみんな簡単にAIを組み込んでしまうのに、どうやって規制すればよいのか。AIはソフトウエアの世界で、銃や地雷のようにはっきりとした姿がない。この点がAIの怖いところでもある。

記者:指針には法的拘束力がなく、今後も国際社会は規制の在り方を議論していく。

広瀬氏:実効性があるかどうかは別としても、LAWSの開発を規制しないわけにはいかないだろう。常識的な国家であれば規制にはそれなりの効果がある。また、変な国やテロリストなどが使い出したら非常に危ないが、何も規制する動きがないと制裁を加える根拠も無くなり、それこそ開発に歯止めが利かなくなる。AIの危険性を常にはっきりさせ、何とかしようと考え続けていく以外にないのではないか。

記者:日本は完全自律型のLAWSを開発しない方針だ。

広瀬氏:それで良いと思うが、最先端の技術を使わないと防衛にならない。相手がLAWSを含め、AIでいかに攻撃してくるかを考えて準備することは、絶対にすべきだと思う。何をしてくるか分からない相手に対し、「こちらが何もしなければ、攻めてこない」などということは、あり得ないのだから。

2015年にも公開書簡、「LAWSは火薬・核兵器に続く『第3の革命』」

広瀬氏が署名した公開書簡に先立つこと2年、2015年にはテスラモーターズCEOのイーロン・マスク氏、理論物理学者のスティーヴン・ホーキング博士、アップル共同創業者のスティーブ・ウォズニアック氏ら1000人を超す人工知能(AI)・ロボットの専門家や企業関係者が、AIによる自律型兵器の開発禁止を訴える公開書簡に署名しました。
マスク氏らはLAWSを火薬・核兵器に続く「第3の革命」と位置付け、世界で開発競争が起き、ロボット戦争勃発確率が高まると警告しています。

ホーキング博士「完璧なAI開発は人類の終焉をもたらす」

AIを備えた兵器は核兵器などに比べて製作しやすく、大量生産によってコストを低く抑えることが可能です。
さらにシステムの複製も容易なため、安く量産されてどこにでも存在するようになると言われています。自立型兵器が「明日のカラシニコフ(自動小銃)」と言われるのはそのためです。

惜しくも2018年3月に亡くなったホーキング博士は「ゆっくりとした進化しか遂げられぬ人類はAIと競争はできず、取って代わられるだろう。自ら発展し、加速度的に自身を再設計する完璧なAI開発は人類の終焉をもたらす」とも予言しています。

↓「ホーキング博士の警告はもうSFレベルの話じゃないんだな」と感じた方はクリックをお願いします。


人気ブログランキング

■スティーヴン・ホーキング博士の著書ご紹介

ビッグ・クエスチョン―〈人類の難問〉に答えよう


ホーキング、宇宙を語る―ビッグバンからブラックホールまで (ハヤカワ文庫NF)
スポンサーサイト



comment (0) @ AI兵器・LAWS

【新たなる脅威AI兵器】ここでもまた中国!自らの判断で人命を奪う完全自律型の致死性兵器(LAWS)

2019/12/16

無数の無人機による攻撃(中国電子科技集団が作成したとされるCG映像より)

高度な人工知能(AI)を搭載した兵器が、自らの判断で攻撃して相手を殺傷する自律型致死兵器システム(LAWS=ローズ)を規制する初めての指針が国際会議で示されました。

問題となっているのは、人工知能(AI)を搭載し、自らの判断で人命さえも奪う、完全自律型の致死性兵器で、英語の頭文字をとってLAWS(ローズ=Lethal Autonomous Weapons Systems)と呼ばれています。またの名を「キラーロボット」。
日本はこの兵器を開発しないという立場ですが、「有意な人間の関与が確保された自律型兵器システムについては、ヒューマンエラーの減少や、省力化・省人化といった安全保障上の意義がある」としています。

自律型致死兵器システム(LAWS)は、核兵器に次ぐ兵器革命をもたらすと警告されており、米国やロシアなど10数ヵ国が開発中で、近い将来の実戦利用が懸念されています。
そして、米露にも増して、この兵器開発に力を入れているのが、中国です。

LAWSと軍事・安全保障に詳しい元陸上自衛隊東部方面総監の渡部悦和氏の話が産経新聞に掲載されました。渡部氏と記者の一問一答をご紹介します。

元陸自東部方面総監の渡部氏「規制しても実効性は全くない」

記者日本政府は、人間が関与しない完全自律型のLAWSを開発しないとの立場だ。

渡部氏政府の立場を支持する。最終的な攻撃の判断などに人間の関与を残しておくのはベターだと思う。ただ、AIの開発をこれ以上制限するのはやめるべきだ。完全な自律ではない、自律的な兵器そのものを禁止するような立場は取るべきではない。

記者LAWSの開発を規制しようとする国際社会の動きをどう思うか。

渡部氏規制しても実効性は全くない。民主国家の人権派はLAWSを完全に禁止させようとしているが、中国は開発を目指す。彼らには制限がないからだ。かつて対人地雷やクラスター爆弾の禁止条約を日本は批准したが、中国だけでなく米国やロシアも批准していない。それと同じで、LAWSを禁止する条約ができても彼らは批准しない。自らの手を縛るようなまねはしないだろう。

記者日本は将来、LAWSで武装した中国やロシアと向き合わねばならないのか。

渡部氏そう考えるべきだ。中国は米国との間で世界一争いをやっており、完全な自律型のAIを搭載したシステムが戦い合う世界を最終的なターゲットとしてにらんでいる。もっとも、完全な自律のシステムを達成するのは現代の技術でもなかなか難しい。大切なのは、完全でなくても、AIを用いた自律的なシステムがある点だ。

AIで世界一を目指す中国政府、キーワードは『AIによる軍事革命』

記者中国では無人航空機をはじめ、AIの軍事利用が急速に進んでいる。

渡部氏中国政府は2030年にAIで世界一になると言っている。人民解放軍も(民間技術の軍事転用などを行う)軍民融合の戦略の下、民間のAI技術を軍事の全ての分野に適用しようとしている。キーワードは『AIによる軍事革命』だ。例えば14億人のビッグデータは彼らのものすごい財産で、民主国家のような情報収集の制限がないため、無制限に集めてAIの開発に活用できる。彼らは真剣にやっており、いずれ人民解放軍は最先端の軍隊になってしまうだろう。

記者日本はどうすべきか。

渡部氏このままでは日本が守れなくなるという危機感を持つべきだ。新たな防衛大綱では陸海空に加えて宇宙やサイバー、電磁波といった領域も重視しているが、この全てで積極的にAIを適用する必要がある。これから必ず、尖閣諸島近くの空や海で中国の無人機に遭遇する。東シナ海や南シナ海で、無人の潜水艇による潜水艦の探知システムを構築されたら非常に大きな脅威だ。防衛に携わる者は、最悪に備えないといけない。

自衛隊がいかに優秀でも、補完的にAIを利用しなくては自衛隊員が疲弊してしまいます。
「AIは人間と異なり、疲労や睡眠不足がなく、冷静で死の恐怖も一切感じない。生身の兵士が現場で判断するよりも、AIに任せる方が信頼できるという見方もある」。韓国の国立大「韓国科学技術院(KAIST)」のAI技術研究者デビッド・ヒュンチュル・シム博士の見解です。

サウジ石油施設攻撃、国家防衛の見直し迫る無人機の脅威

iranian_delta2019.jpg
サウジアラビアの石油施設を攻撃した兵器の残骸

9月14日に発生したサウジアラビアの石油施設攻撃には、合わせて20機以上の無人航空機が使用されたといいます。
こうした無人機を使った攻撃の脅威は今後ますます高まりそうです。

さて、中国に話を戻しますと、中国空軍と中国海軍の無人機(ドローンなど)は確認されているだけでも1000機以上が実戦配備されているとされ、運用数はすでに6000機を超えていると分析する専門家もいるようです。
2017年には119機の無人機を同時に飛ばし、AIを組み入れた全機が自律的に任務を遂行しました。
日本が最も警戒しなければならない国は、やはり中国ということになりそうです。

↓「日本が最も警戒すべき国は中国!」と思う方はクリックをお願いします。


人気ブログランキング
comment (0) @ AI兵器・LAWS