殺人機械: 軍事における AI の使用について話す必要がある理由

テクノロジーと紛争の交差点を何年も研究してきた研究者として、私は軍事作戦における人工知能(AI)の使用がエスカレートしていることに深く悩んでいます。ウクライナで自律型無人機によって追い詰められたロシア兵の悲劇的な物語は、高度なAI技術が適切な保護手段や規制なしにいかに兵器化されているかを示す恐ろしい一例にすぎない。

疲れ果てた一日の戦闘を終えて、一人の疲れ果てたロシア兵が塹壕から出てきた。この塹壕には、ロシア・ウクライナ戦争中に亡くなった戦友が散乱している。彼がよろめきながら彼らの体を踏み越えると、ウクライナの無人機が頭上で絶えずホバリングし、それとわかる背筋が凍るようなハム音を発した。

仕留める前に獲物をもてあそぶハンターと同じように、AI 制御のドローンが兵士を追跡し、近くに爆発物を投下して傷を負わせます。最終的に衰弱した兵士は降伏し、ドローンの前に手を置いて嘆願した。ドローンは兵士に致命的な攻撃を加える前に、熟考しているような印象を与えながら一時停止します。

機械学習、人工知能、洗練されたハードウェアなどの先進テクノロジーが融合し、ウクライナの田舎や中東のガザ地区を含むさまざまな地域で破壊を引き起こす 21 世紀の戦場を体験してください。

AI技術が世界的に普及するにつれ、AI技術はもはやスマートフォンやエアコンだけのものではなくなりました。最近では、人工知能が軍隊に導入されるようになり、その顕著な例としてはロシアとウクライナ、イスラエルとハマスの紛争が挙げられます。残念なことに犠牲者の数は数千人に達しており、多くの人権活動家は、疑わしい監視、操作されたビデオ、高度な軍事作戦におけるAIの使用の増加に懸念を表明している。

「軍事における人工知能の責任ある雇用」(REAIM)と題された2日間のカンファレンスが、9月9日から10日まで韓国のソウルで開催される。この会合には米国や中国を含む約90カ国の代表者のほか、軍需産業の有力者が出席する。これらの参加者は、軍事作戦における AI の適用を制御する方法を見つけることを目的とした議論に参加します。

ソウルでの REAIM サミットとは何ですか?

2 日間にわたる REAIM サミットの中心には、軍事支援システムに人工知能を適用するための世界標準を確立するという使命があります。さらに、倫理的な AI の使用と管理に関する推奨事項を提供するロードマップを作成する予定です。

殺人機械: 軍事における AI の使用について話す必要がある理由

ソウルサミットはシンガポール、オランダ、ケニア、英国の共催で開催された。米国や中国を含む90カ国以上がこのサミットに公式代表団を派遣した。さらに、2,000 人を超える個人が参加登録し、このイベントの重要性と興奮を示しています。

ソウルでの集会は、この特定のイベントの 2 回目の例となりました。最初のイベントは2023年2月にオランダのハーグで開催された。最初の会議は主にAIの軍事利用に関する議論を中心に展開したが、ソウルサミットの中心テーマは代わりに解決策と対策を探ることに向けられた。

このサミットでは、私たちの主な目的は、紛争下での AI の使用に関する新たなガイドラインを確立し、軍事 AI の国際管理についての考えを促進し、それが世界の平穏と安全に及ぼすプラス面とマイナス面の両方の影響について理解を深めていくことです。

軍事における AI の利点と危険性

在庫管理、監視、探査、情報収集、戦場の戦略計画、兵站組織などの分野における人工知能 (AI) の膨大な能力を考慮すると、人工知能 (AI) の重要性が軍事機能でも高まっていることがわかります。

世界中の軍隊は人工知能 (AI) の可能性をますます理解しており、戦闘状況でそれを戦略的に採用しています。これには、戦場データの収集と分析が含まれます。これはその後、作戦に不可欠となり、意思決定、問題解決意識の向上、戦略の策定、民間人への被害の最小限化に役立ちます。

アナリストとしての私の観点から見ると、コインに表と裏があるのと同じように、人工知能 (AI) には利点と潜在的な落とし穴の両方があります。 AI の利点は否定できませんが、その使用に伴うリスクと危険性を認識することが重要です。特に懸念されるのは、軍事分野での AI の誤用であり、人命に有害な結果をもたらす可能性があります。

自律型致死兵器、違法な監視、脅迫、戦争ロボット、ハッキングにおける AI の使用、サイバー攻撃など、大きな懸念がいくつかあります。これらに加えて、AIが軍拡競争を引き起こし、世界的な緊張を高める可能性があるため、世界的な安全保障上の懸念もあります。

殺人機械: 軍事における AI の使用について話す必要がある理由

ウクライナからガザまで: 軍事 AI における現実のターミネーター シナリオ

ガザとウクライナでの最近の出来事が示すように、AI はハリウッド映画の SF をより現実のように見せています。残念なことに、これらの地域は AI 紛争の最初の戦場となっています。

メディア報道によると、イスラエル軍はガザ地区内での軍事行動に人工知能(AI)を活用しているようだ。これらの AI 駆動ドローンは、主に人口密集地のガザ地区での活動の監視と武装戦闘員の特定に利用されています。

イスラエルの自律型兵器とAI標的システム

イスラエルはガザ地区への攻撃に「ラベンダー」と「ゴスペル」と呼ばれるAI駆動の兵器システムを採用している。これらのシステムは自律的に動作し、昨年のガザ紛争中に大規模な損害と死傷者をもたらした。

殺人機械: 軍事における AI の使用について話す必要がある理由

これを超えて、イスラエルはさまざまな AI アプリケーションを軍事紛争に統合しており、その中には自律型致死兵器システム (LAW) も含まれます。これらの自動操作兵器は銃やミサイルで武装しており、顔認識、生体認証モニタリング、自律目標識別システムなどの技術が組み込まれています。

しかし、一部の活動家は、このようなAIを活用した兵器の使用は人権を侵害すると主張している。

ウクライナのヴァンパイアドローン

イスラエルと同様に、ロイター通信が報じたように、ウクライナ軍が吸血鬼をモデルにしたドローンの実験を行っていたことが2024年5月に発覚した。このドローンは兵器を備えた AI 強化デバイスであり、操作に人間の介入を最小限に抑えるように設計されています。注目すべきことに、公開された多数のオンラインビデオが証明しているように、これらの自律型ドローンはすでにロシア軍との戦闘に配備されている。

結論

アナリストとしての役割の中で、私は重要な傾向を観察しています。それは、人工知能 (AI) が軍事作戦にますます統合されており、その悪用の可能性に対する懸念が高まっているということです。ガザやウクライナで明らかなような AI 虐待の事例は、このリスクをはっきりと思い出させるものとなっています。したがって、戦争における AI の倫理的適用に関する規制と規範を確立し、AI の使用が世界的な行動基準と一致し、紛争ではなく平和を促進することを保証することが重要になります。

2024-09-10 09:09