一言で言うと
米国防総省がPalantirのAIプラットフォーム「Maven Smart System」を正式な中核システムとして扱い始め、軍事の判断をAIに深く組み込む方向を鮮明にしました。
何が起きているのか
米国防総省は、Palantirが開発したAIプラットフォーム「Maven Smart System」を、正式なプログラム・オブ・レコードに指定する意向を明らかにしました。これは、単発の実証実験ではなく、継続的に予算をつけて運用する中核システムとして扱うことを意味します。これにより、Mavenへの投資は2024年の4億8000万ドルから、今年度には130億ドルを超える規模に拡大します。
Mavenは、衛星画像、ドローン映像、レーダー、赤外線センサー、信号情報、地理位置情報など150以上の情報源からデータを集め、コンピュータービジョンを使って戦場の対象物を検出し、ターゲティングの推奨を行う仕組みです。要するに、人が大量の情報を順に読んで判断していた工程の一部を、AIが前さばきし、優先順位までつけて返すシステムだと言えます。
Mavenはすでに全ての米国戦闘コマンドに配備されており、2021年のカブール空輸、2022年のウクライナ軍への標的座標提供、そして最近の2026年のイランに対するOperation Epic Furyなどで使用されました。NATOも2025年3月にMavenのバージョンを取得しています。
AI業界の文脈では
この決定が重いのは、AIが軍事の周辺業務を助ける段階から、軍事判断の中核に入り始めたことを示しているからです。しかも、その土台を作っているのは国家の内部組織だけではなく、Palantirのような民間企業です。これは、国家の安全保障と民間の技術基盤が深く結びつく流れが強まっていることを意味します。
もう一つの論点は、責任の所在です。AIが標的候補を絞り込み、優先順位をつけ、現場の判断を速めるほど、人間は最終承認者として残っていても、実際にはAIが作った選択肢の中で判断する形に近づきます。すると、誤判断が起きたときに、現場、指揮官、導入を決めた国家、技術を提供した企業のどこに責任があるのかが見えにくくなります。米国だけでなく、中国やロシアも軍事AIを加速させており、AIが新たな軍拡競争の主要な要素になっていることは明らかです。
私の見立て
このニュースで本当に重いのは、AIの性能が上がったことそのものではなく、暴力の判断過程が人間の熟慮から少しずつ切り離されていくことです。AIが膨大な情報を整理し、標的候補を提示し、優先順位をつけるようになると、人間は「最終判断している」ように見えても、実際にはAIが前提を作った判断の枠内で動くことになりやすいからです。
その結果、攻撃判断の心理的な重みも薄れやすくなります。相手が生身の人間ではなく、画像、座標、確率、推奨候補として処理されるほど、暴力の行使は現場の重い決断というより、効率化された業務フローに近づきます。ここで問われるのは、AIがどれだけ賢いかではなく、こうした仕組みを社会がどこまで統制できるかです。
さらに見逃せないのは、国家が民間企業の技術基盤に依存しながら軍事システムを強化していく構図です。安全保障の名目が前に出るほど、技術導入は既成事実化しやすく、市民社会が是非を議論する余地は狭まりがちです。私は、この動きは軍事AIの拡大だけでなく、民主的な統制の弱まりという問題としても見ておく必要があると考えます。
→ 何が変わるか: 軍事作戦では、情報整理から標的候補の提示までをAIが担う比重が増え、人間の判断は「最初から考える」より「AIの提案を承認する」方向へ寄りやすくなります。
→ 何をすべきか: AI技術を扱う企業や研究者、政策担当者は、性能やスピードだけでなく、責任の所在、人間の関与の実効性、民主的統制の仕組みまで含めて議論し、軍事利用の境界線を明確にしていく必要があります。