Takeshi Ikemoto

医療 × 経営 × テクノロジー

·朝便 2本目·

AIエージェントが企業をハッキング、トランプ氏模倣で露呈した限界

CodewallJackAndJillAIセキュリティAIエージェント

一言で言うと

CodewallAIエージェントが、AI採用プラットフォームJack & Jillの弱点を連続して突き、管理者権限を奪ったと報告されました。

何が起きているのか

AIセキュリティ企業Codewallは、自社のAIエージェントをロンドンのAI採用プラットフォームJack & Jillに対して使い、1時間以内に複数の脆弱性を見つけて連続利用し、会社アカウントの管理者権限まで到達したと報告しました。

公開された説明によると、外部のWebページを取得するための `URLフェッチャー` が内部API(Application Programming Interface: ソフトウェア同士が情報や機能をやり取りする接続口)文書まで見せてしまう問題、ログイン確認を簡略化する認証サービスの `テストモード`、利用者にどの権限を与えるかを確認する `ロールチェック` の欠如、さらに会社への初期登録である `オンボーディング` の段階で、メールのドメイン名だけを見て所属先を決める `エンドポイント` の設計不備などが組み合わさっていたとされます。

さらにCodewallは、このAIエージェントが自律的に音声機能まで試し、AIエージェントJack」と28回会話したと説明しています。その中で、ドナルド・トランプ氏を装って5億ドルの買収を持ちかけたところ、「Jack」は前提を疑わず「Mr. President」と応答したとされます。なお、この一連の内容は主にCodewall側の発表にもとづいており、独立検証はまだ十分ではありません。

AI業界の文脈では

この事例が示しているのは、AIエージェントが単に質問に答えるだけでなく、複数の手順を自分でつなげて攻撃を進めうることです。これまで人間のセキュリティ担当者が順に調べていた作業を、AIが短時間でまとめてこなすようになると、防御側の前提も変わってきます。

また、人間のふりをしたり、もっともらしい会話を続けたりする能力が高まるほど、ソーシャルエンジニアリング攻撃の危険も増します。つまり問題は「AIが賢い」こと自体ではなく、賢くなったAIにどこまで権限を持たせるのか、どう監視するのかが追いついていない点にあります。

私の見立て

私が重要だと見るのは、攻撃の一部が自動化されたのではなく、「攻撃の流れそのもの」をAIエージェントが組み立てられる可能性が見えた点です。企業にとっては、個別の脆弱性対策だけでは足りず、権限設計、監査、テスト環境の管理まで含めて見直す必要があります。

医療機関でも、患者データや経営情報システムは常に攻撃対象になりえます。そこにAIエージェントが加わると、攻撃の速さや巧妙さが増す可能性があるため、`便利だから導入する` だけではなく、`どこまで動かしてよいか` を先に決めておく運用が重要になります。

→ 何が変わるか: AIによる自律的な攻撃と防御のサイクルが加速し、サイバーセキュリティ対策はより高度なAI活用が不可欠になります。

→ 何をすべきか: 組織のAIシステムやデータ保護の設計を見直し、AIエージェントに与える権限を絞ること、自動監査を強めること、テスト用設定を本番に残さないことを徹底すべきです。