Takeshi Ikemoto

医療 × 経営 × テクノロジー

·夜便 1本目·

Vercelの情報漏えいが示した、AIに渡す権限という新しい弱点

VercelContext.aiGoogleWorkspaceAIセキュリティ

Vercelの情報漏えいは、AIを社内に入れるときの勝負所が性能ではなく「どの権限をどこまで渡すか」に移ったことを示しました

一言で言うと

今回の本質は、AIツールに業務を任せるときの新しい弱点が、権限設計そのものにあると可視化されたことです。従来の権限運用は人間の判断を前提に作られてきました。AIに置き換わると、同じ権限でもリスクの見え方が変わります。

何が起きているのか

Vercelは、従業員が使っていた第三者AIツールContext.aiの侵害を起点に、従業員のGoogle Workspaceアカウントが乗っ取られたと公表しています。攻撃者はそこから、Vercelの一部内部環境と、機密指定されていない環境変数にアクセスしたとされています。

環境変数とは、プログラムが動くときに読み込む設定情報のことで、APIキーや接続情報が入ることもあります。Vercelは、`sensitive` 指定された環境変数は読めない形で保存されており、そこにアクセスされた証拠はないと説明しています。ShinyHuntersを名乗る攻撃者が犯行を主張し、盗んだデータと引き換えに200万ドルを要求しているとも報じられています。

注目すべきは、攻撃の入口がソフトの脆弱性そのものではなく、AIツールと業務アカウントをつなぐOAuth連携だった点です。便利さのために与えた権限が、そのまま侵入経路になりました。

AI業界の文脈では

よく言われる見方は、従業員のセキュリティ意識が低かった、あるいはAIツールのチェックが甘かった、というものです。これらは間違いではありません。ただ、この説明には一つ前提があります。従来の社内ツールのように、権限は最小限にし、教育でカバーできる、という前提です。

AIエージェントはこの前提を崩す側面があります。便利さと権限の広さが直結するため、業務ごとに細かく判断する運用が求められます。たとえば、このAIにドライブを読ませていいか、メール送信を任せていいか、といった単位です。さらに、エージェントは人間より速く大量のデータを扱えるので、同じ権限でも使われ方の重さが違ってきます。

もう一つの論点は、従来のシャドーIT対策が届きにくい点です。シャドーITとは、情報システム部門が把握しないまま現場が勝手に導入するITツールのことを指します。エージェント型のAIツールは、便利さを求める現場ほど導入したくなります。社内IT部門が全てを把握する前に、重要データに触れる権限がAI経由で外部に広がる構図が生まれやすくなります。

私の見立て

今回の話で本当に効いているのは、AIを業務に入れるときの勝負所が、モデルの賢さから権限設計へ移ったことです。賢いAIほど権限を渡したくなりますし、渡すほど成果も上がります。その引き換えに、権限の設計を誤ると一気に被害が広がります。

もう一つ大事なのは、人間の行動の影響です。業務アカウントへの広いアクセスをAIツールに許可するか聞かれたとき、多くの人は便利さを優先して許可を押しがちです。セキュリティ設計を個人の判断に委ねる限り、同種の事故は繰り返されやすくなります。

→ 何が変わるか: 企業のAI活用は、どのモデルを選ぶかだけの話ではなくなります。どの業務にどの権限を渡すかを、情報システム部門と現場が一緒に設計する段階に入ります。従業員個人の判断に寄せると事故が続くため、AIに渡す権限の既定値を組織側で決める運用が広がります。

→ 何をすべきか: 企業は、社内で使われているAIツールの棚卸しと、それぞれに与えた権限の確認から始めるのが現実的です。特にメール、ドライブ、カレンダーといった業務全体に影響するアカウントへの広い権限は、狭めても業務が回るかを一度検証する価値があります。個人としては、AIツールに権限を渡すときに一度立ち止まる癖をつけると、リスクの見え方が変わります。その権限がそのまま外へ出る可能性があると意識するだけで、選び方が変わります。