一言で言うと
Anthropicは、熟練したセキュリティ研究者のようにソフトの弱点を見つけられるAIモデル「Mythos Preview」を、いきなり一般公開せず、限られた企業や団体にだけ先に使わせる枠組み「Project Glasswing」を始めました。狙いは、そのAIで重要ソフトの穴を先に見つけ、防御側の準備時間を稼ぐことです。
何が起きているのか
まず前提として、これは `Claudeを使っている企業を自動で守るサービス` ではありません。むしろ、熟練したセキュリティ研究者に「このソフトはどこが危ないか」「どう破られうるか」を調べさせる仕事を、AIに高い水準でやらせるイメージに近いです。その力が強いため、まずは防御目的で使える組織にだけ限定公開しています。
Mythos Previewは一般公開されておらず、Project Glasswingに参加する企業や団体だけがプライベートアクセスで使えます。参加しているのは、Microsoft、Apple、Google、Amazon Web Services(AWS)、Linux Foundation、Cisco、Nvidia、Broadcom などで、自社やオープンソースの重要ソフトにある弱点を、このモデルで先に洗い出すことが目的です。
このモデルができることは、コードの脆弱性発見、攻撃の手順づくり、侵入テスト、設定ミスの探索などです。要するに、`攻撃者ならどこを突くか` を先回りして調べる能力が高いわけです。Anthropic は、すでに主要なOSやブラウザを含む多くのソフトで多数の重大な脆弱性を見つけたとしており、だからこそ `誰にでも配るのではなく、防御側に先に使わせる` という形を取っています。
AI業界の文脈では
これまでAI安全性の話は、誤情報や有害表現が中心でした。今回の論点はそれとは違い、`高性能なAIが、サイバー攻撃に必要だった専門性を下げてしまうかもしれない` という点です。もし脆弱性発見や攻撃手順づくりをAIが大きく助けるなら、攻撃側のコストは下がり、防御側はもっと早く対応しなければならなくなります。
そのためProject Glasswingの意味は、競合企業が仲良くなったことではなく、`この種のモデルは、個社の安全管理だけではもう足りない` と業界が認めたことにあります。先に防御側へ使わせて修正を急ぎ、知見を共有しないと、いずれ同じ能力が攻撃側にも広がるという危機感が背景にあります。
私の見立て
このニュースの本質は、AIが `守る側の便利な道具` になったというより、`攻撃にも防御にも効く危険な汎用技術` になったことです。Anthropic が一般公開ではなく限定公開を選んだのは、その力が強すぎて、配り方そのものが安全保障の問題になっているからです。
企業側から見ると、重要なのは `Claudeを入れるかどうか` より、`攻撃者も同じような能力を持つ時代が来る` と考えて準備することです。従来は熟練人材が少ないこと自体が防波堤でしたが、その前提が崩れるなら、脆弱性修正の速度、レッドチーム、重要ソフトの棚卸しを一段引き上げる必要があります。
→ 何が変わるか: サイバー防御は、`攻撃を受けてから対応する仕事` ではなく、AIが見つける前提で先回りして穴を塞ぐ仕事へ変わります。脆弱性対応の速さそのものが競争力になります。
→ 何をすべきか: 企業は、AIを使った防御ツールの導入だけで安心せず、自社の重要ソフト、オープンソース依存、修正体制を棚卸しし、AIに支援された攻撃を前提に脆弱性対応の優先順位を組み直すべきです。