一言で言うと
Claude Mythosの非公開が示すのは、AIの能力が「便利かどうか」という問いを超えて、「公開すること自体が危険かどうか」という問いに入ったことです。
何が起きているのか
Anthropicが開発した新モデル「Claude Mythos Preview」は、汎用的な性能の高さに加え、ソフトウェアの脆弱性を発見して悪用できる能力が際立って高いことが明らかになりました。日経クロステックによると、数千件の脆弱性を発見できるとされています。
Anthropicはこのモデルを一般公開しない判断を下しました。代わりに、CrowdStrikeやPalo Alto Networksなど主要なサイバーセキュリティ企業と連携し、「Project Glasswing」として制御された形での活用を進めています。
Anthropicの公式説明は、特定の新技術をひとつ挙げるというより、モデル全体のコード理解と推論能力がこの1年で急速に伸びた結果だというものです。公式サイトでも、最先端モデルがコードを読み、脆弱性を見つけ、悪用方法まで組み立てる力を強めてきたと説明しています。
Anthropicによると、前世代のOpus 4.6は、自律的にエクスプロイト(脆弱性を突いて侵入や不正動作を起こすための攻撃コードや手順)を作り上げる力がほとんどありませんでした。ところがClaude Mythos Previewでは、同じ系統の検証で成功例が大きく増えています。この差が、サイバー分野での実用水準が一段変わったと受け止められている理由です。
AI業界の文脈では
これまでAI企業は、新モデルを出すたびに「より賢く、より便利に」という方向で競争してきました。今回のClaude Mythosは、その方向性に別の問いを加えています。「賢くなった結果、公開できない能力を持つモデルをどう扱うか」です。
Anthropicが公開を見送ったことは、自社のAIが持つ危険性を自ら認めたという意味でも異例です。通常、モデルの能力の高さは売り文句になりますが、今回は逆に、その能力の高さが公開の障壁になっています。セキュリティの分野では、脆弱性を発見する能力は攻撃にも防御にも使えます。Anthropicは防御側の専門企業と連携することで、能力を制御しながら活用しようとしています。
私の見立て
重要なのは、AIの開発競争が「能力を上げる」段階から、「どこまで公開するかを判断する」段階に入ったことです。
Claude Mythosのケースは、今後のAI開発のひとつの形を示しています。すべてを公開するのではなく、特定の用途と相手に絞った「制御された公開」が、高能力モデルの標準的な出し方になっていく可能性があります。企業や政府にとっては、「最先端のAIを使う」ことと「安全に使える範囲で使う」ことを分けて考える必要が出てきます。
→ 何が変わるか: 高能力AIモデルの提供方法が、全員向けの一般公開から、用途と相手を限定した制御公開へと分岐し始めます。
→ 何をすべきか: サイバーセキュリティに関わる組織は、AIが脆弱性発見の道具として攻撃側にも使われうることを前提に、防御体制の見直しを進めるべきです。