Takeshi Ikemoto

医療 × 経営 × テクノロジー

·朝便 2本目·

Anthropicのコード流出、AIが「ペット」のように寄り添う時代へ?

AnthropicClaudeCodeコード流出AIペット

一言で言うと

Anthropicが提供するAIコーディングツール「Claude Code」のアップデートで、内部のソースコードが誤って公開されました。これにより、未発表の「Tamagotchi(たまごっち)」風AIペット機能や、常時稼働するAIエージェント「KAIROS」の存在が明らかになりました。

何が起きているのか

AnthropicClaude Codeのバージョン2.1.88をリリースした際、TypeScriptのソースコードを含むパッケージが誤って公開されるという事態が発生しました。この流出したコードは512,000行以上にも及び、AIコーディングツールの内部構造が明らかになったと報じられています。

ユーザーがこのコードを解析した結果、いくつかの未発表機能や内部情報が発見されました。その中には、入力ボックスの横に表示され、コーディングに反応する「Tamagotchi風ペット」機能や、常時稼働するバックグラウンドAIエージェントを可能にする「KAIROS」機能が含まれていました。また、AIの「記憶」アーキテクチャに関する情報や、開発者がコード内の「メモ化(memoization)」が複雑さを増し、パフォーマンス向上に繋がっているか不明だと述べているコメントも見つかっています。

Anthropicはこの問題を修正しましたが、流出したコードはGitHubにコピーされ、50,000回以上フォーク(複製)される事態となりました。Anthropicの広報担当者Christopher Nulty氏は、これは「リリースパッケージングの問題であり、人為的ミスによるもので、セキュリティ侵害ではない」と説明し、顧客データや認証情報は漏洩していないと強調しています。

GartnerAIアナリスト、Arun Chandrasekaran氏は、この流出が悪意のあるアクターにAIの安全対策を回避する手段を与えるリスクはあるものの、長期的な影響は限定的で、Anthropicが運用成熟度を高めるための「行動喚起」となるだろうと述べています。

AI業界の文脈では

AIエージェントの進化は、現在の対話型AIから、ユーザーの意図を理解し、自律的にタスクを実行する方向へと進んでいます。「Tamagotchi風ペット」や「常時稼働エージェント」といった機能は、AIが単なるツールではなく、ユーザーの日常に溶け込み、よりパーソナルな存在になる未来を示唆しています。

このようなコード流出は、OpenAIGoogleなど、他の主要AI開発企業にとっても、内部開発プロセスやリリース管理の厳格化を促す警鐘となります。特に、AIがユーザーの行動や思考に深く関わるようになるにつれて、その安全性やプライバシー保護、そして「AIが何を学習し、どう振る舞うか」という透明性の確保が、ますます重要になります。

私の見立て

AIが単なる「質問に答えるツール」から、ユーザーの状況を踏まえて先回りで支援する「パーソナルエージェント」へ進化しつつある兆候が見えます。今回の流出で注目されたのは見た目の面白さですが、本質は、AIが常時動き続け、裏側で作業を進める方向へ向かっていることです。

これは多くの業界に影響します。営業、顧客対応、社内ヘルプデスク、個人向けサービスなどで、AIが単発の応答ではなく継続的な伴走役になる可能性があります。医療もその一例ですが、重要なのは業界を問わず、常時稼働型AIほどデータ管理、権限設定、説明責任が重くなるという点です。

企業がこうしたAIを導入する際は、便利さや話題性だけで判断せず、どのデータに触れるのか、何を自動実行できるのか、問題が起きたときに止められるのかを先に設計する必要があります。

→ 何が変わるか: AIは、指示を待って答える存在から、日常業務や顧客接点に常時寄り添って動く存在へ広がっていきます。競争力の差は、単なる応答性能よりも、どれだけ自然に業務や顧客体験に溶け込めるかで決まりやすくなります。

→ 何をすべきか: 企業は、常時稼働型AIエージェントを検討する際、機能比較だけでなく、データの扱い、セキュリティ、権限管理、停止手段、利用者への説明責任まで含めて評価すべきです。医療や金融のような高リスク分野では、その基準をさらに厳しく見る必要があります。