Takeshi Ikemoto

医療 × 経営 × テクノロジー

·夜便 2本目·

Mercorへの攻撃が示す、AI開発の外部ツールリスク

MercorLiteLLM外部ツールリスクオープンソースセキュリティ

一言で言うと

今回の件は、AI企業にとって外部ツールの安全管理がそのまま自社の経営リスクになることを示しました。

何が起きているのか

AI採用支援スタートアップのMercorは、オープンソースプロジェクトLiteLLM側で起きた侵害の影響を受け、自社でもセキュリティインシデントが発生したとTechCrunchに認めました。Mercorは、自社がこの問題の影響を受けた「数千社の一つ」だと説明しています。

発端は、LiteLLMに関連するパッケージから悪意あるコードが見つかったことです。コード自体は数時間で削除されましたが、LiteLLMは広く使われているため、影響範囲の大きさが問題になりました。つまり、Mercorが直接狙われたというより、広く使われる共通部品の侵害が利用企業側まで波及した形です。

その後、ハッキンググループLapsus$Mercorからデータを得たと主張し、Slackやチケット情報らしきサンプル、契約者との会話を示すとされる動画を公開しました。ただし、どこまで実際に流出したのか、顧客や契約者のデータがどの範囲で影響を受けたのかは、現時点では調査中です。

Mercorは2023年創業の企業で、OpenAIAnthropicを含む企業向けに、科学者、医師、弁護士などの専門家を集めてAIモデル訓練を支援しています。同社は、インシデントの封じ込めと復旧を進めるとともに、外部の調査専門家を入れて被害の原因や影響範囲を調べていると説明しています。

AI業界の文脈では

この事件が示しているのは、AI企業のリスクが「自社コードが安全か」だけでは測れないということです。モデル接続ライブラリ、評価ツール、運用基盤など、外部のオープンソース部品を多用するほど、どこか1カ所の侵害が連鎖的に広がりやすくなります。

特にAIスタートアップは、開発速度を優先して外部ツールを積み上げがちです。その結果、便利さと引き換えに、依存関係の監査や更新管理が後回しになりやすい構造があります。今回の件は、AI開発のセキュリティ対策を自社のアプリだけでなく、使っている部品や配布経路まで広げて考える必要があることをはっきり示しています。

私の見立て

今回の件は、AI企業にとってセキュリティが「モデルの性能」とは別の経営課題になっていることをよく示しています。高成長企業ほど多くの外部部品に依存しやすく、その分だけ見えにくい弱点も増えます。

これは医療に限らず、顧客データや社内情報を扱う企業全般に当てはまります。医療や金融のような高リスク分野では特に厳しく見る必要がありますが、一般企業でも「何のライブラリを使っているか」「侵害時にどこまで影響が広がるか」を把握していないと、被害の把握も初動も遅れます。

→ 何が変わるか: 今後は、AIシステムの安全性を評価する際、自社アプリの出来だけでなく、外部ライブラリや運用基盤を含むサプライチェーン全体の管理水準が重視されるようになります。

→ 何をすべきか: 企業は、利用中のオープンソースや外部ツールの棚卸し、脆弱性監視、更新ルール、侵害時の初動手順まで含めて見直すべきです。高リスク分野では、調達や導入の段階からセキュリティ審査を組み込む必要があります。