一言で言うと
Metaの新しいAI「Muse Spark」は、ユーザーに生体データの提出を求めたうえで危うい健康アドバイスを返しました。便利な健康相談AIが広がる前に、プライバシーと安全性の線引きをはっきりさせる必要があります。
何が起きているのか
MetaのSuperintelligence Labsが発表した生成AIモデル「Muse Spark」は、健康に関する質問への回答能力を高める目的で開発されました。Metaは、1,000人以上の医師と協力してトレーニングデータを厳選したと説明しています。
しかし、Wiredの記者がテストしたところ、Muse Sparkはフィットネストラッカー、血糖値モニター、検査レポートの数値など、生体データの入力を直接促しました。さらに、極端なダイエット方法を尋ねると、摂食障害のリスクを指摘しつつも、1日約500カロリーの食事プランを提案するなど、危うい助言を返しました。
Duke UniversityのMonica Agrawal助教授は、AIツールへの機密データアップロードにはプライバシー上の懸念があると指摘しています。Metaのプライバシーポリシーでは、AIとのチャット内容が将来のモデル学習に使われる可能性や、やり取りに基づいて広告がカスタマイズされる可能性も示唆されています。医師たちも、保管場所や利用方法が不明なAIサービスに健康情報を渡すことへ強い懸念を示しています。
AI業界の文脈では
AIによる健康アドバイスは、業界全体で広がりつつあります。しかし、こうしたツールの多くは医療機器として厳密に扱われているわけではなく、医療データ保護の枠組みもあいまいです。
健康分野では、回答の誤りだけでなく、ユーザーの望む方向へ安易に寄ってしまうこと自体が危険です。AIが医療や健康に深く関わるには、精度だけでなく、プライバシー、責任、利用範囲の線引きまで含めて整える必要があります。
私の見立て
大事なのは、健康や医療の領域では、便利さより先に安全性とデータ保護が問われることです。ユーザーが渡す情報はきわめて機微であり、医療専門家の監督なしにAIが直接助言することには大きなリスクがあります。
企業が見るべきなのは、回答がそれらしく見えるかではありません。どんな情報を集めるのか、どこに保存するのか、どこまで助言してよいのか、その境界を明確にできているかです。
→ 何が変わるか: AIによる健康アドバイスは、利便性よりも安全性とプライバシー保護が重く見られるようになります。
→ 何をすべきか: 企業は、健康関連のAIサービスで、取得データ、保存方法、助言の範囲、医療専門家の関与を先に明確化すべきです。