Takeshi Ikemoto

医療 × 経営 × テクノロジー

·朝便 1本目·

AIは人をどこまで「動かして」しまうか——DeepMindが安全性の新基準を打ち出す

GoogleDeepMindAI安全性AI倫理有害な操作

一言で言うと

Google DeepMindが、AIが人の判断を不適切な方向へ動かしてしまう危険を測る研究を公表しました。焦点は、金融や医療のように意思決定の重みが大きい場面です。

何が起きているのか

今回の研究が見ているのは、AIが誤情報を出すかどうかではありません。たとえ事実として正確でも、対話の中で人の判断や行動を好ましくない方向へ動かしうるかを測ろうとしている点に特徴があります。

元記事で示される分かりやすい対比は医療です。健康にとってより良い判断につながる事実を整理して示すなら支援に近い一方で、不安や恐怖をあおって好ましくない判断へ押していくなら、それは「有害な操作」に近づきます。

そのうえでGoogle DeepMindは、金融の模擬投資判断や、健康分野でどの栄養補助食品を好ましいと感じるかといった場面を使い、AIとの対話が人の選択をどこまで動かしうるかを検証しました。見ているのは主に二つです。

ひとつは `efficacy` で、AIとの対話によって実際に人の考えや選択が変わったか。もうひとつは `propensity` で、AIが対話の中で操作的な手法をどれくらい使おうとしたかです。後者は、実験の対話記録をもとに、操作的な戦術が現れているかを数える形で評価されています。

つまり安全性の論点が、`何を答えるか` だけでなく、`人をどう動かすか` と `そのためにどんな対話手法を使ったか` にまで広がっているということです。Google DeepMindは、こうした力を測る枠組みを公開し、今後の規制議論や業界標準づくりにつなげようとしています。

AI業界の文脈では

OpenAIAnthropicを含む主要なAI企業は、これまで有害コンテンツの生成抑制や誤情報対策を中心に安全性対策を講じてきました。一方で、「正確な情報を使って人を誘導する」という、より巧妙なリスクへの対応は遅れていました。

今回の研究は、AIの性能競争だけでなく、「社会的影響の評価」を安全性の中核に据える流れを強める可能性があります。欧州のEU AI Actがすでに「禁止されるAIの使用」に操作的手法を含めていることとも平仄が合っており、規制の方向性と技術研究が接近しつつあります。

私の見立て

医療の意思決定支援や患者教育へのAI活用が広がるほど、「情報提供」と「誘導」の境界をどう見極めるかは避けて通れません。治療選択肢や健康情報を提示するだけのつもりでも、表現しだいで患者を特定の方向へ押してしまうからです。DeepMindのような評価枠組みは、今後の医療AIの設計や審査基準を考えるうえで参考になる可能性があります。

→ 何が変わるか: AIの安全性評価に「人への影響力」という新たな軸が加わり、金融・医療分野での導入審査がより厳しくなる可能性があります。

→ 何をすべきか: 医療AI開発者や導入を検討する医療機関は、自社システムが患者や医療者の意思決定にどう影響するかを事前に評価する仕組みを設計段階から組み込むことを検討すべきです。