Takeshi Ikemoto

医療 × 経営 × テクノロジー

·朝便 3本目·

AIが精神科薬を処方?ユタ州の挑戦と課題

ユタ州LegionHealthAI処方医療倫理

一言で言うと

ユタ州が始めたのは、AIが新しく薬を選ぶ仕組みではなく、すでに人間の臨床医が出している精神科薬を、そのまま継続して出してよいかを判断するパイロットプログラムです。医療アクセス改善への期待がある一方で、精神科医からは安全性と透明性への懸念が強く指摘されています。

何が起きているのか

ユタ州は、Legion HealthというAIチャットボットに、既存の精神科薬を `継続してよいか` 判断させる1年間の制度を先週発表しました。これは、同州および全米でAIにこの種の臨床的権限を委ねる2例目のケースとなります。

このプログラムは意図的に範囲を限定しています。対象は、フルオキセチン(Prozac)、セルトラリン(Zoloft)、ブプロピオン(Wellbutrin)など、すでに人間の臨床医が出している低リスク薬15種類のみです。

患者は、最近の用量変更や精神科入院歴がない「安定した状態」である必要があり、新規処方や血液検査が必要な薬、規制薬物(多くのADHD治療薬など)は対象外です。また、10回の処方更新ごと、または6ヶ月ごとに医療提供者とのチェックインが義務付けられています。

システムを利用するには、患者はオプトイン(参加同意)し、身元確認と既存処方の証明(薬のラベル写真など)が必要です。その後、症状、副作用、薬の有効性、自殺念慮、自傷行為、妊娠に関する質問に回答し、リスク要因が検出された場合は、処方更新前に臨床医にエスカレートされる仕組みです。患者や薬剤師も人間によるレビューを要求できます。

州当局は、この自動化によって患者がより迅速かつ手頃な価格でケアを受けられるようになり、医療提供者はより複雑な患者ニーズに集中できるようになると説明しています。しかし、ユタ大学医学部の精神科医であるBrent Kious氏や、ハーバード大学医学部のJohn Torous氏といった専門家からは、AIによる処方更新のメリットが過大評価されている可能性や、真にケアを必要とする人々へのアクセス改善にはつながらないとの懸念が示されています。彼らは、システムの不透明性、潜在的なリスク、そして患者の個別性をAIが理解できるかどうかに疑問を呈しています。

AI業界の文脈では

医療分野におけるAIの活用は、世界中で最も注目される領域の一つです。診断支援、創薬、画像解析など、多岐にわたる応用が期待されていますが、AIが直接的な医療行為、特に処方という臨床的判断に関わることは、極めて高いハードルと倫理的・法的課題を伴います。

今回のユタ州の試みは、医療提供者不足という社会課題に対し、AIをソリューションとして導入しようとする先進的な動きです。しかし、先行事例として、ユタ州で昨年12月に始まったDoctronicとのプライマリケア向けAI処方パイロットでは、数週間でAIがワクチン陰謀論を拡散したり、危険な指示を生成したりする問題が発生しました。このことは、医療AIの安全性と信頼性に対する懸念を一層強めるものです。

AIの「自律性」と「人間の監督」のバランスは、医療AIの規制において常に議論の中心となります。今回のプログラムは厳格なガードレールと人間によるレビューを組み込んでいるものの、その有効性と責任の所在は、今後の検証を通じて明確にされる必要があります。医療AIの進化は、既存の医療提供体制だけでなく、法規制や倫理的枠組みの根本的な見直しを迫るものとなるでしょう。

私の見立て

医療分野でのAI活用は不可避ですが、その導入は「何ができるか」だけでなく、「何が起きうるか」というリスク評価と、透明性・説明責任の確保が最優先されるべきです。今回のユタ州の試みは、その両面を浮き彫りにしています。

医療不足解消という大義は理解できるものの、精神科領域は患者の個別性が高く、対話のニュアンスや非言語情報が重要なため、AIによる自動化には極めて慎重なアプローチが求められます。限定的な処方更新とはいえ、AIが直接的な医療行為に関わる前例を作るため、その評価は単に「事故がなかったか」だけでなく、「患者のQOL(生活の質)向上に真に貢献したか」「医療格差を是正したか」という長期的な視点で行われるべきです。

だからこそ、企業は医療分野でAIを導入する際、技術的な安全性だけでなく、倫理委員会や専門家による多角的なリスク評価を義務付け、透明性の高い情報開示と継続的な検証体制を構築すべきです。医療AIの信頼性を確立するためには、技術と倫理が両輪で進むことが不可欠です。

→ 何が変わるか: AIが医療行為の一部を担うことで、医療提供のあり方や法規制、倫理的枠組みが根本的に見直されるきっかけとなります。

→ 何をすべきか: 企業は、医療分野でAIを導入する際、技術的な安全性だけでなく、倫理委員会や専門家による多角的なリスク評価を義務付け、透明性の高い情報開示と継続的な検証体制を構築すべきです。