Takeshi Ikemoto

医療 × 経営 × テクノロジー

·夜便 2本目·

AIツールの普及と不信感のねじれ:アメリカ人の76%がAIを信用しないと回答

QuinnipiacUniversityAI不信感AIと雇用

一言で言うと

アメリカではAIツールの利用が拡大しているにもかかわらず、その結果を信頼する人は減少し、76%がAIをほとんど信用していないと回答しました。これはAIに対する期待と不安の間の大きなギャップを示しています。

何が起きているのか

Quinnipiac Universityが全米の成人1,397人を対象に実施した調査によると、アメリカ人のAIツール利用は増加傾向にあります。2025年4月には33%だった「AIツールを一度も使ったことがない」と答えた人の割合が、今回は27%に減少しました。

しかし、利用が増える一方で、AIに対する信頼は低下しています。回答者の76%がAIを「めったに信頼しない」または「時々しか信頼しない」と答え、「ほとんど常に信頼する」または「常に信頼する」と答えたのはわずか21%でした。

記事によると、この不信感の背景には、AIがもたらす未来への不安があります。AIに「非常に興奮している」と答えたのはわずか6%で、62%が「あまり興奮していない」または「全く興奮していない」と回答しました。また、80%がAIに「非常に懸念している」または「ある程度懸念している」と答え、特にミレニアル世代ベビーブーマー世代で懸念が強く見られました。

回答者の55%がAIは「日々の生活に害をもたらす」と考えており、昨年よりも否定的な見方が増えています。AIが雇用に与える影響についても悲観的で、70%が「雇用機会を減らす」と予測しており、昨年(56%)から増加しています。特にZ世代では81%が雇用の減少を予測しています。つまり、利用はしていても、暮らしや仕事を良くするより、仕事を減らし生活を不安定にするのではないかという見方が強まっています。

興味深いことに、多くの人がAIが労働市場全体に与える影響を懸念している一方で、自分の仕事がAIによって失われると具体的に心配しているのは30%にとどまっています(昨年は21%)。それでも不信感が強いのは、AI企業が透明性を欠いているという認識を回答者の3分の2が共有しており、同じく3分の2が政府の規制不足を問題視しているためです。さらに記事では、地域にAIデータセンターが建つことにも65%が反対しており、電力コストや水使用への懸念も不信の背景にあるとしています。

AI業界の文脈では

大規模言語モデル(LLM: Large Language Model)の登場以来、AI技術は急速に社会に浸透し、多くの企業がAIを活用した製品やサービスを投入しています。しかし、その一方で、AIの「ハルシネーション」(事実に基づかない情報を生成すること)やデータプライバシー倫理的な問題に対する懸念も高まっています。

この調査結果は、AI技術の普及と、それに対する社会的な受容度との間に大きなギャップが存在することを示しています。ユーザーはAIの利便性を享受しつつも、その出力の信頼性や社会全体への影響について深い疑念を抱いているのです。

特に、AIが雇用を奪うという懸念は、AnthropicのCEOであるDario Amodei氏のような業界リーダーからも発せられており、社会的な不安を増幅させています。企業や政府に対する透明性と規制への要求は、AIガバナンス倫理に関する議論が、技術開発と同じくらい重要になっていることを浮き彫りにしています。EU AI Actのような規制の動きは、こうした社会の要請に応えるものと言えるでしょう。

私の見立て

AIの普及と不信感の乖離は、技術の進歩だけでは解決できない、より深い社会的な課題を示しています。医療分野でAIを導入する際、その有効性や効率性だけでなく、患者や医療従事者のAIに対する信頼感をどう醸成するかが、成功の鍵を握ります。

→ 何が変わるか: AI製品やサービスの開発において、技術的な性能向上だけでなく、ユーザーの信頼獲得と透明性の確保が、これまで以上に重要な競争要因となります。

→ 何をすべきか: 医療機関は、AI導入に際して、そのメリットとリスクを明確に説明し、AIの判断プロセスを可能な限り開示するよう努めるべきです。また、AIの利用に関する従業員教育を徹底し、AIがもたらす変化に対する不安を軽減する施策を講じる必要があります。