一言で言うと
TikTok上でAI生成広告の開示が不十分である実態が指摘されています。論点は、AIを使うこと自体ではなく、`本人がしていないことをしたように見せる` `実写のように見えるが実際は生成である` といった、視聴者を誤認させうる表現にどこまで開示義務を課すべきか、そしてその運用が機能していない点にあります。
何が起きているのか
筆者はTikTokのフィードに表示される広告がAI生成であるかどうかを判別するのに苦労しており、多くの広告でTikTokの広告ポリシーが義務付けるAI開示ラベルが見られないと報告しています。特に、SamsungがGalaxy S26 Ultraのプライバシーディスプレイ機能を宣伝する広告について、YouTubeではAIツールが使われたと開示されているのに、TikTokでは同系統の広告に開示がないことを具体例として挙げています。
TikTokのビジネス広告ポリシーでは、「大幅にAIによって変更または生成されたコンテンツ」を使う場合、広告主はそれを開示する義務があります。ここで重要なのは、単にAIを補助的に使ったかどうかではなく、`完全にAI生成された画像・動画・音声` や、`主要な被写体が実際にはしていない行動や言っていない発言をAIで作ること` のように、見る側の現実認識を変えうる加工が対象になっている点です。開示は、TikTok独自のAIラベルを付けるか、免責事項、キャプション、透かし、ステッカーなどで示す形が想定されています。
筆者は、TikTokとSamsungが共にContent Authenticity Initiative(コンテンツ真正性イニシアチブ)のメンバーであり、C2PA(Content Provenance and Authenticity)の業界標準採用を推進しているにもかかわらず、この問題が起きていることに疑問を呈しています。SamsungがAI使用を認識していたならTikTokに伝えるべきであり、TikTokが知っていたならユーザーへの開示を徹底すべきだ、というのが筆者の主張です。
記事の後半では、Cazooという英国の中古車販売店の広告で、以前は開示がなかったものが「広告主がAI生成とラベル付け」というメッセージが表示されるようになったという新たな進展も報告されています。しかし、Samsungの広告については依然として開示状況が混乱しており、一部はTikTokのAIラベル、一部は手動での開示、そして一部は全く開示がない状態だと述べられています。
AI業界の文脈では
AI生成コンテンツの識別と開示は、AI業界全体の信頼性と透明性に直結する課題です。ただ、ここでの核心は `AIを使ったかどうか` だけではありません。実際に問われているのは、どのようなAI利用が視聴者を誤認させうるのか、そしてそうしたケースをどう表示するかです。特に広告分野は、消費者を誤解から守るための規制が厳しいため、この線引きがより重要になります。
Content Authenticity InitiativeやC2PAのような取り組みは、コンテンツの来歴(Provenance)を追跡し、その真正性を保証するための技術的・業界的標準を確立しようとしています。現状では、SynthIDなどの技術的な識別手段もありますが、全てのAI生成コンテンツを大規模に確実に見分けられるわけではありません。このため、最終的には広告主の申告、プラットフォームの審査、規制の運用がそろわないと透明性は担保されません。欧州連合(EU)、中国、韓国がすでにプロモーション素材でのAIラベル付け要件を導入しているように、この流れは今後さらに強まる可能性があります。
私の見立て
本質は、AI活用そのものが悪いのではなく、`どのような使い方が人を誤認させるのか` を見極め、その場合に開示を求めることです。たとえば、本人ではないのに本人のように見せる、実際には撮影していない映像を実写のように見せる、言っていないことを言ったように見せるといったケースでは、見る側の判断の前提が変わってしまいます。今回の記事は、まさにそうした `現実認識を変えうる表現` の開示が、広告という比較的ルールが厳しい領域ですら徹底されていないことを示しています。
医療分野における情報提供や患者向けコンテンツでも、AI利用は今後さらに増えるでしょう。だからこそ、`AIを使ったか` だけでなく、`そのAI利用が受け手の現実認識を変えるか` を基準に開示を考える必要があります。特に健康情報や治療法に関するコンテンツでは、信頼の毀損がそのまま行動の誤りにつながりうるため、広告業界以上に慎重な運用が求められます。
経営の観点からは、ブランドイメージの毀損や規制当局からの罰則は大きなリスクです。TikTokの事例は、たとえポリシーがあっても、何を開示対象とするのかが曖昧だったり、実施と監視が不十分だったりすれば、透明性は絵に描いた餅になることを示しています。医療機関や企業がAIを使って情報発信するなら、`どこからが誤認を生みうる演出か` を先に定義し、その範囲では機械的に開示するくらいの運用が必要です。
→ 何が変わるか: 今後は、単にAIを使ったかどうかではなく、`どこまで現実と誤認しうる表現なのか` を基準に、開示義務の線引きがより具体化されていく可能性があります。
→ 何をすべきか: 医療機関や関連企業は、AIを使ったコンテンツ全般を一律に扱うのではなく、`本人性を偽装する` `実写や実録のように見せる` `発言や行動を捏造する` といった誤認リスクの高いケースを明確に定義し、その範囲では必ず開示するポリシーと内部監査体制を整えるべきです。