一言で言うと
AIを活用した議事録アプリGranolaが、デフォルト設定で作成されたノートが「リンクを知っていれば誰でも閲覧可能」になっており、さらに非エンタープライズユーザーのデータがAI学習に利用されていることが判明しました。これにより、機密性の高い会議内容が意図せず公開されたり、AI学習に利用されたりするリスクが指摘されています。
何が起きているのか
Granolaは、会議の音声を取り込み、AIを使って箇条書きの「ノート」を自動生成するAI搭載の議事録アプリです。しかし、このアプリのプライバシー設定に重大な問題があることが明らかになりました。
具体的には、アプリの設定メニューには「デフォルトでは、あなたのノートはリンクを知っている人なら誰でも閲覧可能です」と明記されています。これは、もしユーザーが誤ってリンクを共有してしまった場合、インターネット上の誰でもそのノートを閲覧できてしまうことを意味します。記事の筆者が自身で検証したところ、サインインしていないプライベートウィンドウからでも自分のノートにアクセスでき、ノートの所有者や作成日時まで表示されることが確認されました。
さらに、ノートにリンクされたトランスクリプト(会議の文字起こし)全体は閲覧できないものの、ノートの箇条書きを選択すると、その箇条書きの元となったトランスクリプトの一部と、AIが生成した追加の文脈情報が表示されることも判明しています。
また、Granolaは非エンタープライズユーザーの匿名化されたデータを、自社のAIモデル改善のためにデフォルトで利用しています。エンタープライズ顧客はAI学習から除外されていますが、それ以外のプランのユーザーは、設定メニューから「私のデータを全員のモデル改善に利用する」オプションをオフにしない限り、データが利用されることになります。
これらの設定は、アプリ内の「設定」メニューから変更可能ですが、デフォルトでこのような状態になっていることは、特に機密性の高い会議を扱うビジネスユーザーにとって大きなリスクとなります。実際に、ある大手企業はセキュリティ上の懸念から、幹部によるこのツールの使用を禁止したと報じられています。
Granolaは、ノートを米国のAmazon Web Servicesプライベートクラウドに保存し、保存時および転送時に暗号化していると説明しています。また、会議の音声データ自体は保存せず、ノートとトランスクリプトのみをクラウドで処理しているとのことです。
AI業界の文脈では
AIサービスでは、多くの利用者が初期設定をそのまま使い続けるため、共有範囲や学習利用の既定値がそのまま実務上の安全水準になりやすいという構造があります。つまり問題は、高度な攻撃に耐えるかどうかだけでなく、`最初からどういう状態で提供されるか` にあります。
今回のGranolaの事例は、Notion AIやOtter.aiのような近い領域の製品も含め、AIサービスでは `初期設定そのものが製品の安全性` だと考える必要があることを示しています。欧州のGDPR(一般データ保護規則)に代表されるように、データプライバシーに関する規制が強化される中で、AIサービス提供者にはより高い透明性と利用者側の制御権が求められています。
私の見立て
このニュースの本質は、AIツールの危険が高度な攻撃よりも、分かりにくい初期設定から生まれうることです。利用者が「普通に使っただけ」のつもりでも、共有範囲や学習利用の既定値しだいで、機密情報は静かに外へ開いてしまいます。
会議議事録のようなツールは特に危険です。そこには企業の戦略、人事情報、顧客データなど、機密度の高い情報が自然に集まるからです。つまり問題は、利用者が不用意だったかどうかより、サービス側が `どの状態を標準にしていたか` にあります。
だからこそ企業は、従業員が利用するAIツールについて、機能比較より先に `初期設定のままで何が共有され、何が学習に使われるのか` を確認する必要があります。利用ガイドラインの策定や設定確認の徹底は、情報セキュリティを守るための基本動作になります。
→ 何が変わるか: AIサービスでは、性能や使いやすさだけでなく、初期設定の安全性そのものが製品評価の中心に入ってきます。
→ 何をすべきか: 企業は、従業員が使うAIツールについて、共有範囲、学習利用、保存先の既定値を導入前に点検し、危うい設定があれば組織として無効化または利用制限すべきです。