Takeshi Ikemoto

医療 × 経営 × テクノロジー

·朝便 3本目·

Copilotが学ぶのはあなたのコード——GitHubのデータ方針変更が問うもの

GitHubCopilotデータプライバシーオプトアウト

一言で言うと

GitHubが2026年4月24日から、FreeProPro+プランのCopilot利用者のインタラクションデータを、利用者が明示的に拒否しない限りAI学習に使う方針へ変更します。個人ユーザーや組織にとって、設定確認の重要性が高まります。

何が起きているのか

GitHubは利用規約を改定し、Copilotとのやりとり——具体的にはプロンプト、出力、コード断片、ファイル名、リポジトリ構造、フィードバックなどのインタラクションデータ——を、AIモデルの学習に使用できるようになります。適用開始は2026年4月24日。対象は個人向けのFreeProPro+プランのユーザーです。

重要なのはオプトイン(明示的な同意)ではなく、オプトアウト(明示的な拒否)方式であることです。設定を変更しない限り、利用データは自動的に学習対象になります。なお、すでにオプトアウトしている利用者は設定が維持され、GitHub Enterpriseなど法人向けプランは対象外とされています。

AI業界の文脈では

OpenAIChatGPTGoogleGeminiも、利用データの学習利用をめぐって議論を呼んできました。GitHub Copilotは開発者が日常的に使うツールであり、元記事によれば学習対象にはプロンプト、出力、コード断片、ファイル名、リポジトリ構造、フィードバックが含まれます。業務上の機微な情報が意図せず学習対象に含まれる可能性が論点になります。

Copilotを使いながら、その学習に貢献していることを知らない」状態は、個人ユーザーにとどまらず、企業の情報セキュリティポリシーにも関わる問題です。なお、元記事ではデータ共有先はMicrosoftまでで、第三者のAIモデル事業者は含まれないとされています。機密性を重視する組織では、この条件も含めて利用規約との整合性確認が必要になります。

私の見立て

AIツールの「使うほど賢くなる」仕組みと、「使うほどデータを渡す」リスクは表裏一体です。問題は、AIが学習で賢くなること自体ではなく、その過程でクラウド側に蓄積された利用データが、本人や組織の意図しない形で再利用されうる点にあります。これはCopilotに限った話ではなく、業務で利用するあらゆるAIサービスに共通する構造的な問題です。

医療・研究現場でも、開発途中のシステムのコードや、患者情報を扱うシステムの仕様をプロンプトに含めてしまう可能性はあります。4月24日の変更前に、組織内でCopilotの利用範囲と設定を確認するプロセスを設けることが重要です。

→ 何が変わるか: Copilotの利用データがAI学習に使われるようになり、意図せず機密情報が学習対象となるリスクが生まれます。

→ 何をすべきか: 個人ユーザーは設定からデータ共有をオプトアウトする。組織・医療機関は、GitHub Enterpriseなど対象外プランの利用要否や、社内AIポリシーの更新(Copilot利用範囲の明文化)を4月24日までに確認することを検討してください。