
この記事は、Podcast「AI未来話」のエピソード「トランプ大統領が著作権局の局長を解任!今後生成AIの著作権はどうなる?」を再構成した内容をお届けします。
AI時代の著作権は、学習データの自由とクリエイター保護の板挟みで揺れています。トランプ米大統領による著作権局長の電撃解任は、その攻防の均衡を崩す狼煙となりました。
本稿ではポッドキャスト「AI未来話」の議論を再構成し、米国・EU・日本の最新動向を追いながら、生成AI利用者が取るべき実践的な対応策を探ります。
OpenAI vs. ニューヨークタイムズ訴訟の全貌
世界的に注目を集めるOpenAIとニューヨークタイムズの訴訟は、フェアユース四要件をどう解釈するかが鍵。番組では交渉決裂から裁判継続までの裏側を丁寧に解説しました。
ライセンス交渉決裂の背景
―― まずはOpenAIとニューヨークタイムズのライセンス交渉が決裂した背景を整理しましょう。交渉の火種は何だったのでしょうか?
「ニューヨークタイムズは、自社記事を生成AIの学習に利用する場合には対価の支払いと利用範囲の明確化を求め、OpenAIと交渉しました。しかし使用条件と補償額で折り合えず、2023年夏以降に議論は行き詰まりました」
―― 交渉が決裂したあと、メディア側はどのように動いたのでしょうか?
「ニューヨークタイムズは2023年12月27日に米ニューヨーク南部地区連邦地裁へ提訴し、フェアユースの適用範囲を主要な争点に据えました。訴状では『大量複製は行き過ぎであり、商業利用の側面が強い』と主張しています。一方のOpenAIは『学習は適法なフェアユースであり、モデルは市場を奪っていない』と反論しています」
―― 変容性という言葉が鍵になりますね。
「生成AIはテキストを数値ベクトルに変換して学習します。そのため、元記事が人間に可読な形で保存されるわけではないとOpenAIは説明し、『不可逆的に変容している』と主張しています」
―― しかしニューヨークタイムズ側にはどのような懸念があるのでしょうか?
「最大の問題は全文コピーそのものです。訴状では、特定のプロンプトでモデルが有料記事をほぼそのまま再現した例が示されています。こうした現象は市場代替性の論点と直結します」
―― だからこそニューヨークタイムズは法廷で決着をつけようとしているのですね。
「おっしゃるとおりです。フェアユースの境界線を明確にする“パイロットケース”と位置付けているのです」
―― 一方でOpenAIは過去のGoogle Books判例を引き合いに出しています。
「Googleは大学図書館と連携して2,500万冊超をスキャンし、検索用スニペットのみを公開しました。最終的に裁判所は公益性と変容性を理由にフェアユースを認め、Googleが勝訴しました。OpenAIは『学習の自由を守るため、同じ論理が適用されるべきだ』と主張しています」
―― 交渉決裂から提訴に至る流れを振り返ると、著作権の守備範囲を世界が再定義する局面にあると強く感じます。
「まさにそのとおりです。フェアユース拡張かクリエイター保護強化か――判決は生成AIの未来を大きく左右します」
フェアユース四要件の争点
―― 続いて、フェアユース四要件それぞれの争点を整理しましょう。まず目的と性質はどのように見られているのですか?
「第一要件は目的と性質、つまり“営利か非営利か”“変容性があるか”です。OpenAIは『学習は公共の利益に資する研究活動であり、テキストを数値ベクトルに変換するため変容性が高い』と主張します。一方、ニューヨークタイムズは『営利企業であるOpenAIが有料APIやサブスクリプションサービスを提供している時点で十分な商業性がある』と反論しています」
―― 二つ目は著作物の性質ですが、ここではどんな議論が交わされているのでしょうか?
「第二要件の著作物の性質では、ニュース記事が“事実報道で創造性が低い”か、“独自表現を伴う創作物”かが争点になります。OpenAIは『報道記事は事実記述が多いので創造性は限定的』と述べますが、ニューヨークタイムズは『スクープ記事や長編特集には独自性が豊富に含まれている』と強調しています」
―― 三つ目の要件、使用量と重要性はどう評価されているのですか?
「OpenAIは『文脈学習には全文の取り込みが不可欠だ』と認めつつ、『出力時には元記事の核心部分は再配布していない』と説明しています。対してニューヨークタイムズは『全文コピー自体が過度の利用であり、重要性の高い部分を含めた複製が発生している』と主張しています」
―― 最後に市場への影響ですが、これが訴訟の帰趨を分けそうですね。
「そうです。第四要件の市場代替性は“AIが記事購読に取って代わるか”が核心です。OpenAIは『要約などを通じて新規トラフィックを送り返している』と言いますが、ニューヨークタイムズは『AIが全文再現すれば読者は購読をやめ、広告収入も減る』と危機感をあらわにしています」
―― つまり、裁判所が四要件をどう重み付けするかで結論が変わるわけですね。
「そのとおりです。判決はAIモデルの学習全般に波及しますから、世界中の企業とクリエイターが注視しています」
Google Books判例との比較
―― Google Books判例はしばしば前例として語られますが、今回のケースとどこが重なり、どこが異なるのでしょうか?
「共通点は全文コピーと営利性を含む点です。Googleは大学図書館と連携して約2,500万冊超を全文スキャンし、検索結果にスニペットだけを表示しました。裁判所は『全文コピーしても検索という公益的機能を提供し、原著作物の市場を代替しない』としてフェアユースを認定しました」
―― それに対し、生成AIは“検索”ではなく“再構成した文章”を出力します。
「そこが大きな違いです。Google Booksは“検索インデックス”という補助的機能ですが、生成AIは新たなコンテンツを直接提供します。もしユーザーが特定記事を“ほぼそのまま”引き出せるなら、Google Booksより市場代替性が高いと見なされるかもしれません」
―― とはいえ、Google判例で示された“変容性”はOpenAIに有利とも言えますね。
「はい。裁判所は『テキストを索引用データに変換すること自体が本質的に変容的』と判示しました。OpenAIは同じ論理で『数値ベクトル化は検索インデックス以上に変容的』と主張しています」
―― 判決が出るまで結論は読めませんが、Google Books判例が“比較衡量の物差し”として機能するのは確かです。
「最終的に裁判所が過去判例をどこまで踏襲し、どこで線引きを変えるかが注目ポイントです」
トランプ大統領による著作権局長解任の衝撃
―― トランプ大統領が著作権局の局長を解任したニュースがありましたが、これはかなり電撃的でしたね。
「本当に電撃的でした。というのも、米著作権局(U.S. Copyright Office)のシーラ・パールマッター局長(Register of Copyrights)は2025年5月9日に108ページの報告書『Copyright and Artificial Intelligence, Part 3: Generative AI Training』(プレパブ版)を公開したばかりでした。同報告書は、①生成AIの開発過程で行われる大量全文コピーはフェアユースを越え得る、②権利者への許諾と補償スキームが必要、③学習データの透明性を義務付けるべき――と勧告していました」
―― その報告書が公開された直後に解任されたわけですね。
「はい。報告書公開から約24時間後の5月10日夕方、ホワイトハウスはパールマッター氏に『直ちに職務を終了する』とのメールを送り解任を通告しました。解任の法的根拠は示されず、面談もありませんでした」
―― この出来事が著作権をめぐる議論にどう影響するのでしょうか?
「パールマッター氏の報告書はニューヨークタイムズなどクリエイター保護派に沿った内容でした。その直後の解任劇により、短期的にはフェアユース拡張派(政府・産業界)が優勢になったとの見方が強まっています。ただし、議会側は『大統領による局長解任は議会権限の侵害』として調査を開始し、COPIED法案など超党派のクリエイター保護法案が再浮上しており、長期的な帰趨は不透明です」
―― AI学習に関する規制が緩和される可能性が出てきた、ということですか?
「現時点で学習段階を包括的に規制する動きは後退するかもしれません。一方で、生成物(出力段階)については『NO FAKES法案』のように肖像・声の無断使用を禁じる立法が前進しており、“学習は比較的自由/出力は厳格”という二段階モデルが濃厚になっています」
―― 学習と出力で規制の方向性が違うというのは興味深いですね。
「まさにその通りです。EUが学習時の透明性義務を重視するのに対し、米国は出力物による実害防止を優先する姿勢です。今回の解任劇は、米国がイノベーション優先の立場をより鮮明にしたシグナルと受け止められていますが、報告書の提言は議会で引き続き検討材料となるため、規制の先行きは依然流動的です」
EU・英国が進める透明性規制の最前線
EU AI法と英国データ法改正は、ともに「学習データの透明性」を軸にルール形成が進む一方で、その到達点とスケジュールには違いがあります。
EU AI法における学習データ開示義務
―― まず、EU AI法が義務付ける学習データの透明性について詳しく教えていただけますか?
「EU AI法(Regulation (EU) 2024/1689)は2024年8月1日に発効し、2025年8月2日から一般用途AIモデル(GPAI)向けの義務が段階的に適用されます。プロバイダーは、AIモデルをEU市場に出す前に『訓練に用いたコンテンツの十分に詳細な要約』(Article 53 1 (d))を公開しなければなりません。ただし元データのURLをすべて晒すわけではなく、カテゴリ別・出所別にまとめたリストを統一テンプレートで開示する方式です。これにより権利者は、自作が学習に含まれた可能性を推定しやすくなります」
―― すべての学習データを詳細に開示するのでしょうか?
「いいえ。EUは機密情報や個人データを保護しつつ、著作権者が『使われた/使われていない』を検証できる粒度を確保する折衷案を採りました。“どのサイトのどの作品”まで公開義務は課されていませんが、データ種別・著作権ステータス・取得方法などを要約することで、権利者が照会やライセンス交渉を行いやすくする狙いです」
―― この制度でAI企業が負担するコストは大きいでしょうか?
「大規模モデルの開発企業は、学習コーパスを再分類・文書化する内部プロセスが不可避です。とはいえEU市場を捨てられないため、ほぼ全社が準拠するとみられます」
英国の修正案と著名人のロビー活動
―― 英国の動きはどうでしょうか。もともとは規制緩和を目指していたと聞きましたが?
「当初、政府は『テキスト・データマイニング(TDM)例外の拡大』を検討し、AI開発者が事前許諾なしで学習できる“オプトアウト方式”を提案していました。ところが2025年5月12日、ポール・マッカートニーやエルトン・ジョンら400超のクリエイター連名書簡が首相に提出され、世論が一変しました」
人工知能(AI)企業による著作物利用の透明性と責任を強化する修正案の英上院採決を12日に控え、ポール・マッカートニーやエルトン・ジョン、デュア・リパら英国の著名アーティストがスターマー首相に著作権保護の強化を求めた。
出典:マッカートニー氏ら著名人、AI規制で英首相に書簡-著作権保護訴え – Bloomberg
―― なぜ突然このような転換が起きたのですか?
「書簡と並行して、上院(House of Lords)がデータ(利用とアクセス)法案(Data Use & Access Bill)に『AI企業は学習に使った著作物を開示すべき』というKidron修正案を可決したためです。もっとも、政府は5月14日に下院で同修正を財政特権を使って削除し、現在は再修正案をめぐる綱引きが続いています」
―― イギリスの規制は具体的にどのような形になりそうですか?
「最終案は流動的ですが、EUほど厳密ではないものの、『学習データの透明性を一定レベルで義務化』する方向で与野党が協議中です。創作者側は強制ライセンス市場の創設も求めており、秋の会期までに折衷案が示される可能性があります」
グローバルスタンダード化の可能性
―― EUやイギリスの動きは世界的にどのような影響を及ぼすのでしょうか?
「EU基準に対応するために米国企業もデータ要約リストを整備すれば、結果的に“EUフォーマット”が事実上の世界標準になる公算が大きいです。米国では依然として任意ガイドライン中心ですが、市場アクセスの条件として透明性が輸出される――これが“ブリュッセル効果”と呼ばれる現象です」
日本のTDM例外と文化庁ガイドライン
TDM例外で「機械学習の楽園」とも呼ばれる日本。しかし文化庁ガイドラインは出力段階の責任を強調し、国産AIビジネスは“学習フリー”と“出力リスク”の二重構造に直面します。
世界一ゆるい現行制度
―― 日本では生成AIの学習に関する規制がかなり緩いと言われますが、具体的にはどのような状況なのでしょうか?
「2018年改正著作権法で新設された第30条の4(情報解析のための複製等)が、いわゆるTDM例外です。営利・非営利を問わず、著作物を『鑑賞・享受以外の目的であれば許諾なしに複製・翻案してよい』と定めており、AIモデルの学習やデータマイニングを広くカバーします。国際的に見ても“学習段階がほぼノーライセンス”という点で突出しています」
―― 海外と比較しても珍しい制度なのですね。
「はい。米国のフェアユースは事後の衡量テスト、EUのAI法はデータ要約開示を義務付けますが、日本のTDM例外は学習時点の制約が最小限です。ただし条文には『著作権者の利益を不当に害することとなる場合を除く』とのただし書があり、海賊版サイトの一括クロールなどは適法とは限りません」
無断学習フリーライドへの懸念
―― 具体的にどのような問題が指摘されているのですか?
「権利者の許可や対価を伴わずにコンテンツが学習に吸い上げられる“無断学習フリーライド”への懸念です。クリエイター側は『学習段階で収益が発生しないまま生成物が市場を代替する』と問題視しています」
―― 文化庁もこの状況を問題視しているということですね。
「文化庁は2024年3月15日に公表した文書『生成AIと著作権に関する考え方』で、TDM例外は維持しつつ、生成・利用段階では厳格に権利侵害を判断すると示しました。ガイドラインにはチェックリストも添付され、AI利用者に自己点検を求めています」
類似性と依拠性の二要素判断
―― 文化庁は著作権侵害をどう判断しているのでしょうか?
「ガイドラインは、①既存著作物との類似性、②AI生成物が当該著作物に依拠している(アクセス・コピーした)か——の二要素がそろうときに著作権侵害が成立すると整理しています。意図的かどうかではなく“依拠性”が要件である点がポイントです」
―― 具体的にはどんなケースが著作権侵害とされるのでしょうか?
「たとえば、特定アニメの作画パターンを追加学習し、高い類似度でキャラクターを再現した画像を生成・公開した場合などです。『知らなかった』では済まず、利用者は公開前に大幅修正または権利者許諾を取るよう求められます」
生成AIを利用する場合、仕組み上、学習データに含まれる既存の著作物と類似した生成物が生成されることがあり、また、生成AIを利用しない場合と異なりAI利用者が既存の著作物を認識していなくても、生成・利用が著作権侵害となることがあります。このような生成AIの仕組みや特性を理解した上で利用することが必要です。
出典:AIと著作権に関するチェックリスト&ガイダンス
―― AIの利用者としてはどのように気をつければよいでしょう?
「①プロンプトや追加学習で特定スタイルを再現し過ぎない、②生成物が既存作品に似ていないか文化庁チェックリストで確認、③疑わしい場合は公開を控えるか権利者にライセンス交渉——これが基本です」
生成AI利用者が今すぐできる著作権対策
AI クリエイターが著作権リスクを最小化するには、ツールの特性理解と公開前のセルフチェック体制が必須です。番組で紹介されたガイドライン実践術を、文化庁の最新資料に沿って整理します。
ツールごとのリスクマップ
―― AIを活用する際、著作権リスクを抑えるために何から始めればよいでしょうか?
「まず、自分が使う生成AIツールの学習方法と追加学習機能を把握することです。たとえばStable Diffusion + LoRAのように特定キャラクターの追加学習が容易なモデルは、出力が元作品に高い類似性を帯びやすく、侵害リスクが高まります。一方、ChatGPT 内蔵のDALL·E 3はプロンプト制御によるスタイル模倣ガードが動作しますが、最近追加されたGPT-4oの画像生成機能のように著名作風を再現できる例も報告されており、リスクがゼロではありません」
―― 具体的にはどのようなリスクがあるのでしょう?
「著名キャラクターや固有の画風を意識的に再現すると、文化庁ガイドラインが示す『類似性+依拠性』の二要素を満たしやすくなります。LoRA で追加学習した上で類似画像を公開すれば、“依拠している”事実が推定されやすく、侵害認定リスクが跳ね上がります」
チェックリスト活用術
―― リスクを管理するための具体的な対策はありますか?
「文化庁は2024 年 7 月 31 日公表の『AIと著作権に関するチェックリスト&ガイダンス』で、AI利用者向けセルフチェック項目を示しています。公開前に①特定作品の模倣意図はないか、②既存作品と高い類似度がないか、③第三者が権利を主張し得る要素が含まれていないか──を確認する習慣が有効です」
―― AIを使った後、具体的にどのような点を確認すればよいでしょう?
「生成物を商用利用・SNS公開する前に、逆画像検索やスタイル比較ツールで既存の有名作品との類似度をチェックしましょう。疑わしい場合はプロンプト修正・再生成か権利者ライセンス取得が安全策です」
まとめ
生成AIの著作権をめぐる規制は、世界で大きく分かれています。アメリカはフェアユースを軸に学習の自由を重視しつつ、生成物の規制強化を図っています。一方、EUや英国は学習データの透明性を企業に義務付け、世界標準となる可能性が高まっています。日本はTDM例外で学習規制が極めて緩いものの、文化庁が生成物の著作権侵害には厳しい姿勢を示しており、生成AIの利用者には慎重な対応が求められています。