米立法府は7月中旬、AI訓練やそれによるコンテンツ生成を目的としたテック企業のデータ収集方法にフォーカスした。つまり、ジェネレーティブAIによる著作権侵害の可能性をさらに深く掘り下げたかたちだ。
これは、上院司法委員会が開催する一連の公聴会の3回目であり、5月および6月に開かれた前2回は、「著作権法」「革新」「競合」といったAIおよびIP(知的財産)のほかの側面にフォーカスしていた。
AIの学習に使われているのは本当にフェアユースなものだけ?
今回、議論の中心となったひとつが、「企業はユーザーに、AIモデル訓練使用に対するオプトアウト(拒否の機会)を与えるべきか否か」だった。スタビリティAI(Stability AI)のパブリックポリシー部門トップであるベン・ブルックス氏は、「自社ではすでに、我々のAIモデルに対して自身の画像/動画の使用を望まない人々からオプトアウトの要請が1億6000万件以上寄せられている」と話した。
「スタビリティAIはデータの使用を許諾する人々に金銭を支払うのか」とのクリス・クーンズ上院議員の質問に対してブルックス氏は、直接の回答を避け、大規模なデータセットの確保が極めて重要である点を強調するに留まった。そして、「有用にするには、そうした多様性の確保が重要だ」と同氏は発言した。
この議論は、テック企業が新たな法的挑戦に直面するなかで起きたものでもある。
米立法府は7月中旬、AI訓練やそれによるコンテンツ生成を目的としたテック企業のデータ収集方法にフォーカスした。つまり、ジェネレーティブAIによる著作権侵害の可能性をさらに深く掘り下げたかたちだ。
これは、上院司法委員会が開催する一連の公聴会の3回目であり、5月および6月に開かれた前2回は、「著作権法」「革新」「競合」といったAIおよびIP(知的財産)のほかの側面にフォーカスしていた。
AIの学習に使われているのは本当にフェアユースなものだけ?
今回、議論の中心となったひとつが、「企業はユーザーに、AIモデル訓練使用に対するオプトアウト(拒否の機会)を与えるべきか否か」だった。スタビリティAI(Stability AI)のパブリックポリシー部門トップであるベン・ブルックス氏は、「自社ではすでに、我々のAIモデルに対して自身の画像/動画の使用を望まない人々からオプトアウトの要請が1億6000万件以上寄せられている」と話した。
Advertisement
「スタビリティAIはデータの使用を許諾する人々に金銭を支払うのか」とのクリス・クーンズ上院議員の質問に対してブルックス氏は、直接の回答を避け、大規模なデータセットの確保が極めて重要である点を強調するに留まった。そして、「有用にするには、そうした多様性の確保が重要だ」と同氏は発言した。
この議論は、テック企業が新たな法的挑戦に直面するなかで起きたものでもある。7月第2週、Googleは自社AI製品の開発に際し、「州および連邦の著作権、ならびにプライバシー保護法に違反した」として、集団訴訟を起こされた。約1カ月前には、オープンAI(Open AI)が同じ原告から別個の、だが同様の訴訟を起こされている。2023年前半には、スタビリティAIもゲッティイメージズ(Getty Images)から、「AIモデルの訓練にゲッティイメージズが所有する何百万点もの画像を不当に利用した」として訴えられた。
証言をしたAI企業の幹部らはいずれも、「各々のAIモデルはあくまでフェアユース(公正利用)と見なされるコンテンツに基づいて訓練されている」と述べた。これに対してマーシャ・ブラックバーン上院議員は、「フェアユース」という法原理による保護が、知的財産を「盗むための、体のよい方便になっている」と指摘。別の委員会メンバーであるエイミー・クロブシャー氏は、「立法府はAI生成コンテンツの一部利用禁止を検討すべきだ」と示唆し、AIが政治広告における誤情報の生成に使われうる懸念を指摘した(両議員の見解がほかのほぼ全議題で相反している点は、注目に値する)。
AIが孕む危険性
AIの専門家らは一方、「膨大な言語モデルはすでに訓練データとして利用されており、そこから特定のコンテンツを取り除くのは困難だ」と話す。さらに、「データ共有をオプトアウトするにはまず、自身のデータがオプトインされていると知らなければならず、それは容易ではない」と、ユニバーサルミュージックグループ(Universal Music Group)の顧問で、ビジネス&リーガルアフェア部門EVPであるジェフリー・ハーレストン氏は指摘する。同氏の考えでは、企業はAI訓練にコンテンツを使用する前に、コンテンツ所有者の同意を取るべきであり、「一部のアーティストは実際、自身の音楽が商業以外の目的で拡散されることを望まない」と言い添える。
「創造性は日々の生活に欠かせないサウンドトラックだ」とハーレストン氏は話し、「著作権という基本原則がなかったら、我々はその存在すら知らなかったかもしれない」と付け加えた。
かたや、エモリー大学ロースクールのAI専門家マシュー・サグ氏は、「商業的保護にばかり注目し、ディープフェイクやそのほかAIコンテンツに対して依然危惧の念を抱いて保護を求める一般の人々への注目を欠く議論は『非常に危機』だ」と話す。
アーティストの作品は搾取されているのか
今回の会で提案されたひとつが、アーティストをAIによるなりすましから保護する、新たな「なりすまし防止法」であり、これを提起したのはアドビ(Adobe)のEVP兼顧問のダナ・ラオ氏(アドビの法律および政策チームの監督)だった。会の冒頭の言葉で、同氏は「その法律には法定損害賠償も含まれるべきであり、そうすればアーティストは実損を証明する義務を負わなくて済む」と話した(アドビをはじめ複数の企業は現在、コンテンツ認証イニチアチブ[CAI]といった団体を通じて、ジェネレーティブAIに関する新たな基準作りを図っており、同団体には、スタビリティAI、ユニバーサルミュージックグループ、ゲッティイメージズを含む、1500以上の企業などが参加している)。
AIの影響を受けているアーティストの代表は、『ブラックパンサー』『ガーディアンズ・オブ・ギャラクシー』『ドクター・ストレンジ』といった映画を手がけたコンセプトアーティストおよびビジュアルデベロッパーであるカーラ・オーティス氏だった。証言中、同氏は自分のデザインがAIモデルの訓練に寄与していると知ったときの「恐怖」をふり返るとともに、「これまでは、アーティストとしての未来を心配したことは一度もなかった」と発言した(オーティス氏はスタビリティAIを訴えたことがある)。
「私の作品のほぼすべてが、また私の知っているほぼすべてのアーティストの作品が、そして何十万人というアーティストの作品が、本人の同意もクレジット表記も、補償もないまま、勝手に使われている」とオーティス氏は訴えた。「それらの作品は盗まれたのであり、数十億もの画像、映像、テキストデータを含むデータセットとともに、営利目的のテクノロジーの訓練に使われた」。
[原文:U.S. lawmakers focus on copyright issues around AI’s impact on intellectual property]
Marty Swant(翻訳:SI Japan、編集:島田涼平)