1. TOP
  2. 活動報告
  3. 第1回パネルディスカッション「生成AIと声」中編

活動報告

第1回パネルディスカッション「生成AIと声」中編

←前編へ                  後編へ→

●声優業界が生成AIによる権利侵害を危惧して立ち上がる

生成AIによる著作権侵害を危惧する日本俳優連合が、どのような取り組みを実践しているのかを紹介するために、久保田氏は一本の動画を再生しました。

【動画リンク】生成AIに関する音声業界三団体の主張」記者会見(ダイジェスト版

声優業界では、AIによる音声生成技術の発展に伴い、声優の権利侵害を懸念しています。特に、声優の声音を無断で利用し、AIで生成された音声で作品を制作されることが問題視されています。声優たちは、AI技術の進歩が素晴らしいものである一方で、声優の権利を尊重し、無断での音声利用を禁止する必要があると訴えています。また、業界関係者や法律家など、様々な立場の人々が集まり、この問題について議論を進めていくべきだと主張しています。そして、問題に対処するために、3つの声明を発表しました。

・生成AI音声を、アニメーション及び外国映画等の吹替では使用しないことを求める

・生成AI音声を学習・利用する際は、本人の許諾を得ることを求める

・生成AI音声には、AIによる生成物であることの明記を求める

動画の再生を受けて、池水氏は日本俳優連合で2023年12月から2024年2月まで実施したAIの実態調査を公表します。調査によれば、AI利用者は増加の傾向にあり、AIで生成された声優の「声」が勝手に使われている例として、TikTokで209件、YouTubeで46件、ニコニコ動画で14件、Xが1件となっていました。

池水氏は「個人で家で楽しんでいる分にはいいのですが、声優の声でアニメーションのテーマ曲を歌わせたり、文芸作品を朗読させたり、好き勝手なコメントを喋らせて、それをSNSに流すのは問題です」と現状を危惧します。

241210d.png

また、日本俳優連合では組合員に実施したアンケートの結果も公表しています。
【リンク】【実演家向け】生成AIに関する緊急アンケート結果(日本俳優連合webサイト)

実演家から950件の回答が得られたアンケートによれば、「知らない内に自分がAIの元になっているのは心外だ」の回答が684件と、全体の72%と多く生成AIの学習利用に強い忌避感を示しています。また、459件(48.3%)が「生成AIは著作権の侵害に当たると思う」と回答しています。その中で「適正な報酬が得られるのであれば生成AIに仕様されても良い」という現実的な回答も半数を越えていました。それでも、実演家が生成AIに使用しても良いと考える分野は「時報などの単純な情報」や「医療・福祉目的の作品」などに留まっています。反対に、「映画・放送・舞台・ライブ・アニメ・吹替」といった表現分野での使用は望まれていません。
池水氏は「声優の声を集めたAIデータベースがあり、公開されたら大打撃です。海外には実演家を保護する論理的な規定を作っている事例もありますが、日本の著作権法 30 条の 4 は、極めてゆるい規制です。外国で AI を自由に利用したい人が、日本で生成物を作り配信するようになり、国際紛争になるんではないかということを懸念しております。さらに、SNSのプラットフォームが、違法と思われるコンテンツを野放しに送信していることは、問題ではないかというふうに思っております」と問題を提起します。

●法的な観点での生成AIと著作権の保護に向けた取り組み

久保田氏
池水さんの問題提起について、法律の面から田邉さんはどのように受け止めていますか。

田邉氏
AIが高度化する中、個人の声を模倣した音声生成が容易になり、声優やアーティストなどの「声の権利」の侵害が懸念されています。この問題に対して、著作権法、不正競争防止法、パブリシティ権といった様々な法制度が検討されていますが、それぞれに課題があり、十分な保護が難しい状況です。

241210e.png

著作権法2条1項1号で、著作物は「思想又は感情を創作的に表現したもの」と定義されているので、「声」それ自体は表現手段であって、著作物ではないのです。また著作権法2条1項3号の実演や、著作権法2条1項4号の実演家という定義から判断しても、「声」それ自体は実演の際に用いられるものではあるが、実演ではないので、著作権法での保護が困難です。
生成AIとの関係では、著作権法30条の4(著作物に表現された思想又は感情の享受を目的としない利用)と、47条の5(著作物を軽微な範囲で提供する行為)の適用が主として問題になります。アニメを学習して、そこで用いられている「声」(声質)をそのまま出力できるようにすることを目的としていても、「当該著作物に表現された思想又は感情」や「実演」を享受する目的が併存しているとはいえないのではないかと思います。

不正競争防止法2条1項1号の「商品等表示規制」を適用しようとすると、人の「声」が「商品等表示」であるといえるためには、「声」そのものが何らかの商品の出所又は営業の主体を示す表示となっている必要があります。「この声って声優の 〇〇さんだよね」というぐらいの認識で「商品等表示」として保護するのは、道は閉ざされていないもののハードルは高いと考えています。

ピンク・レディー事件(最判平成24年2月2日民集66巻2号89頁)で有名になったパブリシティ権は、著名人の肖像や名前、個性的な特徴などの顧客吸引力を排他的に利用する権利です。このパブリシティ権を行使するためには、「肖像等」に「声」も含まれると考えられるかどうかが争点になります。またパブリシティ権は判例に基づく権利なので、不明確な点も多く「声」は視覚的、言語的な要素がないため本人を同定しにくい場合があります。
「声」というのは「個人の人格の象徴だ」というふうに解釈できれば、人格権に由来するものとして保護できる期待もあります。パブリシティ権や様々な権利を利用して、なんとか「声」の保護ができないか取り組んでいます。

久保田氏
ありがとうございます。池水さんの意見と田邉さんのお話で、かなり頭が整理されました。

●海外での生成AIと著作権の保護に向けた取り組み

久保田氏
ここで少しアプローチを変えて、ソフトウェアについても生成AIと著作権の関係を考えてみたいと思います。生成AIによって提供されたコードをユーザーが利用したときには、「声」と同様の問題は起きるのでしょうか。グローバルにおける生成AIと著作権に関する技術情報も含めて、鈴木さんの方からお話いただけますか。

鈴木氏
2つ、取り上げさせていただきたいテーマがあります。1つ目は、AIの透明性に関する要求です。EUではEU AI ActというAIに関する法律が成立しています。AI生成物であることを検証可能にするために、学習データの概要の公開を要求し、透明性を確保しようとしています。つまり、出力物が確実にAIが作ったものであると証明するものです。欧米では、フェイクニュースなどが大きな問題として取り上げられていて、そういうところでAIの透明性が非常に重要になっていると考えられます。また、学習データも何を学習したのかが公開できるようになっていれば、著作権者からもAIが何を学習してそうなったのか、AIが出力したものがフェイクかもしれない、ということがわかるようになる点が、大きなポイントかと思います。 もう1つは、米国の動向です。カリフォルニア州においても、AI透明性法(SB 942)が成立しました。一定以上の規模のAIプロバイダーに対して、AI生成物であることを検出できるように義務付けています。アメリカでは、オープンソースの開発者たちがAIの会社に対して勝手にオープンソースを学習させて出てきたものに対して、オープンソースのライセンスに従っていないと訴えを起こしました。オープンソース自体も著作権の上に成り立っているものです。オープンソースのライセンスに従って使っていないと、それは権利侵害となります。ただ、GitHub・Microsoft・OpenAIがAIの学習に関する著作権侵害で訴えられた判例では、大部分が棄却されました。AIの学習データについての訴訟については、今後も判例や法律の積み重ねで明確になっていくと見ています。

241210f.png

←前編へ                  後編へ→

一覧を見る


ページTOPへもどる