もはや本人との聴き分けが不可能。AIを使った音声版”Deepfake”の進化と、詐欺や知財の新たな戦い

4月の終わりに、Jay-Zの管理会社のRoc Nationは、匿名のアカウントによりYOUTUBEで公開された、ディープフェイク(*)でハムレットの「To be to be to be to」をラップした映像に対して削除通知を提出しというニュースがありました。
※ディープフェイク・・・・実際の音声や映像をベースにAI使って合成した本物と見分けがつかない高度なフェイクコンテンツ

このYOUBE動画を聴いてびっくりされるかもしれませんが、まさにJay-Zそのもので、合成感は全く感じないのではないでしょうか?

Googleは一旦この動画の公開を取り下げましたが、Jay-Zの法務チームのDCMAクレームを不完全な主張と判断し、再度この動画を公開しました。

声自体に著作権は認められていないとの判断のようですが、商標や肖像権などを駆使した主張もGoogleの判断を覆すことはできませんでした。

AIが手軽になった今、映像や声を本物そっくりに作り上げることは難しいことではありません。

著名なアーティストや有名人のこのようなケースだけではなく、我々一般人も、会社の社長や家族の”Deepfake”により詐欺の被害をうけるリスクなどもあります。

Covid-19によるライフスタイルの変化により、オンラインでのコミュニケ−ションが当たり前となった今、Deepfakeと本物の区別ができる技術もこの先進化してくるかもしれません。
我々が相手の「本人性確認」を当たり前のようにする日が。

人間とAIで合成されたフェイクとの区別がつかくなる時代は既に到来しています。

この記事が良かったらシェア!