動くアイコラ・ディープフェイクの恐ろしさ。ポルノ被害やなりすましも…
近年著しい進歩を遂げているAI技術。その余波が世間を揺るがそうとしている。
「ディープフェイク」とは「ディープラーニング」と「フェイク」を掛け合わせた造語であり、顔の画像を別の動画に貼り付け、あたかも本当にその顔の人が喋っていたり動いていたりする動画を作る技術だ。2017年ごろからは、英語圏のウェブサイトでディープフェイクを活用した「フェイクポルノ」が現れ、エマ・ワトソン、ケイティ・ペリー、テイラー・スウィフトなどが自身の偽の性交動画を投稿される被害に遭っている。
そして近頃、その現象が頻繁に日本でも起きている。某有名女優やアイドルなどのポルノ動画が、中国や韓国、日本のポルノサイトから投稿され始めたのだ。中国では一般人でも手軽にディープフェイク動画を作れるアプリも配信されているそうで、芸能人にとどまらず一般人の不本意なポルノ動画がネット上に流出してしまう可能性もある。
ディープフェイクが身近なものになることで、どのような弊害が生まれるのだろうか。インターネット上のトラブルや名誉毀損に明るい、港国際法律事務所の最所義一弁護士に話を伺った。
そもそもディープフェイクで他人の顔を合成することは何の罪に当たるのだろうか。
「元の動画の著作権者との関係で著作権侵害が問題となります。合成された被害者との関係では、名誉毀損が成立する可能性があります。その場合、損害賠償が認められる場合もありますが、特に芸能人の場合、肖像自体に経済的『価値』がありますので、賠償額は一般の方よりも高くなると思います」
今は芸能人が被害にあっているディープフェイクだが、今後は一般人が被害者になることもある。
「一般の方がネット上で被害にあうケースでは、周囲の人間の犯行である場合が多くあります。例えば、『会社の同僚の写真を合成したポルノ動画』が作られる危険はあるでしょう。また、男女間のトラブルから、『元カノの顔を当てはめたフェイクのリベンジポルノ動画』が拡散されることがあるかもしれません」
また、ディープフェイクが身近になれば、「なりすまし」や「イタズラ」が増えるという。
「以前、熊本地震の際に、『動物園からライオンが脱走した』というデマが広がりました。画像をよく見れば日本ではないことは、すぐにわかるのですが、瞬く間にネット上で拡散されましたよね。一見明白に誤りだとわかる静止画像ですらデマと共に広がる訳ですから、これが作られた動画の場合、騙される人はもっと増えるでしょう。ネットでは、『動画でも信頼できない』との姿勢は必要でしょう。
個人的な恨みなどから、勤務先の社長の悪口を言っている動画を作られたり、『バイトテロ』のように、自分が勤め先で迷惑行為をしているような動画を作られたりすることもあるでしょう。もし、名前なども出されてしまえば、本人の知らないうちに『炎上』しているかもしれません。また、フェイクポルノが作られ、『昔、AVに出ていた』という噂を流されることもありうるでしょう」
そのようなトラブルに巻き込まれてしまった場合、どのように対処すればいいのだろうか。
日本で広がるディープフェイク被害
一般人に及ぶ危険性
1
2
この記者は、他にもこんな記事を書いています
ハッシュタグ