スマートスピーカーや、AI(人工知能)搭載と銘打たれた家電など、われわれの生活の中でも、AI関連の技術がしだいに身近になってきましたね。

しかし、そうした技術を悪用したニセ動画「ディープフェイク」が、いま海外を中心に大きな問題になっています。

動画版の「アイコラ」

動画の登場人物の顔や姿を、無関係な第三者のものと合成して作成した動画を総称して「ディープフェイク」と呼びます。有名人の写真を加工してつぎはぎし、別のシチュエーションの写真のように作り変えるアイコラ(アイドル・コラージュ)の動画版といえばわかりやすいかもしれません。

AIにおける機械学習のやり方の一つとして知られているものが「ディープラーニング」(深層学習)です。十分なデータ量があれば、人間の力をそれほど借りることなしにコンピューターが自動的にデータから特徴を抽出してくれるという仕組みです。「ディープフェイク」は、顔認識とディープラーニングを駆使して、元の写真からコンピューターが顔の造形や色合いなどの情報を分析してイメージを作り出し、元動画の顔と合成するといったやり方で作成されています。

日本でも顔交換や変形などを楽しめるアプリ「SNOW」などが流行しているように、ディープフェイク作成に悪用されている多くのプログラムは、元はジョークアプリとして楽しまれていました。しかし、より精度の高いアプリの登場や流行の加熱により、次第に過激なものがつくられるようになってしまったようです。

被害は海外セレブから一般人にまで及ぶ

現在、ディープフェイクの被害の多くは、ハリウッドスターや海外セレブなどのフェイクポルノ(捏造ポルノ)ですが、その対象は一般人にもおよび、リベンジポルノなどに活用された事例も存在するとのこと。

AIに対象の顔写真とポルノ動画を学習させ、ちょっとした技術があれば精巧なフェイクポルノができてしまうことから、最初はちょっとしたジョークやいたずらの気持ちで手を出してしまう人も少なくないといわれます。

トランプ大統領の捏造演説動画

また、ディープフェイクによって問題とされているのはフェイクポルノだけでなく、「フェイクニュース」などにも悪用され始めています。

ヒラリー・クリントン氏やドイツ首相のアンゲラ・メルケル氏の動画に、ドナルド・トランプ大統領の顔を貼り付けた動画やトランプ大統領の捏造演説動画などがフェイクニュースに活用されています。

その他、海外では数多くのディープフェイクが毎日動画サイト上にアップロードされているようです。

対抗策はあるのか?

こうした世界的な動きも背景となって、韓国では「国民請願掲示板」において、ディープフェイクなど新手のテクノロジー犯罪を防いでくれという請願に12万人以上が署名したというニュースが大きな話題となりました。

AIが次々と生み出していくディープフェイクへの対抗策として、技術面では画像や動画の捏造を発見するAIや、元動画を探り当てるAIなどが研究されています。「AIをもってAIを制す」ということでしょうか。また「Twitter」やオンライン掲示板の「Reddit」など、数多くのネット企業がディープフェイクに対して掲載禁止などの対策を展開しています。

幸いなことに、まだ日本では具体的な被害は報告されてはいないようですが、インターネット上のことでもあり、こうした危険な動きはやがて国内にも広がってくる可能性があります。

動画さえ疑わなければいけない時代

そもそもディープフェイクは、無許可で他者の顔画像を使用することで肖像権を侵害していますし、またそれらを使って脅迫などをすれば脅迫罪、リベンジポルノとしてアップロードすればリベンジポルノ防止法などにも抵触します。

しかし、作成した人間にこうした罰則があるとはいえ、ディープフェイクには「合成」と言われなければ信じてしまうほどのクオリティのものが多く存在しているとのこと。一度流出してしまうと、それによって狙われた本人が受けるダメージの悲惨さは想像に難くありません。

これまでは、写真と比べても動画は捏造が難しいものというのが一般的な認識でした。が、これからは、動画を観るときには、そこに映っているものを無条件に信じてしまうのではなく、「悪意をもってディープフェイクをアップした人がいるかもしれない」と認識しつつ視聴していかなくてはならないようです。嫌な世の中ですね……。

クロスメディア・パブリッシング