ディープフェイク動画についてロイター通信社が警告

「ディープフェイク」という言葉を聞いたことがあるだろうか?ディープフェイクというのは、AI(人工知能)による「ディープ・ラーニング(深層学習)」と「フェイク(偽物)」を掛け合わせた言葉だ。
ロイター通信社は、ディープフェイクの動画を「政治的または商業的利用のために、文脈が取り除かれ、不正表示され、編集された、やらせの、CG技術によって大幅に変更された動画」と定義している。例としては、有名人や政治家が実際には言っていないことを、言っているように見せかける動画などが挙げられるだろう。

ディープフェイク技術を使って作られた「フェイクニュース」を見分けるための最新調査結果で、ロイター通信社は次のように語っている。「人工知能ベースの技術の進歩により、実在する人々(著名人かどうかに関わらず)に、クリエイターが望む通りの言葉を、望む通りの環境で喋っているように思わせる、非常に説得力ある動画を作ることができるようになりました。」

ロイター通信社は独自の例として、ある言語を話すインタビュー対象者と、別の言語を話す別のインタビュー対象者をそれぞれ撮影し、それらの情報源を組み合わせ、最初のインタビュー対象者が二番目の対象者の言語を話しているように見せかける動画を作成したという。

ディープフェイク技術では、例えば、アーティストに悪意ある発言をさせる動画を作ることも容易い。ロイター通信社が発表したプラスの面としては、現在の技術には歯擦音を発音するときの不自然な口の形など、まだ欠点があるということだろう。

そのため、ディープフェイクの動画は、今のところ特定が可能だが、技術が向上するにつれ、段々と判別が難しくなるだろう。今のうちから、アーティストなど、著名な人物と関わる仕事をしている全ての人は、この技術の存在に注意しておくべきかもしれない。