ディープフェイク(deepfake)とは?
ディープラーニング(深層学習)を利用して異なる画像や動画・音声を組み合わせて本来とは異なるコンテンツなどを作成する技術のことをいいます。
ディープフェイクの多くは動画によるもので一部分を加工して人物の顔を入れ替え、まるで入れ替えた人物がその動作をしているかのように相手をだますものとなっていて、近年人のプライバシー侵害や、政治的な印象操作や扇動などにも使われフェイクニュース同様に社会を影響を与えるものとして懸念されています。
また、ディープラーニングによるものではなく人が手動で画像の合成などを行い、同様にだます画像をアイコラといいます。
「ディープフェイク」の言葉の由来
2017年にディープラーニングを使ってハリウッドの女優の顔をはめ込んだポルノ動画を配信したRedditのユーザー名が「Deepfakes」だったのが由来とされています。
ディープフェイクが使っている技術
ディープフェイクが使用しているもはGANs(generative adversarial networks:敵対的生成ネットワーク)で、「ジェネレーター(generator)」と「ディスクリミネーター(discriminator)」という2種類のAIを使うことで生成しています。
ディープフェイク対策ツール
技術が向上するにつれてディープフェイクもより巧妙となっていますが、それに対抗するディープフェイク対策ツールも開発されています。
マイクロソフトの「Video Authenticator」
マイクロソフトのディープフェイク対策ツール「Microsoft Video Authenticator」は、画像や動画を解析して人間が見ただけではわからないレベルの色違いやズレなどを検出し「信頼スコア」を算出、ディープフェイクによるものか判断します。
「Video Authenticator」は公開データセットの「Face Forensic++」を用いて作成されもので、DeepFake Detection Challenge Datasetでテストしたものとなっています。
また、「Microsoft Video Authenticator」では制作側がデジタルハッシュと証明書を画像・動画に追加する機能もあり、改ざんされたものではないことが保証されます。
ディープフェイク技術の活用
人権の侵害やフェイクニュースとして悪用されるディープフェイク技術ですが、逆にこの技術の活用しようとする動きもあります。
Rosebud AIではマネキンに着せた衣装の写真をアップロードすると実在しないモデルがその衣装を着た写真が生成したり、着せたい人部に着せるというツールを公開しています。
Synthesiaはマラリア対策の啓蒙動画にデビット・ベッカムが英語だけでなくアラビア語・ヒンディー語などで語りかけるという公共広告を制作しています。
日本で初のディープフェイクポルノによる摘発
2020年10月にディープフェイク技術を使い、女性芸能人の顔をポルノ動画の出演者の顔と入れ替えて公開していた大学生の林田拓海(21)と、システムエンジニア大槻隆信(47)の2名が名誉毀損と著作権法違反容疑で逮捕されている。
ディープフェイクポルノによる国内の摘発はこれが初めてとなっています。
ディープフェイクポルノでは国内では人気芸能人である石原さとみ、橋本環奈、新垣結衣、広瀬すずなどが使われおり、名誉毀損や著作権法違反など今後も人権侵害として課題に取り組む必要があります。