Navigation

私たちの「現実」に忍び込むディープフェイク

Brain Light / Alamy Stock Photo

アプリの登場により、一般市民でも容易に映像を操作し、極めて精巧なフェイク動画が作れるようになった。このようなディープフェイク技術は、世論に影響を与えたり、偽の情報を広めたりするために悪用される。スイスを代表する2人の専門家が、人の目を欺くことが容易になった背景を説明する。

このコンテンツは 2021/08/27 08:30

画像処理技術は、少なくとも写真撮影と同じくらい古い歴史を持つ。リンカーンは大統領としての存在感を高めるために使い、スターリンや毛沢東は写真から政敵の姿を消し去ることで知られていた。

かつては技術者のみが巧みに人の目を欺けたが、今は素人でもできる。インターネットでダウンロードしたソフトウェアと、検索エンジンやソーシャルメディアから拝借した2、3枚の画像さえあれば、誰もがインターネット上でフェイク動画を瞬く間に拡散させることができるのだ。例えばトム・クルーズがゴルフをしているフェイク動画他のサイトへや、エリザベス女王が毎年恒例のクリスマスメッセージの中で踊り出すフェイク動画他のサイトへなどが人気だ。連邦工科大学ローザンヌ校(EPFL)のマルチメディア信号処理研究所他のサイトへを率いるトゥラディ・エブラヒミ氏他のサイトへは、「今では写真が1枚あれば、質の良いディープフェイクを作るのに十分だ」と語る。

「ディープフェイク」とは?

「ディープフェイク」は2017年に作られた造語。人工知能(AI)のディープラーニング(深層学習)とフェイク(偽物)からくる。

End of insertion

エブラヒミ氏のチームは数年前からディープフェイクに着目し、インターネット上に出回る写真や動画、画像の整合性を検証する最新システムを開発している。人工知能(AI)を使ったディープフェイクは、人間の目のみならず、それを認識するアルゴリズムさえ欺くほどリアルな合成画像だ。同チームは最近、2人の異なる人物の顔を重ね合わせ、偽のプロフィールやIDを作成できることを証明した。

エブラヒム氏とそのチームにとって、これは時間とテクノロジーとの戦いだ。ソーシャルメディアの台頭により、情報操作は世界の多くの地域で国家安全保障上の問題にまで発展している。企業や政府だけでなく、何百万人もの人々が自由にコンテンツを作成し、操作し、それにアクセスできるのだ。同氏によると、ロシアや中国、イラン、北朝鮮などの国は、国境の内外を問わずフェイクニュースの拡散に非常に積極的だと考えられている。その中にはディープフェイクも含まれる。ディープフェイクの影響が出始めていることを示す最近の例として、欧州の国会議員がディープフェイクのビデオ通話にだまされた他のサイトへ件がある。ロシアの野党議員を模した同ビデオは、反政権派指導者アレクセイ・ナバリヌイ氏のチームの信用を失墜させるために作成されたものだった。

見たものを鵜呑みにしてしまう

マサチューセッツ工科大学(MIT)の研究他のサイトへによると、フェイクニュースはツイッター上に流れる本物のニュースの6倍の速さで拡散する。エブラヒミ氏がディープフェイク現象を特に懸念するのはそのためだ。「人々はまだ見たものをそのまま信じる傾向にあるため、ディープフェイクは誤報を広めるのに非常に有効な手段だ」

動画の質もますます良くなり、本物と偽物の区別を付けるのは一層難しくなっている。「無制限、またはほぼ無制限のリソースを持つ国では、目が利く人でさえだまされるほどリアルな偽動画を作れる」と同氏は続ける。そして最先端のソフトウェアならまだ情報操作を識別できるが、2~5年後には機械でさえ本物と偽物の区別がつかなくなるだろうと予想する。

ディープフェイクを追い続けて

トゥラディ・エブラヒミ氏の研究室では、20年前から画像や動画、音声、言語などのメディアセキュリティ問題と、それらの整合性の検証に取り組んでいる。当初、情報操作は主に著作権の問題だったが、その後プライバシーやビデオ監視の問題に移行。やがてソーシャルメディアの登場により、操作されたコンテンツが大量に拡散するようになった。

ディープフェイクは、フェイクを識別するための検出器さえ回避する。そのため同氏の研究室では、コンテンツがどのように作られ操作されたかを匿名で検証するため「実績技術」と呼ばれる「パラダイム(範例)」を使用。「しかしこの『実績技術』が機能するためには、インターネット上の多数の関係者に利用してもらう必要がある。グーグルやモジラ、アドビ、マイクロソフトから全てのソーシャルメディアまで、数え出したらきりがない。目標は、世界的に適用される(画像・動画ファイルの)JPEG規格に合意することだ」(エブラヒミ氏)

End of insertion

次第に増える偽造

フェイクビデオは当初、主に俳優や著名人の面白おかしいビデオクリップやビデオゲームの制作に使われていた。中には役に立つ物もあるとエブラヒミ氏は指摘する。

エブラヒミ氏は「ディープフェイクはすでに、愛する人を失った人の苦悩を和らげる心理療法にも利用されている」と言い、若くしてこの世を去った娘に別れを告げるため、悲しみに沈む両親が娘のディープフェイクを作ったというオランダの事例他のサイトへを挙げた。系図サイト「MyHeritage」でも同様のことができる。「DeepNostalgia他のサイトへ」というツールを使えば、亡くなった家族の写真を「動く写真」に変換して息を吹き返させることさえ可能だ。

だが技術の向上に伴い、ディープフェイクはすぐに ―特に女性に対する効果的な誹謗(ひぼう)中傷の手段に― 変わっていった。金銭を脅し取ったり世論を操作したりする手口としても悪用され始めた。

サイバー犯罪者が最高経営責任者(CEO)になりすまして緊急の送金を依頼し、企業をだまして送金させる他のサイトへという事件も発生している。

スイスの研究機関Idiapの上級研究員、セバスティアン・マルセル氏他のサイトへは、「今のところこういった操作はまだ少ないが、技術が成熟するにつれて次第に増えるだろう」と予測する。同氏によると、ディープフェイク技術が現時点で操作できるのは視覚的コンテンツだけで、音声の操作はまだできない。音声は、他の動画から取り込んだものでなければ、プロが音声を真似しているだけだ。「音声のフェイクはまだ難しいが、将来的には誰かの画像や声をリアルタイムで忠実に再現する、非常にリアルなディープフェイクが出てくるだろう」。そうなれば、例えばライバルやビジネス上の競合相手をめぐる偽のスキャンダルをでっちあげるといった操作はお安い御用だ。

スイスにおけるバイオメトリクス(生体認証)研究

セバスティアン・マルセル氏は、スイスの研究機関Idiapでバイオメトリクス・セキュリティ&プライバシー部門を率いる。同機関は、指紋認証や顔認証システムの脆弱性を評価し強化するためのバイオメトリクス研究に特化した、スイスでも数少ない研究所の1つ。「顔認証やバイオメトリクス全般に関する研究は、スイスではまだ少ない」(マルセル氏)

End of insertion

現実を全て否定するように

研究者のニーナ・シック氏は、著書「Deepfakes The Coming Infocalypse(仮訳:ディープフェイクと迫りくるインフォカリプス)」他のサイトへの中で、ディープフェイクが広く認知され、何が本物で何が偽物なのか分からないという状況に陥ると、それが予期せぬ波紋を呼び、何もかも偽物かもしれないと誰も責任を取ろうとしない「もっともらしい否認」の文化を生み出すかもしれないと指摘する。

逆に、本物の動画が偽物のコンテンツと間違われることもある。例えばアフリカのガボン共和国では、病気で数週間公の場から姿を消していたアリ・ボンゴ大統領の動画がディープフェイクと間違われ、国軍兵士の一部がクーデター未遂を引き起こした他のサイトへ

「ディープフェイクで、誰でも何でも偽造できるようになる。どうせ何でも偽造できるなら、誰もがもっともらしい否認を主張するようになる」とシック氏は主張する。同氏はこれが、ディープフェイクが社会にもたらす最大の脅威の1つだと考える。

「フェイクニュース」文化に対抗するには

欧州連合(EU)も、この問題を甘く見ているわけではない。資金を援助するホライズン・ヨーロッパといったイニシアチブは、偽の動画に関する研究を促進している。マルセル氏は、「EUでは、今後数年のうちに偽装動画の研究を求める声が高まるだろう」と述べた。技術的な面でディープフェイク問題に取り組むには、先回りしてシステムの脆弱性に着目する必要がある。「しかし、決してそれほど容易ではない」。「資金繰りをする学術的なプロセスが遅い」からだ。だがその一方で、ディープフェイクを支える技術は驚異的なスピードで発展し続けている。

フェイクニュースに対抗するためには、国民の注意を喚起し、批判的な意識と市民としての責任感を強める教育が不可欠だと、エブラヒミ氏とマルセル氏は強調する。「私たちは、インターネットで見たものに疑問を持ち、どんなコンテンツでも無差別に拡散してはいけないと子供達に教える必要がある」とエブラヒミ氏は結んだ。

(英語からの翻訳・シュミット一恵)

現在この記事にコメントを残すことはできませんが、swissinfo.ch記者との議論の場はこちらからアクセスしてください。

他のトピックを議論したい、あるいは記事の誤記に関しては、japanese@swissinfo.ch までご連絡ください。

共有する

この記事にコメントする

SWIアカウントをお持ちの方は、当社のウェブサイトにコメントを投稿することができます。

ログインするか、ここで登録してください。