\r\n\r\n
百聞は一見にしかず。少なくとも、ビデオを通じて悪ふざけをしたり、歴史を書き換えたりすることができることに気づくまでは。私たちは、ほとんどのいたずら画像を否定する方法を見つけてきましたが、ある技術は急速に発展しており、近いうちに本物と偽物の見分け方がわからなくなるかもしれません。
Deep Fakeは、私たちが考えていたことをすべて変えてくれました。
ディープフェイクという言葉は、「ディープラーニング」と「フェイク」という言葉を組み合わせたものです。これは、画像・映像合成の訓練を受けた人工知能ソフトが作成しているためです。このAIは、ある物体(ソース)の顔を、別の物体(ターゲット)の映像に重ね合わせることができます。さらに高度な技術になると、顔のポーズと模倣したい対象の画像や映像を使って、まったく新しい人体モデルを合成することができるようになる。
この技術は、限られた量の視覚データ(画像など)**の顔モデルに基づいて行うことができます。しかし、AIが処理するデータが多ければ多いほど、よりリアルな結果を得ることができます。
政治家や有名人がディープフェイクのターゲットになりやすいのは、ソフトウェアが利用できるビジュアルデータがネット上に大量にあるからです。ディープフェイクソフトウェアはオープンソースのプラットフォームで提供されているため、インターネット上の人々は常に他の人の仕事を改良し、構築しています。
ディープフェイクを支える技術は、さまざまな目的で開発されています。Photoshopと同様、プロフェッショナル、レクリエーション、ホビーなど様々な用途で利用できます。Photoshopのように、制作者が悪意を持って作ったソフトではないにもかかわらず、悪用する人が後を絶ちません。
フェイススワップ技術は、当初は映画業界を中心に利用されていました。その代表的な例が、2016年の映画『ローグ・ワン/スター・ウォーズ・ストーリー』です。この映画では、ビッグ・モフ・ターキンのキャラクターを、映画**の人たちがフェイススワップや映像合成の技術を使って再現しているのです。レイア姫の若いバージョンもこの映画で作られました。どちらも、元の俳優の顔モデルを代役の俳優に重ね合わせたものです。
Snapchatのようなアプリも、顔の入れ替え技術を使って、ユーザーに面白いフィルターを作っています。これらのアプリの開発者は、より効果的にこれらのフィルターを適用するために、顔検出とトラッキングを常に改良しています。
同時に、教育用にホログラムを作成するための映像合成ツールも開発されています。例えば、あるプロジェクトでは、ホロコーストの生存者の証言をインタラクティブなホログラムとして博物館に展示できるよう、映像と顔の合成ソフトを開発しました。
詐欺師やイタズラをする人たちがフォトショップを使って**画像を偽造していることに気づいたら、私たちはもっと証拠になるものに対して懐疑的にならざるを得ないでしょう。幸いなことに、画像が偽物かどうかを見分ける方法は、肉眼でも数多く存在します。
その上、Photoshopで納得のいくまで修正した画像を作るのは、比較的手間がかかるものです。2枚の写真を並べて、リアルに見せることは誰にでもできることではありません。
しかし、偽造は別です。機械学習は生活を便利にしますが、この場合、偽造を著しく容易にします。まず、ソフトウェアが広く普及し、無料で利用できることです。例えば、FakeAppは、深いフェイクを作るのによく使われています。顔の入れ替えに高度なスキルは必要なく、ソフトがやってくれます。
また、人工知能やディープラーニングが助ける**ディープフェイクのように、技術も向上し、驚異的なスピードで説得力を増している。やがて、これらの編集は肉眼では見えなくなってしまう。
フェイクニュースが氾濫する世界では、説得力のあるフェイクニュースは、私たちが真実だと信じていることとは正反対の、混乱の力となることが証明されます。
ディープフェイクの台頭は、人工知能による音声合成も急速に進んでいる時期に起きているのです。人工知能はフェイク動画を生成できるだけでなく、人の音声モデルも生成できる。
つまり、物まね芸人を使わなくても、政治家がとんでもない発言をしているように聞こえるのです。AIに声真似のトレーニングをさせることができる。
DeepFakeを利用して悪質な攻撃を行う人たちがおり、有名女優が**コンテンツ**に関わる偽の動画に偽のアプリ**を利用することが多いようです。
ガル・ガドット、デイジー・リドリー、エマ・ワトソンなど、頻繁に偽○○の標的にされる女優がいます。これらの難解なフェイクは、女優の顔を○○スターの映像に置き換えたものです。
一部のプラットフォームや特定の○○○○はこの種の動画を禁止していますが、日々増え続けています。実際、ユーザーのリクエストに基づき、**仮名人**の動画を専門に扱うサイトもあります。
多くの国では、この種のコンテンツを扱う法律がまだないため、コントロールすることが難しいのです。
映画『ランニングマン』のような誤報と虚偽の証拠映像に支配された反ユートピアにはまだ程遠いが、フェイクニュースの影響はあまりにも身近なものとなっている。
ディープフェイクは、誤報を広めるための強力なツールです。犯罪の濡れ衣を着せられたり、**で自分の死を偽装したりする人はいませんが、どの動画が本物か見分けがつかないときはどうするのでしょうか。
政治的な目的で偽物が使われた場合の影響は2つあります。まず、フェイクニュースが拡散しやすくなる。動画は、テキストや画像よりも、架空のことが実際に起こったと思わせる可能性が高いのです。
人々はすでに、何の根拠もない偽サイトの見出しを鵜呑みにしています。突然、フェイクニュースで、政治家が間違いを認めたり、とんでもない発言をした「証拠」が出てくるのです。
一方で、改ざんの深さが政治家の責任逃れを助長することにもなりかねず、音声や映像の記録は実は偽物だったといつでも簡単に言い逃れができる。
多くの技術系企業が深層偽造の抑制に時間を費やしている一方で、悪意のあるフェイクビデオに対抗するツールを開発している企業も少なくありません。人工知能はハッキングやサイバー犯罪に対抗することができますが、映像のAI改ざんを検出するのにも役立ちます。
人工知能財団は、ネット上の偽コンテンツを検出するためのブラウザ・プラグイン「Reality Defender」を作成しました。また、別のプラグインであるSurfSafeも同様のチェックを行う。どちらも、インターネットユーザーが事実とフィクションを区別するためのツールです。
Snopesのようなファクトチェックのサイトでは、加工されたビデオを表示することもできる。しかし、フェイクを自動的に検出するツールはまだない。
米国国防総省でさえ、深海の偽物を検出するソフトウェアに投資している。結局のところ、世界の指導者が他国に宣戦布告したり、ミサイルを発射したりする信憑性のあるビデオがネット上に現れたらどうなるのだろうか。**映像の正当性を迅速に確認するためのツールが必要です。
人工知能技術や深層機械学習が、私たちの生活をさまざまに向上させていることは間違いありませんが、この技術には意図しない結果もあります。
機械学習アルゴリズムにとって、不良データが主な障害となる一方で、人間の要素も重要な役割を担っている。ある技術を悪意のある目的で使用する人間を予測することは困難である。
機械学習や過去の失敗とその理由については、「機械学習アルゴリズムガイド」で詳しく解説しています。真偽を見極めるのは難しいかもしれませんが、スマートニュースアプリを使えばフェイクニュースを回避することができます。