\r\n\r\n
私たちは、映像や音声の記録内容を信用しがちです。しかし、人工知能を使えば、精密なスポッティングによって、誰の顔や声でも復元することができます。本製品は、**モデリング、ミスディレクション、ポルノに使用できるパロディであり、偽物です。
ニコラス・ケイジのディープフェイクやジョーダン・ピールのディープフェイクPSAを見れば、私たちが奇妙な新しいテクノロジーを扱っていることは明らかです。これらの例は、比較的無難なものではありますが、将来に対する疑問を投げかけるものです。映像や音声は信用できるのか?スクリーン上で行ったことに責任を持たせることができるのか?私たちは、偽物になる準備ができているのでしょうか?
ディープフェイク技術はまだ数年しか経っていませんが、魅力的であると同時に不安なものへと発展しています。2017年にRedditのスレッドに登場した「deepfake」という言葉は、人工知能によって人間の外見や声を再現することを意味する。驚くことに、粗悪なコンピューターといくつかのソフトウェア、そして数時間の作業で、ほとんど誰でも偽物を作ることができるのです。
どの**技術にも言えることですが、ディープフォージョンをめぐる混乱があります。酔ったペロシ」の映像は、この混乱の良い例である。ディープフェイクとは人工知能**のことで、人を模倣するために使われる。ディープフェイクと呼ばれる「ダンキング・ペロシ」の映像は、実はナンシー・ペロシをスロー再生してピッチ補正し、あいまいな発話効果を加えただけのもの。
だからディープフェイクは『スター・ウォーズ/ローグ・ワン』のCGIキャリー・フィッシャーとは違う。ディズニーはキャリー・フィッシャーの顔を研究して手作業でリ○ニングするのに、フェイクソフトを持ったオタクは同じ仕事を1日でタダでやってしまうのだ。人工知能は、この仕事を信じられないほど簡単に、安く、納得のいくものにします。
教室の生徒と同じように、人工知能も意図したタスクの実行方法を「学習」しなければならない。これは、機械学習や深層学習と呼ばれる、激しい試行錯誤のプロセスを通じて行われます。例えば、『スーパーマリオブラザーズ』の第1レベルをクリアするように設計されたAIは、勝つための最適な方法を見つけるまで何度もゲームをプレイする。AIを設計する人は、物事を始めるためのデータと、その過程で物事がうまくいかないときのための「ルール」を提供する必要があります。それ以外はすべてAIがやってくれます。
顔のエンターテインメントも同様です。しかし、もちろん、顔の改革とテレビゲームに勝つことは同じではありません。ニコラス・ケイジが『ウェンディ・ウィリアムズ・ショー』の司会を務めているような錯覚を起こすには、必要なことだ。
その後は、AIに任せています。失敗を教訓に何度も何度も「深い偽物」を作ろうとするのです。シンプルでしょう?まあ、ウェンディ・ウィリアムズに出演したケージの顔の映像は誰も騙せてないんだから、これ以上どうしろというんだ。
最も説得力のある(そして有害な)偽物は、全方位的なパロディである。ジョーダン・ピールの人気者オバマが良い例です。モックアップを作ろうマーク・ザッカーバーグが「アリは嫌いだ」と宣言するフェイクを作ろう、説得力があるでしょ?私たちに必要なのは
私たちは、深い仕事や専門知識を軽視しているわけではありません。しかし、オードリー・ヘプバーンを死からよみがえらせた数百万ドルのCGIの仕事に比べれば、深い偽物は朝飯前だ。政治家や有名人のディープフェイクには陥っていませんが、最悪で最もわかりやすいものでさえ、実害を及ぼしています。
関連:人工知能の問題点:機械は物事を学習しているが、それを理解することはできない。
これまでのところ、ほとんどのディープフェイクは、ニコラス・ケイジのファンフィクション、公共サービス広告、不気味な有名人の○○○に過ぎない。これらのチャンネルは比較的無害で、識別も容易ですが、偽物がうまく利用されて、誤った情報を流布し、他人の生活を害するケースもあります。
インドでは、ヒンドゥー民族主義者が偽造戦術を使って女性ジャーナリストの信用を落とし、暴力を煽ります。2018年には、ラナ・アイユブというジャーナリストが、ポルノビデオに彼女の顔を重ねた偽のビデオを含む、そうした誤報キャンペーンの犠牲者となりました。その結果、ネット上での他の嫌がらせや身体的暴力の脅迫につながったのです。
ディープフェイクの手法は、米国では**ポルノ以外の復讐映画でよく使われているそうです。Viceが報じたように、現在禁止されているディープフェイクのRedditフォーラムでは、多くのユーザーが、元カノ、恋人、友人、クラスメートのディープフェイク(そう、児童ポルノ)の作成方法を質問している。この問題は非常に大きく、バージニア州では現在、偽物を含むすべての形態の非合法ポルノを禁止しています。
ディープフェイクの説得力が増すにつれて、この技術はより怪しげな目的に使われるようになることは間違いないだろう。でも、大げさに反応するのは危険ですよね?Photoshopの次に自然なステップではないでしょうか?
最も基本的なレベルでも、ディープフォージーは気になるものです。私たちは、人々の言動を偏見や誤報なくとらえたビデオやオーディオの記録を信頼しています。しかし、ある意味、偽物の脅威は今に始まったことではありません。私たちが初めて写真を使ったときからあるものです。
例えば、リンカーンの写真は何枚か残っています。これらの写真(コインや5ドル札の肖像を含む)のほとんどは、マシュー・ブレイディという写真家がリンカーンの細身(特に細い首)を改善するために加工したものである。これらの肖像画の中には、カルハウンのような「強い男」にリンカーンの頭を重ねるなど、密教の贋作を思わせるような編集のものもある(以下の例はエッチングであり、写真ではない)。
奇妙なプロパガンダのように聞こえるが、1860年代の写真は、現在我々がビデオやオーディオの記録として保持している「真実」を一定量運んでいたのだ。科学ではなく、芸術と考えられていたのです。この写真は、リンカーンの虚弱体質を批判する新聞社の信用を落とすために、意図的に加工されたものである。結局、うまくいった。リンカーンの姿はアメリカ人に感動を与え、リンカーン自身もブレイディの写真が「私を大統領にしてくれた」と語ったという。
深い贋作と19世紀の写真編集の関連性が妙に心地よい。この技術は深刻な結果をもたらしますが、私たちの手に負えないものではない、という主張です。しかし、残念ながら、この議論は長くは続かないかもしれません。
私たちは、偽物の画像や映像を目で見て認識することに慣れています。ヨーゼフ・ゲッベルスの家族写真を見て、"あの後ろの人、なんか変だな "と言うのは簡単です。北朝鮮のプロパガンダ写真を見れば、YouTubeのチュートリアルがなければ、人々はPhotoshopが苦手であることがわかるでしょう。ディープフェイクは、その印象とは裏腹に、肉眼だけで見抜くことができます。
しかし、私たちは長い間、偽物を見分けることができないでしょう。年々、ディープフェイクは説得力を増し、さらに簡単になっています**。写真からディープフェイクを作ることもできるし、Lyrebirdのような人工知能を使えば1分で声のクローンを作ることもできる。偽の映像や音声を組み込んだハイテク・ディープフェイクは、マーク・ザッカーバーグ**のような有名人の模倣であっても、驚くほど説得力があります。
将来的には、人工知能やアルゴリズム、ブロックチェーン技術などを利用して、模倣品対策に取り組む可能性もあります。理論的には、AIが動画をスキャンしてディープフェイクの「指紋」を見つけることができ、OS全体にインストールされたブロックチェーン技術が、ディープフェイクソフトウェアに接触したユーザーやファイルにフラグを立てることも可能です。
こうした偽造防止策をバカにするなら、クラブに参加すればいい。AIの研究者でさえ、本当の解決策があるのか懐疑的だ。検出ソフトの性能が上がれば上がるほど、偽物も出てくる。いずれは、深い偽造を見破ることができなくなり、有名人の偽ポルノやニコラス・ケイジのビデオより心配することが多くなる時代が来るでしょう。