2022年1月28日号 Vol.414

アポロ11号計画が失敗?!
真実を侵食する「力」を考える
「ディープフェイク:画面上の不安定な証拠」

展示「How do you spot a deepfake?」のコーナー Photo : Thanassi Karageorgiou / Museum of the Moving Image

アストリアの映像博物館「ミュージアム・オブ・ザ・ムービングイメージ(MoMI)で、「ディープフェイク:画面上の不安定な証拠(Deepfake: Unstable Evidence on Screen)」と題した展示が5月15日(日)まで開催されている。

「ディープフェイク(deepfake)」とは、人工知能(AI)の「深層学習(deep learning)」と「偽物(fake)」を組み合わせて生まれた混成語。AIを利用して画像や動画の一部を変更、オリジナルとは異なる「偽物」を作り出す合成技術だ。



もともとは映画を筆頭とした動画コンテンツに欠かせない技術で、高い専門知識と専用機材が必要だった。ところが、AI技術が発展したことから一般人でも利用できるまでに改良され普及。2017年、ハンドルネーム「ディープフェイクス(deepfakes)」が、ポルノ動画に有名女優の顔を合成させた動画をインターネットにアップロードしたことで一気に注目。一見しただけでは偽物と見破ることが難しく、簡単にディープフェイクを作れてしまう「危険性」が露わになった。

①大統領を演じる俳優(左)と大統領のオリジナル映像(右)、制作過程のサンプル画像  Photo : Dominic Smith / courtesy of MIT and Halsey Burgund

本展では「スタディ・ケース」として、19世紀後半から21世紀初頭の社会的・政治的なイベントを紹介。配信側の「意図」によって事実が歪曲されデマとなってしまう例などを取り上げ、大衆がいかに騙されやすいかを検証する。

ハイライトは、マサチューセッツ工科大学(MIT)のCenter for Advanced Vir-tualityが制作した約6分間のディープフェイク動画「月面での大惨事(In Event of Moon Disaster)」だ。1969年、月へ向かった「アポロ11号」。打ち上げは成功するものの宇宙船が誤動作し、ミッションは失敗。リチャード・ニクソン大統領が、ニール・アームストロング氏とバズ・オルドリン氏が死亡した、という原稿を読み上げている、という内容だ。

大統領のスピーチを再現するために合成音声を作成。さらに俳優が原稿を読み上げる口元と、大統領の口元を置き換えることで=写真①=、見事に大統領を「復活」させている。また、展示方法もユニーク。1960年代のリビングルームを再現し、中央のテレビでその動画をループ上映=写真②=。来場者に、ディープフェイクの影響力と可能性を強調すると同時に、誤った情報が流される危うさについて「体験」させる試みだ。

②1960年代のリビングルームを再現し、ディープフェイク動画「月面での大惨事」を流すアートインスタレーション Photo : Thanassi Karageorgiou / Museum of the Moving Image

真実を侵食する力を持ったディープフェイク技術は、リベンジポルノやプロパガンダなどに悪用されるケースが多く、AI犯罪の研究者たちは「極めて危険だ」と警鐘を鳴らす。その一方で、亡くなった人を「再現」することで心理療法として利用されることもあり、ポジティブな活用法は日常生活を豊かにもする。

最先端技術を正しく理解し、活用する「姿勢」が今、問われている。

Deepfake: Unstable Evidence on Screen
■5月15日(日)まで
■会場:Museum of the Moving Image(MoMI)
 36-01 35 Ave, Astoria
■18歳以上$15、学生/シニア$11、3-17歳$9、3歳以下無料
https://movingimage.us


HOME