Deepfake


Deepfakesконтаминация из « глубокого обучения » и «подделки» [1] ) являются синтетическими средства массовой информации [2] , в которой люди в существующем изображении или видео заменяются чужим подобию. Хотя подделка контента не нова, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и аудиоконтента с высоким потенциалом обмана. [3] Основные методы машинного обучения, используемые для создания дипфейков, основаны на глубоком обучении и включают в себя обучение архитектур генеративных нейронных сетей , таких как автоэнкодеры [3] илигенеративные состязательные сети (GAN). [4] [5]

Deepfakes снискали всеобщее внимание на их использование в знаменитости порнофильмах , порноместь , новости подделки , мистификации и финансовое мошенничество . [6] [7] [8] [9] Это вызвало реакцию как отрасли, так и правительства с целью выявления и ограничения их использования. [10] [11]

Фотоманипуляция была разработана в 19 веке и вскоре стала применяться в кино . Технологии неуклонно совершенствовались в течение 20-го века, и быстрее с цифровым видео .

Технология Deepfake была разработана исследователями в академических учреждениях с 1990-х годов, а позже - любителями в онлайн-сообществах. [12] [13] Совсем недавно эти методы были приняты промышленностью. [14]

Академическое исследование

Академические исследования, связанные с дипфейками, лежат преимущественно в области компьютерного зрения , подполя компьютерных наук. [12] Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [15] Это была первая система, полностью автоматизирующая этот вид реанимации лица, и в ней использовались методы машинного обучения для установления связи между звуками, издаваемыми объектом видео, и формой лица объекта. [15]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и совершенствовании техник. [16] [17] Программа «Synthesizing Obama», опубликованная в 2017 году, изменяет видеоматериал с бывшим президентом Бараком Обамой, чтобы изобразить его произносящим слова, содержащиеся в отдельной звуковой дорожке. [16] В качестве основного исследовательского вклада проект перечисляет фотореалистичную технику синтеза форм рта из звука. [16] Программа Face2Face, опубликованная в 2016 году, модифицирует видеозаписи лица человека, чтобы они отображали его в реальном времени, имитируя выражение лица другого человека. [17] Проект перечисляет в качестве основного исследовательского вклада первый метод воспроизведения выражений лица в реальном времени с помощью камеры, которая не фиксирует глубину, что позволяет использовать эту технику с использованием обычных потребительских камер. [17]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили приложение для фальшивых танцев, которое может создать впечатление мастерского танцевального мастерства с использованием искусственного интеллекта. [18] [19] Этот проект расширяет применение дипфейков на все тело; предыдущие работы были посвящены голове или частям лица. [18]

Исследователи также показали, что дипфейки распространяются и на другие области, такие как подделка медицинских изображений. [20] В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легкого на 3D-компьютерной томографии пациента. Результат был настолько убедительным, что обманул трех радиологов и ультрасовременный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно провели атаку на больницу в тесте на проникновение White Hat .

Обзор дипфейков, опубликованный в мае 2020 года, показывает, как продвинулись создание и обнаружение дипфейков за последние несколько лет. [21] Исследование показывает, что исследователи сосредоточили свое внимание на решении следующих проблем, связанных с созданием дипфейков:

  • Обобщение. Качественные дипфейки часто достигаются за счет тренировки на многочасовых съемках цели. Эта задача состоит в том, чтобы свести к минимуму объем обучающих данных, необходимых для создания качественных изображений, и обеспечить выполнение обученных моделей на новых идентификаторах (невидимых во время обучения).
  • Парное обучение. Обучение контролируемой модели может дать высококачественные результаты, но требует объединения данных. Это процесс поиска примеров входных данных и желаемых выходных данных, на которых модель может учиться. Сопряжение данных является трудоемким и непрактичным при обучении нескольким личностям и поведению лиц. Некоторые решения включают обучение с самоконтролем (с использованием кадров из одного и того же видео), использование непарных сетей, таких как Cycle-GAN, или манипулирование встраиваемыми сетями.
  • Утечка личности. Здесь личность водителя (т. Е. Актера, управляющего лицом в реконструкции) частично переносится на сгенерированное лицо. Некоторые предлагаемые решения включают механизмы внимания, обучение за несколько шагов, распутывание, преобразования границ и пропуск соединений.
  • Окклюзии. Если закрыть часть лица рукой, волосами, очками или любым другим предметом, могут возникнуть артефакты. Распространенный прикус - это закрытый рот, который скрывает внутреннюю часть рта и зубы. Некоторые решения включают сегментацию изображения во время обучения и рисования.
  • Временная согласованность. В видеороликах, содержащих дипфейки, могут возникать такие артефакты, как мерцание и дрожание, поскольку в сети нет контекста предыдущих кадров. Некоторые исследователи предоставляют этот контекст или используют новые потери временной когерентности, чтобы улучшить реализм. По мере совершенствования технологии помехи уменьшаются.

В целом ожидается, что дипфейки будут иметь несколько последствий для СМИ и общества, производства СМИ, репрезентаций СМИ, аудитории СМИ, пола, законодательства, регулирования и политики. [22]

Любительское развитие

Термин «дипфейки» возник примерно в конце 2017 года от пользователя Reddit по имени «дипфейки». [23] Он, как и другие участники сообщества r / deepfakes Reddit, поделился созданными ими дипфейками; во многих видеороликах лица знаменитостей были заменены на тела актрис в порнографических видеороликах [23], в то время как непорнографический контент включал множество видеороликов с лицом актера Николаса Кейджа , замененными в различных фильмах. [24]

Остались и другие онлайн-сообщества, в том числе сообщества Reddit, которые не распространяют порнографию, такие как r / SFWdeepfakes (сокращение от «безопасные для работы дипфейки»), в которых члены сообщества делятся дипфейками с изображением знаменитостей, политиков и других лиц в непорнографических сценариях. [25] Другие онлайн-сообщества продолжают делиться порнографией на платформах, которые не запретили дипфейк-порнографию. [26]

Коммерческое развитие

В январе 2018 года было запущено собственное настольное приложение FakeApp. [27] Это приложение позволяет пользователям легко создавать и публиковать видео, поменяв местами лица друг с другом. [28] С 2019 года FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com [29] [30] [31]

Более крупные компании также начинают использовать дипфейки. [14] Гигант мобильных приложений Momo создал приложение Zao, которое позволяет пользователям накладывать свое лицо на телеэкран и видеоролики с помощью одного изображения. [14] Японская компания DataGrid, занимающаяся искусственным интеллектом, создала дипфейк всего тела, который может создать человека с нуля. [32] Они намереваются использовать их в моде и одежде.

Также существуют звуковые дипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонировать человеческие голоса после 5 секунд прослушивания. [33] [34] [35] [36] [37] [38] Мобильное приложение для дипфейков Impressions было запущено в марте 2020 года. Это было первое приложение для создания дипфейк-видео знаменитостей с мобильных телефонов. [39] [40]

Воскрешение

Технология Deepfakes может использоваться не только для подделки сообщений и действий других людей, но также может использоваться для воскрешения умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео со своим покойным отцом Робертом Кардашьян ; Лицо на видео Роберта Кардашьяна было создано с помощью технологии deepfake. [41] Эта голограмма была создана компанией Kaleida, где при создании голограмм они использовали комбинацию технологий, отслеживания движения, SFX, VFX и DeepFake . [42]

Был также случай, когда Хоакин Оливер, жертва стрельбы в Паркленде, был воскрешен с помощью технологии дипфейка. Родители Оливера объединились с McCann Health от имени своей организации Nonprofit Change the Ref. [43] В этом дипфейк-сообщении Хоакин призывает зрителей голосовать.

Технология Deepfake, используемая для создания морфинга лица

Deepfakes полагаются на тип нейронной сети, называемый автоэнкодером . [5] [44] Они состоят из кодера, который сокращает изображение до скрытого пространства меньшей размерности, и декодера, который восстанавливает изображение из скрытого представления. Deepfakes использует эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытом пространстве. [45] Скрытая репрезентация содержит ключевые особенности черт лица и положения тела. Затем это можно декодировать с помощью модели, обученной специально для цели. [5] Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве. [5]

Популярное обновление этой архитектуры присоединяет к декодеру генерирующую враждебную сеть . [45] ГАНЫ поезда генератора, в этом случае декодер, и дискриминатор в состязательных отношениях. [45] Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, создано ли изображение. [45] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, так как любые дефекты будут обнаружены дискриминатором. [46] Оба алгоритма постоянно улучшаются в игре с нулевой суммой . [45] Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; Каждый раз, когда обнаруживается дефект, его можно исправить. [46]

Шантажировать

Дипфейки могут использоваться для создания материалов шантажа, ложно инкриминирующих жертву. Однако, поскольку подделки нельзя надежно отличить от подлинных материалов, жертвы реального шантажа теперь могут утверждать, что настоящие артефакты являются подделками, что дает им правдоподобную возможность отрицания. Результатом является аннулирование доверия к существующим материалам для шантажа, что стирает лояльность к шантажистам и разрушает контроль шантажистов. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» настоящий шантаж, делая его бесполезным. [47] Можно перепрофилировать обычное оборудование для майнинга криптовалюты с помощью небольшой программы, чтобы генерировать этот контент для шантажа для любого количества субъектов в огромных количествах, увеличивая количество поддельного контента для шантажа без ограничений и с высокой степенью масштабируемости. [48]

Порнография

Многие дипфейки в Интернете содержат порнографию людей, часто женщин-знаменитостей, изображения которых обычно используются без их согласия. [49] Deepfake порнография широко появлялась в Интернете в 2017 году, особенно на Reddit . [50] Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96% всех дипфейков в Интернете были порнографическими. [51] Первым, кто привлек внимание, был дипфейк Дейзи Ридли , о котором говорилось в нескольких статьях. [50] Другие известные порнографические дипфейки были с изображениями других знаменитостей. [50] [52] [53] [54] По состоянию на октябрь 2019 года большинство дипфейков в Интернете составляли британские и американские актрисы. [49] Однако около четверти испытуемых - южнокорейцы, большинство из которых - звезды к-поп. [49] [55]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративные состязательные сети , для удаления одежды с изображений женщин. У приложения была как платная, так и неоплачиваемая версия, платная версия стоила 50 долларов. [56] [57] 27 июня создатели удалили приложение и вернули потребителям деньги. [58]

Политика

"> Воспроизвести медиа
Видео Deepfake: Владимир Путин предупреждает американцев о вмешательстве в выборы и увеличении политического раскола

Дипфейки использовались для искажения известных политиков в видеороликах.

  • В отдельных видеороликах лицо президента Аргентины Маурисио Макри заменено лицом Адольфа Гитлера , а лицо Ангелы Меркель заменено лицом Дональда Трампа . [59] [60]
  • В апреле 2018 года Джордан Пил сотрудничал с Buzzfeed, чтобы создать дипфейк Барака Обамы с голосом Пила; он служил публичным объявлением для повышения осведомленности о дипфейках. [61]
  • В январе 2019 года филиал Fox KCPQ в своем выступлении в Овальном кабинете показал дипфейк Трампа , высмеивая его внешний вид и цвет кожи (и впоследствии уволил сотрудника, ответственного за видео). [62]
  • Во время избирательной кампании в Законодательное собрание Дели в 2020 году партия Дели Бхаратия Джаната использовала аналогичную технологию для распространения версии англоязычной рекламной кампании своего лидера Маноджа Тивари , переведенной на харианви, для нацеливания на избирателей Харьяны . Закадровый голос был предоставлен актером, а искусственный интеллект, обученный с использованием видео выступлений Тивари, был использован для синхронизации видео по губам с новым закадровым голосом. Сотрудник партии охарактеризовал это как «позитивное» использование технологии дипфейка, которая позволила им «убедительно приблизиться к целевой аудитории, даже если кандидат не говорил на языке избирателя». [63]
  • В апреле 2020 года бельгийское отделение Extinction Rebellion опубликовало в Facebook дипфейк-видео премьер-министра Бельгии Софи Вильмес. [64] Видео продвигало возможную связь между вырубкой лесов и COVID-19 . Он набрал более 100 000 просмотров за 24 часа и получил много комментариев. На странице Facebook, где появилось видео, многие пользователи интерпретировали дипфейк как подлинное. [65]
  • Бруно Сартори пародировал таких политиков, как Жаир Болсонару и Дональд Трамп . [66]

В июне 2019 года Комитет по разведке Палаты представителей США провел слушания по поводу потенциального злонамеренного использования дипфейков для влияния на выборы. [67]

Изобразительное искусство

первая киноактриса с искусственным интеллектом: кибернетическая Орнелла Мути из видеохудожника Джозефа Айерле «Un'emozione per semper 2.0» (2018)

В марте 2018 года многопрофильный художник Джозеф Ayerle опубликовал videoartwork Un'emozione за Semper 2.0 (английское название: Итальянские игры ). Художник работал с технологией Deepfake, чтобы создать ИИ-актрису , синтетическую версию звезды кино 80-х Орнеллы Мути , путешествующей во времени с 1978 по 2018 год. Массачусетский технологический институт упомянул это произведение в исследовании «Творческая мудрость». [68] Художник использовал путешествие во времени Орнеллы Мути, чтобы исследовать размышления поколений, а также исследовать вопросы о роли провокации в мире искусства. [69] Для технической реализации Айерле использовала сцены фотомодели Кендалл Дженнер . Программа заменила лицо Дженнер рассчитанным ИИ лицом Орнеллы Мути. В результате у AI-актрисы лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Играет роль

Были предположения о том, что дипфейки будут использоваться для создания цифровых актеров для будущих фильмов. Созданные / измененные цифровыми методами люди уже использовались в фильмах и раньше, и дипфейки могут внести свой вклад в новые разработки в ближайшем будущем. [70] Технология Deepfake уже использовалась фанатами для вставки лиц в существующие фильмы, например, вставка молодого лица Харрисона Форда на лицо Хана Соло в Solo: A Star Wars Story , [71] и методы, подобные тем, которые использовались by deepfakes были использованы для игры принцессы Леи в Rogue One . [72]

Кино

По мере того, как технология deepfake все больше развивается, Disney улучшила свои визуальные эффекты, используя технологию замены лиц deepfake с высоким разрешением. [73] Disney улучшила свою технологию за счет прогрессивного обучения, запрограммированного для определения выражений лица, реализации функции смены лица и повторения для стабилизации и уточнения результатов. [73] Эта технология deepfake с высоким разрешением будет внедрена в производство фильмов и телепрограмм, что значительно сократит операционные и производственные затраты. [74] Дипфейк-модель Disney может создавать медиафайлы, созданные искусственным интеллектом, с разрешением 1024 x 1024, что намного больше и дает более реалистичные результаты, чем обычные модели, которые производят медиафайлы с разрешением 256 x 256. [74] Кроме того, с помощью этой технологии у Disney есть возможность воскрешать мертвых актеров и персонажей с помощью быстрой и простой смены лица; Теперь Дисней может воскрешать и воскрешать персонажей для удовольствия фанатов. [75]

Интернет-мем

В 2020 году появился интернет-мем , использующий дипфейки для создания видео людей, поющих хор «Бака Митай» (ば か み た い) , песни из игры Yakuza 0 в серии видеоигр Yakuza . В сериале меланхоличная песня исполняется игроком в караоке- мини-игре . В большинстве версий этого мема в качестве шаблона используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует песню по губам . [76] [77]

Социальные медиа

Дипфейки начали использоваться на популярных платформах социальных сетей, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять собственные лица на лица персонажей в сценах из фильмов и телешоу, таких как « Ромео + Джульетта» и « Игра престолов» . [78] Изначально приложение подверглось тщательной проверке из-за инвазивных пользовательских данных и политики конфиденциальности, после чего компания сделала заявление, в котором утверждала, что пересмотрит политику. [79] В январе 2020 года Facebook объявил, что вводит новые меры по борьбе с этим на своих платформах. [80]

Sockpuppets

Фотографии Deepfake могут быть использованы для создания sockpuppets , несуществующих людей, которые активны как в Интернете, так и в традиционных СМИ. Фотография Deepfake, похоже, была создана вместе с легендой о явно несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Персона Оливера Тейлора представила свои мнения в нескольких газетах и ​​была активна в интернет-СМИ, атаковав британского ученого-юриста и его жену, как «сочувствующих террористам». Ученый привлек международное внимание в 2018 году, когда он подал иск в Израиле против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что стали жертвами технологии взлома телефонов NSO . Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было записей на него. Многие специалисты сошлись во мнении, что «его» фото - дипфейк. Некоторые газеты не отозвали «его» статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в области дезинформации . [81]

Коллекции дипфейков с фотографиями несуществующих людей в социальных сетях также использовались как часть израильской партизанской пропаганды. На странице Facebook «Сионистская весна» были размещены фотографии несуществующих людей вместе с их «свидетельствами», якобы объясняющими, почему они отказались от своей левой политики, чтобы поддержать правых , и страница также содержала большое количество сообщений от Prime. Министр Израиля Биньямин Нетаньяху и его сын, а также из других израильских источников правого крыла. Фотографии, похоже, были созданы с помощью технологии « синтеза человеческого изображения », компьютерного программного обеспечения, которое берет данные с фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. В большей части «свидетельских показаний» причиной поддержки политических правых был шок от сообщения о предполагаемом подстрекательстве к насилию против премьер-министра. Правые израильские телеканалы затем передали «свидетельские показания» этого несуществующего человека, основанные на том факте, что о них «делились» в Интернете. Вещательные компании передали сюжет в эфир, хотя вещатели не смогли найти таких людей, объясняя: «Почему происхождение имеет значение?». Другие поддельные профили Facebook - профили вымышленных лиц - содержали материалы, которые якобы содержали такое подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [82] [83]

Мошенничество

Аудио дипфейки использовались как часть мошенничества с социальной инженерией , заставляя людей думать, что они получают инструкции от доверенного лица. [84] В 2019 году генеральный директор британской энергетической компании был обманут по телефону, когда ему было приказано перевести 220 000 евро на счет в венгерском банке человеком, который использовал технологию звукового дипфейка, чтобы выдать себя за голос генерального директора материнской компании. . [85]

Достоверность и достоверность

Хотя фальшивых фотографий уже много, имитировать движущиеся изображения сложнее, а наличие дипфейков увеличивает сложность классификации видео как подлинных или нет. [59] Исследователь искусственного интеллекта Алекс Чампандард сказал, что люди должны знать, как быстро что-то может быть испорчено с помощью технологии deepfake, и что проблема не является технической, а решается с помощью доверия к информации и журналистике. [59] Дипфейки могут использоваться для опорочения, выдачи себя за другое лицо и распространения дезинформации. [86] Основная ошибка состоит в том, что человечество может попасть в эпоху, когда уже нельзя будет определить, соответствует ли содержание медиума истине. [59]

Точно так же доцент кафедры информатики Хао Ли из Университета Южной Калифорнии заявляет, что дипфейки, созданные для злонамеренного использования, например фейковые новости, будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [87] Ли предсказал, что настоящие видео и дипфейки станут неотличимы уже через полгода, начиная с октября 2019 года, из-за быстрого развития искусственного интеллекта и компьютерной графики. [87]

Бывший царь мошенничества в Google Шуман Гхосемаджумдер назвал дипфейки областью «общественной озабоченности» и сказал, что они неизбежно будут развиваться до такой степени, что их можно будет генерировать автоматически, и человек может использовать эту технологию для создания миллионов дипфейков-видео. [88]

Последствия дипфейка недостаточно значительны, чтобы дестабилизировать всю государственную систему; однако дипфейки обладают способностью наносить огромный ущерб отдельным объектам. [89] Это связано с тем, что дипфейки часто нацелены на одного человека и / или его отношения с другими в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью глубокого фейкового голосового фишинга, который манипулирует звуком для создания поддельных телефонных звонков или разговоров. [89] Еще один метод использования дипфейка - сфабрикованные частные высказывания, которые манипулируют СМИ, чтобы донести до людей оскорбительные комментарии. [89]

В сентябре 2020 года Microsoft обнародовала информацию о разработке программного обеспечения для обнаружения Deepfake. [90]

Примеры событий

"> Воспроизвести медиа
"Ким Чен Ын"

Дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина также были созданы внепартийной правозащитной группой « Представители» . [91] Эти дипфейки предназначались для публичного показа в качестве рекламы, чтобы передать идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии в Соединенных Штатах; Ролик также был направлен на то, чтобы шокировать американцев, чтобы они осознали, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от степени доверия. [91] Однако в этих рекламных роликах был заключительный комментарий, в котором подробно говорилось, что кадры не были настоящими, и в конечном итоге ролики не транслировались из-за опасений и чувствительности относительно того, как американцы могут отреагировать. [91]

Отрывок из выступления Нэнси Пелоси в Центре американского прогресса, данный 22 мая 2019 года, был замедлен, в дополнение к измененной подаче, чтобы казалось, что она была пьяна; однако критики утверждают, что это не дипфейк. [92]

Дональд Трамп дипфейк

Дипфейк Дональда Трампа был легко создан на основе пародии Джимми Фэллона, исполненного на канале NBC The Tonight Show . В этой пародии (вышедшей в эфир 4 мая 2016 года) Джимми Фэллон переоделся Дональдом Трампом и сделал вид, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастался своей основной победой в Индиане. [93] 5 мая 2019 года был создан дипфейк Дональда Трампа (взят из этого скетча). [93] В этом дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа (звук остался прежним). Это дипфейк-видео было загружено на YouTube основателем Derpfakes с комедийным намерением.

Дипфейк Барака Обамы

Американский актер Джордан Пил , BuzzFeed и Monkeypaw Productions создали и спродюсировали дипфейк Барака Обамы (загруженный на YouTube 17 апреля 2018 года), в котором Барак Обама ругал и обзывал Дональда Трампа. [94] В этой дипфейке голос и рот Пила были преобразованы и преобразованы в голос и лицо Обамы. Цель этого видео заключалась в том, чтобы показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить кого угодно говорить что угодно.

Потенциальные позитивные инновации также появились вместе с растущей популярностью и созданием дипфейков. Например, корпоративные обучающие видеоролики могут быть созданы с использованием подделанных аватаров и их голосов. Примером этого является Synthesia, которая использует технологию deepfake с аватарами для создания персонализированных видео. [95]

Microsoft разработала приложение под названием «Seeing AI», которое использует искусственный интеллект и технологию deepfake, чтобы рассказывать о мире вокруг вас, чтобы помочь слепым и / или слабовидящим людям. [96] Благодаря технологии дипфейка это приложение может озвучивать текст в документах, сканировать продукты и штрих-коды, распознавать людей и их эмоции, описывать местоположение и обстановку вокруг вас, определять валюту и счета и сообщать об этих функциях на разных языках в объеме и тон, адаптированный к вашему окружению. [96]

Платформы социальных сетей

Твиттер

Twitter принимает активные меры по работе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, которые содержат манипулируемые медиа и / или дипфейки, которые сигнализируют зрителям о манипулировании СМИ. [97] Также будет предупреждение, которое появится для пользователей, которые планируют ретвитнуть, поставить лайк или взаимодействовать с твитом. [97] Twitter также будет работать, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на Twitter Moment или заслуживающую доверия новостную статью по соответствующей теме - в качестве действия по опровержению. [97] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести ущерб безопасности пользователей. [97] Чтобы лучше выявлять дипфейки и манипулируемые медиа в Twitter, Twitter попросил пользователей, заинтересованных в сотрудничестве с ними, поработать над решениями по обнаружению дипфейков, чтобы заполнить форму (срок подачи заявки - 27 ноября 2020 г.). [98]

Facebook

Facebook предпринял усилия для поощрения создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook был видным партнером в проведении конкурса Deepfake Detection Challenge (DFDC) , проведенного в декабре 2019 года, для 2114 участников, которые сгенерировали более 35000 моделей. [99] Лучшие модели с наивысшей точностью обнаружения были проанализированы на предмет сходства и различий; Эти результаты представляют интерес для дальнейших исследований по совершенствованию и уточнению моделей обнаружения глубоких подделок. [99] Facebook также детализировал, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [100] Однако средства массовой информации, которые были отредактированы для изменения порядка или контекста слов в сообщении, останутся на сайте, но будут помечены как ложные, поскольку они не были созданы искусственным интеллектом. [100]

Обнаружение

Большинство академических исследований, посвященных дипфейку, направлено на обнаружение видео. [101] Самым популярным методом является использование алгоритмов, аналогичных тем, которые используются при создании дипфейка для их обнаружения. [101] Распознавая закономерности в том, как создаются дипфейки, алгоритм может улавливать тонкие несоответствия. [101] Исследователи разработали автоматические системы, которые проверяют видео на наличие ошибок, таких как нерегулярное мигание света. [12] Этот метод также подвергался критике за создание « поста с подвижной целью », где в любое время улучшаются алгоритмы обнаружения, улучшаются и дипфейки. [101] Конкурс Deepfake Detection Challenge, организованный коалицией ведущих технологических компаний, надеется ускорить развитие технологии выявления подделанного контента. [102]

В октябре 2020 года команда из Университета Буффало опубликовала статью, в которой описывала свою технику использования отражений света в глазах изображенных для обнаружения дипфейков с высокой степенью успеха, даже без использования инструмента обнаружения ИИ, по крайней мере, для время. [103]

Другие методы используют блокчейн для проверки источника медиа. [104] Перед показом в социальных сетях видео необходимо будет проверять в реестре. [104] С помощью этой технологии будут одобряться только видео из надежных источников, что снижает распространение потенциально вредоносных дипфейков. [104]

Для борьбы с дипфейками была предложена цифровая подпись всех видео и изображений камерами и видеокамерами, включая камеры смартфонов. [105] Это позволяет отслеживать каждую фотографию или видео до их первоначального владельца, что может быть использовано для преследования диссидентов. [105]

Интернет-реакция

С 2017 года Саманта Коул из Vice опубликовала серию статей, посвященных новостям, связанным с дипфейк-порнографией. [106] [107] [108] [56] [54] [109] [110] [23] 31 января 2018 года Gfycat начал удаление всех дипфейков со своего сайта. [108] [10] На Reddit сабреддит r / deepfakes был запрещен 7 февраля 2018 года из-за нарушения правил в отношении «принудительной порнографии». [111] [112] [113] [114] [115] В том же месяце представители Twitter заявили, что они приостановят действие аккаунтов, подозреваемых в публикации контента deepfake без согласования. [109] Чат Discord в прошлом принимал меры против дипфейков, [116] и занял общую позицию против дипфейков. [10] [117] В сентябре 2018 года Google добавил «непроизвольные синтетические порнографические изображения» в свой запретный список, что позволяет любому запрашивать блок результатов с поддельными обнаженными телами. [118] [ Проверить синтаксис цитаты ] В феврале 2018 года Pornhub сообщил что он будет запрещать дипфейки видео на своем веб-сайте, потому что это считается «несогласованным контентом», который нарушает их условия обслуживания. [107] Они также ранее заявили Mashable, что они будут удалять контент, помеченный как дипфейки. [119] Авторы из Motherboard из Buzzfeed News сообщил, что поиск «дипфейков» на Pornhub по- прежнему вернул несколько недавних дипфейк-видео. [107]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ. [120] Вместо этого видео будут помечены третьими лицами как поддельные, а затем будут иметь пониженный приоритет в пользовательских фидах. [106] Этот ответ был вызван в июне 2019 года после дипфейка с видео Марка Цукерберга 2016 года, распространенного в Facebook и Instagram . [120]

Правовой ответ

В Соединенных Штатах есть некоторые ответы на проблемы, связанные с дипфейками. В 2018 году Закон о Вредоносное Deep Поддельный Запрет был введен в Сенат США , [121] и в 2019 DEEPFAKES Accountability Act был внесен в Палату представителей . [11] Несколько штатов также приняли законы относительно дипфейков, в том числе Вирджиния, [122] Техас, Калифорния и Нью-Йорк. [123] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал законопроекты Ассамблеи № 602 и № 730. [124] [125] Законопроект № 602 о собраниях предусматривает защиту лиц, на которых распространяется откровенный дипфейк сексуального характера, созданный без их согласия, с причина иска против создателя контента. [124] Законопроект о собрании № 730 запрещает распространение злонамеренных фальшивых аудиовизуальных материалов, нацеленных на кандидата, баллотирующегося на государственные должности, в течение 60 дней после его избрания. [125]

В ноябре 2019 года Китай объявил, что дипфейки и другие синтетически фальшивые кадры должны содержать четкое уведомление об их фальшивости, начиная с 2020 года. Несоблюдение требований может рассматриваться как преступление, о котором Администрация киберпространства Китая сообщила на своем сайте. [126] Китайское правительство, похоже, оставляет за собой право преследовать как пользователей, так и онлайн-видео платформы, не соблюдающие правила. [127]

В Соединенном Королевстве производители дипфейков могут быть привлечены к ответственности за домогательства, но есть призывы сделать дипфейк конкретным преступлением; [128] В Соединенных Штатах, где преследовались самые разные обвинения, такие как кража личных данных , киберпреследование и порнография из мести, также обсуждалась идея более всеобъемлющего закона. [118]

В Канаде организация Communications Security Establishment опубликовала отчет, в котором говорится, что дипфейки могут использоваться для вмешательства в политику Канады, в частности, для дискредитации политиков и влияния на избирателей. [129] [130] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они стали их целью. [131]

Ответ DARPA

Defense Advanced Research Projects Agency (DARPA) финансирует проект , в котором люди будут конкурировать , чтобы создать AI сгенерированных видео, аудио и изображений, а также автоматизированные инструменты для обнаружения этих deepfakes. [132] DARPA даже предприняло усилия по организации «дня предложений» для проекта, связанного с программой семантической криминалистики, в рамках которого исследователи стремятся предотвратить вирусное распространение средств массовой информации, управляемых ИИ. [133] DARPA и Программа семантической криминалистики также работают вместе над обнаружением этих управляемых ИИ носителей посредством усилий, направленных на обучение компьютеров использованию здравого смысла и логических рассуждений. [133] DARPA также создало программу Media Forensics (MediFor), чтобы уменьшить растущий вред, который наносят дипфейки и медиа, созданные искусственным интеллектом. [134] Эта программа направлена ​​не только на обнаружение дипфейков, но и на предоставление информации о том, как были созданы носители. [134] Одновременно цель DARPA состоит в том, чтобы обратить внимание и подчеркнуть значительную роль дипфейков и их влияние на принятие решений. [134]

  • В середине декабря 1986 года в журнале Analog была опубликована повесть Джека Уодхамса «Пикапер». Его сюжет вращается вокруг улучшенных или созданных в цифровом виде видео, созданных опытными хакерами, обслуживающими недобросовестных юристов и политических деятелей. [135]
  • Фильм 1987 года «Бегущий человек» с Арнольдом Шварценеггером в главной роли изображает автократическое правительство, использующее компьютеры для цифровой замены лиц актеров лицами разыскиваемых беглецов, чтобы создать впечатление, что беглецы были нейтрализованы.
  • В техно-триллере 1992 года Филипа Керра « Философское расследование » главный герой и серийный убийца Витгенштейн использует как программное обеспечение, подобное Deepfake, так и костюм виртуальной реальности для секса с аватаркой лейтенанта полиции. Айседоре «Джейк» Якович поручено поймать его. [136]
  • В фильме 1993 года « Восходящее солнце» с Шоном Коннери и Уэсли Снайпс в главных ролях изображен другой персонаж, Джинго Асакума, который показывает, что компьютерный диск изменил личность в цифровом виде, чтобы привлечь внимание конкурента.
  • Технология Deepfake является частью сюжета драмы BBC One The Capture 2019 года . Сериал рассказывает о бывшем британском солдате Шоне Эмери, который обвиняется в нападении и похищении своего адвоката. Искусно обработанные кадры с камер видеонаблюдения используются для того, чтобы подставить его и ввести в заблуждение полицию, ведущую расследование. [137] [138]
  • Аль - Дэвис против НФЛ - Повествование структура этого 2021 документального фильма, часть ESPN «s 30 30 документальных серий, использует deepfake версии двух центральных персонажей фильма, как deceased- Аль Дэвис , который владел Лас - Вегас рейдеров во время команды в Окленде и Лос-Анджелесе , а также Пит Розелл , комиссар НФЛ, который часто конфликтовал с Дэвисом. [139] [140]

  • Захват движения лица
  • StyleGAN
  • Синтетические медиа
  • Виртуальный актер
  • Технология замены идентичности
  • Гиперреальность

  1. ^ Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: все чаще появляются жуткие« дипфейки »» . Fox News . Проверено 20 февраля 2018 .
  2. ^ «Готовься, не паникуй: синтетические медиа и дипфейки» . witness.org . Проверено 25 ноября 2020 года .
  3. ^ а б Kietzmann, J .; Ли, LW; Маккарти, ИП; Кицманн, TC (2020). «Дипфейки: Уловка или угощение?». Бизнес-горизонты . 63 (2): 135–146. DOI : 10.1016 / j.bushor.2019.11.006 .
  4. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости - это плохо? Глубокие фейки - это место, где правда умирает» . Хранитель . Проверено 14 ноября 2018 года .
  5. ^ а б в г Доктор философии, Свен Чарлир (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил свою жену на вечернее шоу» . Средний . Проверено 8 ноября 2019 .
  6. ^ «Что такое дипфейки и почему будущее порно ужасно» . Высокое благородство . 20 февраля 2018 . Проверено 20 февраля 2018 .
  7. ^ «Эксперты опасаются, что технология подмены лица может привести к международному противостоянию» . Наброски . Проверено 28 февраля 2018 .
  8. ^ Руз, Кевин (4 марта 2018 г.). «Вот и поддельные видео тоже» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 24 марта 2018 года .
  9. ^ Шрейер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.), Adversarial Learning of Deepfakes in Accounting , arXiv : 1910.03810 , Bibcode : 2019arXiv191003810S
  10. ^ а б в Гошал, Абхиманью (7 февраля 2018 г.). «Twitter, Pornhub и другие платформы запрещают порнографию знаменитостей, созданную искусственным интеллектом» . Следующая Сеть . Проверено 9 ноября 2019 .
  11. ^ а б Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019-2020): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности от 2019 года» . www.congress.gov . Дата обращения 16 октября 2019 .
  12. ^ а б в Харвелл, Дрю (12 июня 2019 г.). «Ведущие исследователи искусственного интеллекта гонятся за обнаружением« дипфейков »видео:« Мы уступаем в вооружении » » . Вашингтон Пост . Проверено 8 ноября 2019 .
  13. ^ Санчес, Джулиан (8 февраля 2018 г.). «Благодаря ИИ будущее« фейковых новостей »лежит в основе домашнего порно» . NBC News . Проверено 8 ноября 2019 .
  14. ^ а б в Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение deepfake становится вирусным, что вызывает немедленную негативную реакцию в отношении конфиденциальности» . Грань . Проверено 8 ноября 2019 .
  15. ^ а б Бреглер, Кристоф; Ковелл, Мишель; Слейни, Малкольм (1997). «Перезапись видео: управление визуальной речью с помощью звука». Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным методам . 24 : 353–360. DOI : 10.1145 / 258734.258880 . S2CID  2341707 .
  16. ^ а б в Суваджанакорн, Супасорн; Зейтц, Стивен М .; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтезирующий Обама: Изучение синхронизации губ по аудио». ACM Trans. График . 36 (4): 95: 1–95: 13. DOI : 10.1145 / 3072959.3073640 . S2CID  207586187 .
  17. ^ а б в Тиз, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Нисснер, Маттиас (июнь 2016 г.). «Face2Face: захват лица в реальном времени и воспроизведение видео в формате RGB». Конференция IEEE 2016 года по компьютерному зрению и распознаванию образов (CVPR) . IEEE: 2387–2395. arXiv : 2007.14808 . DOI : 10.1109 / CVPR.2016.262 . ISBN 9781467388511. S2CID  206593693 .
  18. ^ а б Фаркуар, Питер (27 августа 2018 г.). «Программа искусственного интеллекта скоро будет здесь, чтобы помочь вам танцевать deepface - только не называйте это deepfake» . Business Insider Австралия . Проверено 27 августа 2018 .
  19. ^ «Дипфейки для танцев: теперь вы можете использовать ИИ, чтобы имитировать те танцевальные движения, которые вы всегда хотели» . Грань . Проверено 27 августа 2018 .
  20. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: злонамеренное вмешательство в трехмерные медицинские изображения с использованием глубокого обучения . С. 461–478. ISBN 978-1-939133-06-9.
  21. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: обзор». arXiv : 2004.11138 . DOI : 10.1145 / 3425780 . S2CID  216080410 . Цитировать журнал требует |journal=( помощь )
  22. ^ Карновскос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эпоха дипфейков» (PDF) . IEEE Transactions on Technology and Society . 1 (3): 1. DOI : 10,1109 / TTS.2020.3001312 . S2CID  221716206 . Дата обращения 9 июля 2020 .
  23. ^ а б в Коул, Саманта (24 января 2018 г.). «Нас по-настоящему трахнули: теперь все снимают фальшивое порно, созданное искусственным интеллектом» . Vice . Дата обращения 4 мая 2019 .
  24. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию смены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и« Что такое 2018 »» . Mashable . Проверено 4 апреля 2019 года .
  25. ^ "r / SFWdeepfakes" . Reddit . Проверено 12 декабря 2018 .
  26. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот где« deepfakes », новое фейковое порно знаменитостей, появилось после запрета Reddit» . Daily Dot . Проверено 22 декабря 2018 .
  27. ^ "Что такое дипфейки и как они делаются?" . Онлайн-технические советы . 23 мая 2019 . Проверено 8 ноября 2019 .
  28. ^ Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять местами Илона Маска и Джеффа Безоса, и у меня это действительно плохо получается» . Грань . Проверено 8 ноября 2019 .
  29. ^ «Deepfakes web | Лучшее онлайн-приложение для обмена лицами» . Сеть дипфейков . Проверено 21 февраля 2021 года .
  30. ^ «Faceswap - это ведущее бесплатное мультиплатформенное программное обеспечение Deepfakes с открытым исходным кодом» . 15 октября 2019 г. - через WordPress.
  31. ^ «DeepFaceLab - это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. Readme.md) .: iperov / DeepFaceLab» . 19 июня 2019 г. - через GitHub.
  32. ^ Пэнгберн, ди-джей (21 сентября 2019). «Вас предупредили: дипфейки всего тела - следующий шаг в мимикрии человека на основе искусственного интеллекта» . Быстрая компания . Проверено 8 ноября 2019 .
  33. ^ Лион, Ким (29 января 2020 г.). «FTC заявляет, что технология звуковых дипфейков становится лучше» . Грань .
  34. ^ «Аудиосэмплы из« Перенести обучение от проверки динамика на синтез речи с несколькими динамиками » » . google.github.io .
  35. ^ Цзя, Е; Чжан, Ю; Вайс, Рон Дж .; Ван, Цюань; Шен, Джонатан; Рен, Фэй; Чен, Чжифэн; Нгуен, Патрик; Панг, Руоминг; Морено, Игнасио Лопес; У Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего на синтез речи с множеством говорящих». arXiv : 1806.04558 . Bibcode : 2018arXiv180604558J . Цитировать журнал требует |journal=( помощь )
  36. ^ «Визуальные вычисления TUM: проф. Маттиас Нисснер» . www.niessnerlab.org .
  37. ^ «Полная перезагрузка страницы» . IEEE Spectrum: Новости технологий, инженерии и науки .
  38. ^ «Содействие данным исследованиям по обнаружению дипфейков» .
  39. ^ Тален, Микаэль. «Теперь вы можете сделать дипфейс из себя знаменитости всего за несколько кликов» . ежедневная точка . Проверено 3 апреля 2020 .
  40. ^ Мэтьюз, Зейн. «Веселье или страх: приложение Deepfake помещает лица знаменитостей на ваших селфи» . Kool1079 . Дата обращения 6 марта 2020 .
  41. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли делать голограммы мертвых?» . BBC News . 31 октября 2020 . Дата обращения 11 ноября 2020 .
  42. ^ Модемы, The (30 октября 2020 г.). «КАНЬЕ ВЕСТ ПОДАРИЛ КИМ КАРДАШЯНУ ГОЛОГРАММУ ЕЕ ОТЦА НА ДЕНЬ РОЖДЕНИЯ» . модемы . Дата обращения 11 ноября 2020 .
  43. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям» . adage.com . 2 октября 2020 . Дата обращения 11 ноября 2020 .
  44. ^ Цуккони, Алан (14 марта 2018 г.). «Понимание технологии DeepFakes» . Алан Цуккони . Проверено 8 ноября 2019 .
  45. ^ а б в г д Кан, CE (10 декабря 2018 г.). "Что такое VAE-GAN?" . Средний . Проверено 8 ноября 2019 .
  46. ^ а б «Эти новые уловки могут перехитрить видео Deepfake - пока» . Проводной . ISSN  1059-1028 . Проверено 9 ноября 2019 .
  47. ^ Лимберг, Питер (24 мая 2020 г.). «Шантаж инфляцией» . CultState . Проверено 18 января 2021 года .
  48. ^ «Для Каппы» . Телеграф . 24 мая 2020 . Проверено 18 января 2021 года .
  49. ^ а б в Диксон, EJ (7 октября 2019 г.). «Deepfake Porn по-прежнему представляет угрозу, особенно для звезд K-Pop» . Rolling Stone . Проверено 9 ноября 2019 .
  50. ^ а б в Рёттгерс, Янко (21 февраля 2018 г.). «Продюсеры порно предлагают помочь Голливуду снять дипфейк-видео» . Разнообразие . Проверено 28 февраля 2018 .
  51. ^ «Состояние Deepfake - ландшафт, угрозы и влияние» (PDF) . Deeptrace . 1 октября 2019 . Проверено 7 июля 2020 .
  52. ^ Гоггин, Бенджамин. «От порно до« Игры престолов »: как дипфейки и реалистично выглядящие фейковые видео достигли успеха» . Business Insider . Проверено 9 ноября 2019 .
  53. ^ Ли, Дэйв (3 февраля 2018 г.). « „ Поддельные порно“имеют серьезные последствия» . Проверено 9 ноября 2019 .
  54. ^ а б Коул, Саманта (19 июня 2018 г.). «ИИ-решение Gfycat для борьбы с дипфейками не работает» . Vice . Проверено 9 ноября 2019 .
  55. ^ Зои, Френи (24 ноября 2019 г.). «Deepfake Porn здесь, чтобы остаться» . Средний .
  56. ^ а б Коул, Саманта; Майберг, Эмануэль; Коблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши» . Vice . Дата обращения 2 июля 2019 .
  57. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом» . Vice Media .
  58. ^ "pic.twitter.com/8uJKBQTZ0o" . 27 июня 2019.
  59. ^ а б в г "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos" . az Aargauer Zeitung. 3 февраля 2018.
  60. ^ Патрик Генсинг. "Deepfakes: Auf dem Weg in eine alternate Realität?" .
  61. ^ Романо, Аджа (18 апреля 2018 г.). «Имитация рекламы Обамы, представленная Джорданом Пилом, является обоюдоострым предупреждением против фальшивых новостей» . Vox . Проверено 10 сентября 2018 года .
  62. ^ Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал обработанные кадры выступления Трампа в Овальном кабинете. Сотрудник был уволен» . Вашингтон Пост . Проверено 11 января 2019 .
  63. ^ Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что увидели первое использование дипфейков в предвыборной кампании Индии» . Vice . Дата обращения 19 февраля 2020 .
  64. ^ "#TellTheTruthBelgium" . Вымирание Восстание Бельгия . Проверено 21 апреля 2020 .
  65. ^ Голубович, Джеральд (15 апреля 2020 г.). "Extinction Rebellion s'empare des deepfakes" . Журналистика. Дизайн (на французском языке) . Проверено 21 апреля 2020 .
  66. ^ Economist, Journal (28 апреля 2020 г.). «Амаби: мифическое существо, возвращающееся к коронавирусу» . Экономист . ISSN  0013-0613 . Проверено 3 июня 2021 года .
  67. ^ О'Салливан, Дони. «Конгресс расследует дипфейки, так как подделанное видео Пелоси вызывает ажиотаж» . CNN . Проверено 9 ноября 2019 .
  68. ^ Катерина Чизек, Уильям Уриккио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1]
  69. ^ ANSA | Орнелла Мути в кортометраджо во Флоренции
  70. ^ Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры вытеснить людей из бизнеса в эпоху дипфейков?» . Хранитель . ISSN  0261-3077 . Проверено 20 октября 2019 года .
  71. ^ Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд - звезда Solo: A Star Wars Story благодаря технологии deepfake» . Многоугольник . Проверено 20 октября 2019 года .
  72. ^ Виник, Эрин. «Как кукла Кэрри Фишер сделала карьеру для принцессы Леи из Rogue One» . MIT Technology Review . Проверено 20 октября 2019 года .
  73. ^ а б «Нейронная замена лица с высоким разрешением для визуальных эффектов | Disney Research Studios» . Дата обращения 7 октября 2020 .
  74. ^ а б «Дипфейк-технология Диснея может быть использована в кино и на телевидении» . Blooloop . Дата обращения 7 октября 2020 .
  75. ^ A, Джон Линдли (2 июля 2020 г.). «Компания Disney Ventures возвращает« мертвых актеров »с помощью распознавания лиц» . Tech Times . Дата обращения 7 октября 2020 .
  76. ^ C, Ким (22 августа 2020 г.). «Танец с гробами и многое другое: музыкальные мемы 2020 года» . Music Times . Проверено 26 августа 2020 .
  77. ^ Шолихин, Ильяс (7 августа 2020 г.). «Кто-то глубоко подделал политиков Сингапура, чтобы они синхронизировали по губам эту японскую песню-мем» . AsiaOne . Проверено 26 августа 2020 .
  78. ^ Дамиани, Джесси. «Китайское приложение Deepfake Zao становится вирусным, сталкивается с немедленной критикой пользовательских данных и политики безопасности» . Forbes . Проверено 18 ноября 2019 .
  79. ^ Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение deepfake становится вирусным, что вызывает немедленную негативную реакцию в отношении конфиденциальности» . Грань . Проверено 18 ноября 2019 .
  80. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против« deepfake »видео» . Independent.ie . Проверено 7 января 2020 года .
  81. ^ Reuters, 15 июля 2020, Deepfake Используется для атаки Активист Пары показывает новая Дезинформация Frontier
  82. ^ 972 Magazine, 12 августа 2020 г., «Левые за Биби»? Разоблачена пропаганда Deepfake в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что никто из людей в Вопрос существует »
  83. ^ Седьмой глаз, 9 июня 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית
  84. ^ Статт, Ник (5 сентября 2019 г.). «Воры теперь используют дипфейки искусственного интеллекта, чтобы обманом заставить компании отправлять им деньги» . Проверено 13 сентября 2019 .
  85. ^ Дамиани, Джесси. «Голосовой дипфейк был использован для обмана генерального директора на сумму 243 000 долларов» . Forbes . Проверено 9 ноября 2019 .
  86. ^ «Глубокие фейки с оружием: национальная безопасность и демократия на JSTOR» . www.jstor.org . Проверено 21 октября 2020 года .
  87. ^ а б «Идеальная технология Deepfake может появиться раньше, чем ожидалось» . www.wbur.org . Проверено 9 ноября 2019 .
  88. ^ Соннемейкер, Тайлер. «Поскольку платформы социальных сетей готовятся к надвигающейся волне дипфейков, бывший« царь мошенничества »Google предсказывает, что самая большая опасность состоит в том, что дипфейки в конечном итоге станут скучными» . Business Insider . Проверено 14 апреля 2021 года .
  89. ^ а б в Бейтман, Джон (2020). «Резюме» . Дипфейки и синтетические медиа в финансовой системе : 1-2.
  90. ^ Келион, Лев. «Средство обнаружения Deepfake, представленное Microsoft» . BBC . Проверено 15 апреля 2021 года .
  91. ^ а б в «Дипфейк Путин здесь, чтобы предупредить американцев об их собственной гибели» . MIT Technology Review . Дата обращения 7 октября 2020 .
  92. ^ Тауэрс-Кларк, Чарльз. «Мона Лиза и Нэнси Пелоси: последствия дипфейков» . Forbes . Дата обращения 7 октября 2020 .
  93. ^ а б «Рост дипфейка и угроза демократии» . Хранитель . Дата обращения 3 ноября 2020 .
  94. ^ Фэган, Кейли. «Вирусное видео, которое показало, как Обама называет Трампа« провалом --- », демонстрирует новую тревожную тенденцию под названием« дипфейки » » . Business Insider . Дата обращения 3 ноября 2020 .
  95. ^ Чендлер, Саймон. «Почему дипфейки являются чистым позитивом для человечества» . Forbes . Дата обращения 3 ноября 2020 .
  96. ^ а б «Увидеть приложение AI от Microsoft» . www.microsoft.com . Дата обращения 3 ноября 2020 .
  97. ^ а б в г «Помогите нам сформировать наш подход к синтетическим и управляемым медиа» . blog.twitter.com . Дата обращения 7 октября 2020 .
  98. ^ «TechCrunch» . TechCrunch . Дата обращения 7 октября 2020 .
  99. ^ а б «Результаты испытания Deepfake Detection: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Дата обращения 7 октября 2020 .
  100. ^ а б Пол, Кэти (4 февраля 2020 г.). «Твиттер для обозначения дипфейков и других вводящих в заблуждение средств массовой информации» . Рейтер . Дата обращения 7 октября 2020 .
  101. ^ а б в г 18 июня, Кара Манке |; 201920 июня; 2019 г. (18 июня 2019 г.). «Исследователи используют причуды на лице, чтобы разоблачить« дипфейки » » . Новости Беркли . Проверено 9 ноября 2019 .CS1 maint: числовые имена: список авторов ( ссылка )
  102. ^ «Присоединяйтесь к конкурсу Deepfake Detection Challenge (DFDC)» . deepfakedetectionchallenge.ai . Проверено 8 ноября 2019 .
  103. ^ Ху, Шу; Ли, Юэцзун; Лю, Сивэй (2020). «Выявление созданных GAN лиц с использованием несовместимых бликов роговицы» (PDF) . arxiv.org . arXiv : 2009.11924 . Проверено 1 апреля 2021 года .
  104. ^ а б в «Блокчейн-решение наших проблем с Deepfake» . Проводной . ISSN  1059-1028 . Проверено 9 ноября 2019 .
  105. ^ а б Литару, Калев. «Почему цифровые подписи не предотвратят глубоких подделок, но помогут репрессивным правительствам» . Forbes . Проверено 17 февраля 2021 года .
  106. ^ а б Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фальшивых видео» . Vice . Проверено 9 ноября 2019 .
  107. ^ а б в Коул, Саманта (6 февраля 2018 г.). «Pornhub запрещает фальшивые порнографические видео, созданные искусственным интеллектом, и заявляет, что они созданы без согласия» . Vice . Проверено 9 ноября 2019 .
  108. ^ а б Коул, Саманта (31 января 2018 г.). "Созданные искусственным интеллектом производители фальшивых порнографий уволили своего любимого хозяина" . Vice . Проверено 18 ноября 2019 .
  109. ^ а б Коул, Саманта (6 февраля 2018 г.). «Твиттер - последняя платформа для запрета порнографии, созданной искусственным интеллектом» . Vice . Проверено 8 ноября 2019 .
  110. ^ Коул, Саманта (11 декабря 2017 г.). «Поддельное порно с искусственным интеллектом уже здесь, и мы все выебаны» . Vice . Проверено 19 декабря 2018 .
  111. ^ Бём, Маркус (7 февраля 2018 г.). " " Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor" . Spiegel Online . Проверено 9 ноября 2019 .
  112. ^ barbara.wimmer. «Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos» . futurezone.at (на немецком языке) . Проверено 9 ноября 2019 .
  113. ^ онлайн, heise. "Deepfakes: Auch Reddit verbannt Fake-Porn" . heise online (на немецком языке) . Проверено 9 ноября 2019 .
  114. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de" . ДЕР СТАНДАРТ (на немецком языке) . Проверено 9 ноября 2019 .
  115. ^ Робертсон, Ади (7 февраля 2018 г.). "Reddit запрещает" deepfakes "порносообщества с искусственным интеллектом" . Грань . Проверено 9 ноября 2019 .
  116. ^ Прайс, Роб (27 января 2018). «Discord просто закрыл чат-группу, посвященную обмену порно-видео, отредактированным с помощью ИИ, чтобы включить знаменитостей» . Business Insider Австралия . Проверено 28 ноября 2019 .
  117. ^ «Твиттер запрещает" deepfake "порнографию, созданную искусственным интеллектом» . Engadget . Проверено 28 ноября 2019 .
  118. ^ а б Харрелл, Дрю. «Поддельное порно видео используется для преследования и унижения женщин:« Все - потенциальная цель » » . Вашингтон Пост . Проверено 1 января 2019 года .
  119. ^ Гилмер, Дэймон Берес и Маркус. «Путеводитель по« дипфейкам », последнему моральному кризису в Интернете» . Mashable . Проверено 9 ноября 2019 .
  120. ^ а б «Facebook пообещал оставить дипфейк-видео Марка Цукерберга» . MIT Technology Review . Проверено 9 ноября 2019 .
  121. ^ Сассе, Бен (21 декабря 2018 г.). «S.3805 - 115-й Конгресс (2017-2018 гг.): Закон о запрещении вредоносных глубинных фейков от 2018 г.» . www.congress.gov . Дата обращения 16 октября 2019 .
  122. ^ « „ Deepfake“порноместь теперь незаконно в Вирджинии» . TechCrunch . Дата обращения 16 октября 2019 .
  123. ^ Браун, Нина Яконо (15 июля 2019 г.). «Конгресс хочет разрешить дипфейки к 2020 году. Это должно нас беспокоить» . Журнал Slate . Дата обращения 16 октября 2019 .
  124. ^ а б «Bill Text - AB-602 Изображение человека с использованием цифровых или электронных технологий: материалы откровенно сексуального характера: причина иска» . leginfo.legislature.ca.gov . Проверено 9 ноября 2019 .
  125. ^ а б «Текст законопроекта - AB-730 Выборы: вводящие в заблуждение аудиовизуальные средства массовой информации» . leginfo.legislature.ca.gov . Проверено 9 ноября 2019 .
  126. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента» . Reuters.com . Рейтер . 29 ноября 2019 . Проверено 17 декабря 2019 .
  127. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без разглашения» . Грань . Проверено 17 декабря 2019 .
  128. ^ Позвоните , фото телка счета включить «deepfake» порнография запрет The Guardian
  129. ^ https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report_e.pdf см. стр. 18
  130. ^ Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году» . Федеральные выборы 2019 . Проверено 28 января 2020 года .
  131. ^ «Что может сделать закон с Deepfake» . mcmillan.ca . Проверено 28 января 2020 года .
  132. ^ «Военные США финансируют попытку поймать дипфейки и другие уловки искусственного интеллекта» . MIT Technology Review . Дата обращения 7 октября 2020 .
  133. ^ а б "DARPA берет на себя проблему Deepfake" . Nextgov.com . Дата обращения 7 октября 2020 .
  134. ^ а б в «Медиа-криминалистика» . www.darpa.mil . Дата обращения 7 октября 2020 .
  135. ^ «Пикапер» . База данных спекулятивной фантастики в Интернете . Дата обращения 9 июля 2019 .
  136. ^ Филип Керр, Философское расследование , ISBN 978-0143117537
  137. ^ Бернал, Наташа (8 октября 2019 г.). «Тревожная правда о The Capture и реальных дипфейках» . Телеграф . Проверено 24 октября 2019 года .
  138. ^ Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажении и двуличности» . The Irish Times . Проверено 24 октября 2019 года .
  139. ^ "ESPN Films Последние 30 из 30 документальных фильмов Эла Дэвиса против НФЛ до премьеры 4 февраля" (пресс-релиз). ESPN. 15 января 2021 . Проверено 5 февраля 2021 года .
  140. ^ Спрунг, Шломо (1 февраля 2021 г.). «Документальный фильм ESPN« Эл Дэвис против НФЛ »использует технологию Deepfake, чтобы вернуть к жизни последнего владельца рейдеров» . Forbes . Проверено 4 февраля 2021 года .

  • Сассе, Бен (19 октября 2018 г.). «Эта новая технология может отправить американскую политику в штопор» . Мнения. Вашингтон Пост . Проверено 10 июля 2019 .
  • Вызов Deepfake Detection (DFDC)