Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Пример технологии дипфейка: в сцене из фильма «Человек из стали» актриса Эми Адамс в оригинале (слева) изменена, чтобы иметь лицо актера Николаса Кейджа (справа).

Deepfakesконтаминация из « глубокого обучения » и «подделки» [1] ) являются синтетическими средства массовой информации [2] , в которой люди в существующем изображении или видео заменяются чужим подобию. Хотя подделка контента не нова, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и аудиоконтента с высоким потенциалом обмана. [3] Основные методы машинного обучения, используемые для создания дипфейков, основаны на глубоком обучении и включают обучение архитектур генеративных нейронных сетей, таких как автоэнкодеры [3] илигенеративные состязательные сети (GAN). [4] [5]

Deepfakes снискали всеобщее внимание на их использование в знаменитости порнофильмах , порноместь , новости подделки , мистификации и финансовое мошенничество . [6] [7] [8] [9] Это вызвало реакцию как отрасли, так и правительства с целью выявления и ограничения их использования. [10] [11]

История [ править ]

Фотоманипуляция была разработана в 19 веке и вскоре стала применяться в кино . Технологии неуклонно совершенствовались в течение 20-го века, и быстрее с цифровым видео .

Технология Deepfake была разработана исследователями в академических учреждениях с 1990-х годов, а позже - любителями в онлайн-сообществах. [12] [13] Совсем недавно эти методы были приняты промышленностью. [14]

Академические исследования [ править ]

Академические исследования, связанные с дипфейками, лежат преимущественно в области компьютерного зрения , подполя компьютерных наук. [12] Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [15] Это была первая система, полностью автоматизирующая этот вид реанимации лица, и в ней использовались методы машинного обучения для установления связи между звуками, издаваемыми объектом видео, и формой лица объекта. [15]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и совершенствовании техник. [16] [17] Программа «Synthesizing Obama», опубликованная в 2017 году, изменяет видеоматериал с бывшим президентом Бараком Обамой, чтобы изобразить его произносящим слова, содержащиеся в отдельной звуковой дорожке. [16] В качестве основного исследовательского вклада проект перечисляет фотореалистичную технику синтеза форм рта из звука. [16] Программа Face2Face, опубликованная в 2016 году, модифицирует видеозаписи лица человека, чтобы они отображали его в реальном времени, имитируя выражение лица другого человека. [17]Проект перечисляет в качестве основного исследовательского вклада первый метод воспроизведения мимики в реальном времени с помощью камеры, которая не фиксирует глубину, что позволяет использовать эту технику с использованием обычных потребительских камер. [17]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили приложение для фальшивых танцев, которое может создать впечатление мастерского танцевального мастерства с использованием ИИ. [18] [19] Этот проект расширяет применение дипфейков на все тело; предыдущие работы были посвящены голове или частям лица. [18]

Исследователи также показали, что дипфейки распространяются и на другие области, такие как подделка медицинских изображений. [20] В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легкого на 3D-компьютерной томографии пациента. Результат был настолько убедительным, что обманул трех радиологов и ультрасовременный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно провели атаку на больницу в тесте на проникновение White Hat .

Обзор дипфейков, опубликованный в мае 2020 года, показывает, как продвинулись создание и обнаружение дипфейков за последние несколько лет. [21] Исследование показывает, что исследователи сосредоточили свое внимание на решении следующих проблем, связанных с созданием дипфейков:

  • Обобщение. Качественные дипфейки часто достигаются за счет тренировки на многочасовых съемках цели. Эта задача состоит в том, чтобы свести к минимуму объем обучающих данных, необходимых для создания качественных изображений, и обеспечить выполнение обученных моделей на новых идентификаторах (невидимых во время обучения).
  • Парное обучение. Обучение контролируемой модели может дать высококачественные результаты, но требует объединения данных. Это процесс поиска примеров входных данных и желаемых выходных данных, на которых модель может учиться. Сопряжение данных является трудоемким и непрактичным при обучении нескольким личностям и поведению лиц. Некоторые решения включают обучение с самоконтролем (с использованием кадров из одного и того же видео), использование непарных сетей, таких как Cycle-GAN, или манипулирование встраиваемыми сетями.
  • Утечка личности. Здесь личность водителя (т. Е. Актера, управляющего лицом в реконструкции) частично переносится на сгенерированное лицо. Некоторые предлагаемые решения включают механизмы внимания, обучение за несколько шагов, распутывание, преобразования границ и пропуск соединений.
  • Окклюзии. Если закрыть часть лица рукой, волосами, очками или любым другим предметом, могут возникнуть артефакты. Распространенный прикус - это закрытый рот, который скрывает внутреннюю часть рта и зубы. Некоторые решения включают сегментацию изображения во время обучения и рисования.
  • Временная согласованность. В видеороликах, содержащих дипфейки, могут возникать такие артефакты, как мерцание и дрожание, поскольку в сети нет контекста предыдущих кадров. Некоторые исследователи предоставляют этот контекст или используют новые потери временной когерентности, чтобы улучшить реализм. По мере совершенствования технологии помехи уменьшаются.

В целом ожидается, что Deepfakes будет иметь несколько последствий для СМИ и общества, производства средств массовой информации, репрезентаций средств массовой информации, аудитории средств массовой информации, пола, законодательства, регулирования и политики. [22]

Самодеятельное развитие [ править ]

Термин «дипфейки» возник примерно в конце 2017 года от пользователя Reddit по имени «дипфейки». [23] Он, как и другие участники сообщества r / deepfakes Reddit, поделился созданными ими дипфейками; много видео , участвующих знаменитости лиц поменялись на тела актрис в порнофильмах, [23] в то время как не-порнографическое содержание включено много видео с актером Николас Кейджа «лицом s поменялось местами в различные фильмы. [24]

Другие онлайновые сообщества остаются, в том числе Reddit общин , которые не разделяют порнографии, например, г / SFWdeepfakes (сокращенно «безопасно для работы deepfakes»), в котором члены сообщества разделяют deepfakes , изображающие знаменитостей, политиков и других, не связанных с порнографическими сценариев. [25] Другие онлайновые сообщества продолжают делиться порнографии на платформах, не запрещенных deepfake порнографии. [26]

Коммерческая разработка [ править ]

В январе 2018 года было запущено собственное настольное приложение FakeApp. [27] Это приложение позволяет пользователям легко создавать и публиковать видео, поменяв местами лица друг с другом. [28] С 2019 года FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com [29] [30] [31]

Более крупные компании также начинают использовать дипфейки. [14] Гигант мобильных приложений Momo создал приложение Zao, которое позволяет пользователям накладывать свое лицо на телеэкран и видеоролики с помощью одного изображения. [14] Японская компания DataGrid, занимающаяся искусственным интеллектом, создала дипфейк всего тела, который может создать человека с нуля. [32] Они намереваются использовать их в моде и одежде.

Также существуют звуковые дипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонировать человеческие голоса после 5 секунд прослушивания. [33] [34] [35] [36] [37] [38] Мобильное приложение для дипфейков Impressions было запущено в марте 2020 года. Это было первое приложение для создания дипфейк-видео знаменитостей с мобильных телефонов. [39] [40]

Воскрешение [ править ]

Технология Deepfakes может использоваться не только для подделки сообщений и действий других людей, но также может использоваться для воскрешения умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео со своим покойным отцом Робертом Кардашьян ; Лицо на видео Роберта Кардашьяна было создано с помощью технологии deepfake. [41] Эта голограмма была создана компанией Kaleida, где при создании голограмм они использовали комбинацию технологий, отслеживания движения, SFX, VFX и DeepFake . [42]

Был также случай, когда Хоакин Оливер, жертва стрельбы в Паркленде, был воскрешен с помощью технологии дипфейка. Родители Оливера объединились с McCann Health от имени своей организации Nonprofit Change the Ref. [43] В этом дипфейк-сообщении Хоакин призывает зрителей голосовать.

Методы [ править ]

Технология Deepfake, используемая для создания морфинга лица
Дипфейк Дуга Робла, "DigiDoug" дебютировал на TED2019

Deepfakes полагаются на тип нейронной сети, называемый автоэнкодером . [5] [44] Они состоят из кодера, который сокращает изображение до скрытого пространства меньшей размерности, и декодера, который восстанавливает изображение из скрытого представления. Deepfakes использует эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытом пространстве. [45] Скрытая репрезентация содержит ключевые особенности черт лица и положения тела. Затем это можно декодировать с помощью модели, обученной специально для цели. [5] Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве.[5]

Популярное обновление этой архитектуры присоединяет к декодеру генерирующую враждебную сеть . [45] ГАНЫ поезда генератора, в этом случае декодер, и дискриминатор в состязательных отношениях. [45] Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, создано ли изображение. [45] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, так как любые дефекты будут обнаружены дискриминатором. [46] Оба алгоритма постоянно улучшаются в игре с нулевой суммой . [45]Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; Каждый раз, когда обнаруживается дефект, его можно исправить. [46]

Приложения [ править ]

Шантаж [ править ]

Дипфейки могут использоваться для создания материалов шантажа, ложно инкриминирующих жертву. Однако, поскольку подделки нельзя надежно отличить от подлинных материалов, жертвы реального шантажа теперь могут утверждать, что настоящие артефакты являются подделками, что дает им правдоподобную возможность отрицания. Результатом является аннулирование доверия к существующим материалам для шантажа, что стирает лояльность к шантажистам и разрушает контроль шантажистов. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» настоящий шантаж, делая его бесполезным. [47] Можно перепрофилировать обычное оборудование для майнинга криптовалюты с помощью небольшой программы, чтобы генерировать этот контент для шантажа для любого количества субъектов в огромных количествах,безграничное и масштабируемое увеличение количества поддельного контента для шантажа.[48]

Порнография [ править ]

Многие deepfakes на особенности интернет - порнографии людей, часто женщины - знаменитость , чье подобие , как правило , используются без их согласия. [49] Deepfake порнографии заметно всплыли в Интернете в 2017 году, в частности , на Reddit . [50] В докладе , опубликованном в октябре 2019 года по голландской CyberSecurity загрузочном Deeptrace подсчитано , что 96% всех deepfakes онлайн были порнографическими. [51] Первым, кто привлек внимание, был дипфейк Дейзи Ридли , о котором говорилось в нескольких статьях. [50] Другие известные порнографические deepfakes были различные другие знаменитости. [50] [52] [53] [54]По состоянию на октябрь 2019 года в Интернете чаще всего фигурировали британские и американские актрисы. [49] Однако около четверти испытуемых - южнокорейцы, большинство из которых - звезды к-поп. [49] [55]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративные состязательные сети , для удаления одежды с изображений женщин. У приложения была как платная, так и неоплачиваемая версия, платная версия стоила 50 долларов. [56] [57] 27 июня создатели удалили приложение и вернули потребителям деньги. [58]

Политика [ править ]

Воспроизвести медиа
Видео Deepfake: Владимир Путин предупреждает американцев о вмешательстве в выборы и увеличении политического раскола

Дипфейки использовались для искажения известных политиков в видеороликах.

  • В отдельных видеороликах лицо президента Аргентины Маурисио Макри заменено лицом Адольфа Гитлера , а лицо Ангелы Меркель заменено лицом Дональда Трампа . [59] [60]
  • В апреле 2018 года Джордан Пил сотрудничал с Buzzfeed, чтобы создать дипфейк Барака Обамы с голосом Пила; он служил публичным объявлением для повышения осведомленности о дипфейках. [61]
  • В январе 2019 года филиал Fox KCPQ в своем выступлении в Овальном кабинете показал дипфейк Трампа , высмеивая его внешний вид и цвет кожи (и впоследствии уволил сотрудника, ответственного за видео). [62]
  • Во время предвыборной кампании в Законодательное собрание Дели в 2020 году партия Дели Бхаратия Джаната использовала аналогичную технологию для распространения версии англоязычной рекламной кампании своего лидера Маноджа Тивари , переведенной на харианви, для таргетинга на избирателей Харьяны . Закадровый голос был предоставлен актером, а искусственный интеллект, обученный с использованием видео выступлений Тивари, был использован для синхронизации видео по губам с новым закадровым голосом. Сотрудник партии охарактеризовал это как «позитивное» использование технологии дипфейка, которая позволила им «убедительно приблизиться к целевой аудитории, даже если кандидат не говорил на языке избирателя». [63]
  • В апреле 2020 года бельгийское отделение Extinction Rebellion опубликовало в Facebook дипфейк-видео премьер-министра Бельгии Софи Вильмес. [64] Видео продвигало возможную связь между вырубкой лесов и COVID-19 . Он набрал более 100 000 просмотров за 24 часа и получил много комментариев. На странице Facebook, где появилось видео, многие пользователи интерпретировали дипфейк как подлинное. [65]

В июне 2019 года Комитет по разведке Палаты представителей США провел слушания по поводу потенциального злонамеренного использования дипфейков для влияния на выборы. [66]

Искусство [ править ]

Картина Deepfake: лицо Стивена Вольфрама размещено на картине Исаака Ньютона с помощью нейронной сети [67]

В марте 2018 года многопрофильный художник Джозеф Ayerle опубликовал videoartwork Un'emozione за Semper 2.0 (английское название: Итальянские игры ). Художник работал с технологией Deepfake, чтобы создать ИИ-актрису , синтетическую версию звезды кино 80-х Орнеллы Мути , путешествующей во времени с 1978 по 2018 год. Массачусетский технологический институт упомянул это произведение в исследовании «Творческая мудрость». [68] Художник использовал путешествие во времени Орнеллы Мути, чтобы исследовать размышления поколений, а также исследовать вопросы о роли провокации в мире искусства. [69]Для технической реализации Айерле использовала сцены фотомодели Кендалл Дженнер . Программа заменила лицо Дженнер рассчитанным ИИ лицом Орнеллы Мути. В результате у AI-актрисы лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Актерское мастерство [ править ]

Были предположения о том, что дипфейки будут использоваться для создания цифровых актеров для будущих фильмов. Созданные / измененные цифровыми методами люди уже использовались в фильмах и раньше, и дипфейки могут внести свой вклад в новые разработки в ближайшем будущем. [70] Технология Deepfake уже использовалась фанатами для вставки лиц в существующие фильмы, например, вставка молодого лица Харрисона Форда на лицо Хана Соло в Solo: A Star Wars Story , [71] и методы, подобные тем, которые использовались by deepfakes были использованы для игры принцессы Леи в Rogue One . [72]

Фильмы [ править ]

По мере того, как технология deepfake все больше развивается, Disney улучшила свои визуальные эффекты, используя технологию замены лиц deepfake с высоким разрешением. [73] Disney улучшила свою технологию за счет прогрессивного обучения, запрограммированного для определения выражений лица, реализации функции смены лица и повторения для стабилизации и уточнения результатов. [73] Эта технология deepfake с высоким разрешением будет внедрена в производство фильмов и телепрограмм, что значительно сократит операционные и производственные затраты. [74] Дипфейк-модель Disney может создавать медиафайлы, созданные искусственным интеллектом, с разрешением 1024 x 1024, что намного больше и дает более реалистичные результаты, чем обычные модели, которые производят медиафайлы с разрешением 256 x 256. [74]Кроме того, с помощью этой технологии у Disney есть возможность воскрешать мертвых актеров и персонажей с помощью быстрой и простой смены лица; Теперь Дисней может воскрешать и воскрешать персонажей для удовольствия фанатов. [75]

Интернет-мем [ править ]

В 2020 году появился интернет-мем , использующий дипфейки для создания видеороликов, на которых люди поют хор «Бака Митай» (ば か み た い) , песни из серии видеоигр Yakuza . В сериале меланхоличная песня исполняется игроком в караоке- мини-игре . В большинстве версий этого мема в качестве шаблона используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует песню по губам . [76] [77]

Социальные сети [ править ]

Дипфейки начали использоваться в популярных социальных сетях, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять собственные лица на лица персонажей в сценах из фильмов и телешоу, таких как « Ромео + Джульетта» и « Игра престолов» . [78] Изначально приложение подверглось тщательной проверке из-за инвазивных пользовательских данных и политики конфиденциальности, после чего компания сделала заявление, в котором утверждала, что пересмотрит политику. [79] В январе 2020 года Facebook объявил, что вводит новые меры по борьбе с этим на своих платформах. [80]

Sockpuppets [ править ]

Фотографии Deepfake могут быть использованы для создания sockpuppets , несуществующих людей, которые активны как в Интернете, так и в традиционных СМИ. Фотография Deepfake, похоже, была создана вместе с легендой о явно несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Персона Оливера Тейлора представила свои мнения в нескольких газетах и ​​была активна в интернет-СМИ, атаковав британского ученого-юриста и его жену, как «сочувствующих террористам». Ученый привлек международное внимание в 2018 году, когда он начал судебный процесс в Израиле против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что они стали жертвами взлома телефонов NSO.технологии. Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было записей на него. Многие специалисты сошлись во мнении, что «его» фото - дипфейк. Некоторые газеты не отозвали «его» статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в области дезинформации . [81]

Коллекции дипфейков с фотографиями несуществующих людей в социальных сетях также использовались как часть израильской партизанской пропаганды. На странице Facebook «Сионистская весна» были размещены фотографии несуществующих людей вместе с их «свидетельствами», якобы объясняющими, почему они отказались от своей левой политики, чтобы поддержать правых , и на странице также было большое количество сообщений от Prime. Министр Израиля Биньямин Нетаньяху и его сын, а также из других израильских источников правого крыла. Фотографии, похоже, были созданы с помощью " синтеза человеческих изображений".«технология, компьютерное программное обеспечение, которое берет данные с фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. Во многих« свидетельских показаниях »причиной поддержки политических правых был шок, вызванный получением информации о предполагаемом подстрекательственасилию над премьер-министром. Правые израильские телеканалы затем передали «свидетельские показания» этого несуществующего человека, основанные на том факте, что о них «делились» в Интернете. Вещательные компании передали сюжет в эфир, хотя вещатели не смогли найти таких людей, объясняя: «Почему происхождение имеет значение?». Другие поддельные профили Facebook - профили вымышленных лиц - содержали материалы, которые якобы содержали такое подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [82] [83]

Проблемы [ править ]

Мошенничество [ править ]

Аудио дипфейки использовались как часть мошенничества с социальной инженерией , заставляя людей думать, что они получают инструкции от доверенного лица. [84] В 2019 году генеральный директор британской энергетической компании был обманут по телефону, когда ему было приказано перевести 220 000 евро на счет в венгерском банке человеком, который использовал технологию звукового дипфейка, чтобы выдать себя за голос генерального директора материнской компании. . [85]

Достоверность и достоверность [ править ]

Хотя фальшивых фотографий уже много, имитировать движущиеся изображения сложнее, а наличие дипфейков увеличивает сложность классификации видео как подлинных или нет. [59] Исследователь искусственного интеллекта Алекс Чампандард сказал, что люди должны знать, как быстро что-то может быть испорчено с помощью технологии deepfake, и что проблема не является технической, а решается с помощью доверия к информации и журналистике. [59] Дипфейки могут использоваться для опорочения, выдачи себя за другое лицо и распространения дезинформации. [86] Основная ошибка состоит в том, что человечество может попасть в эпоху, когда уже нельзя будет определить, соответствует ли содержание медиума истине. [59]

Точно так же доцент кафедры информатики Хао Ли из Университета Южной Калифорнии заявляет, что дипфейки, созданные для злонамеренного использования, например фейковые новости, будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [87] Ли предсказал, что настоящие видео и дипфейки станут неотличимы уже через полгода, начиная с октября 2019 года, из-за быстрого развития искусственного интеллекта и компьютерной графики. [87]

Последствия дипфейка недостаточно значительны, чтобы дестабилизировать всю государственную систему; однако дипфейки обладают способностью наносить огромный ущерб отдельным объектам. [88] Это связано с тем, что дипфейки часто нацелены на одного человека и / или его отношения с другими в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью глубокого фейкового голосового фишинга, который манипулирует звуком для создания поддельных телефонных звонков или разговоров. [88] Еще один метод использования дипфейка - это сфабрикованные частные высказывания, которые манипулируют СМИ, чтобы донести до людей оскорбительные комментарии. [88]

Примеры событий [ править ]

Воспроизвести медиа
"Ким Чен Ын"

Дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина также были созданы внепартийной правозащитной группой «Представители». [89] Эти дипфейки предназначались для публичного показа в качестве рекламы, чтобы передать идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии в Соединенных Штатах; Ролик также был направлен на то, чтобы шокировать американцев, чтобы они осознали, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от степени доверия. [89] Тем не менее, в этих рекламных роликах был заключительный комментарий, в котором подробно говорилось, что кадры не были настоящими, и в конечном итоге ролики не транслировались из-за опасений и чувствительности относительно того, как американцы могут отреагировать. [89]

Отрывок из выступления Нэнси Пелоси в Центре американского прогресса от 22 мая 2019 года был замедлен, в дополнение к измененной подаче, чтобы казалось, что она была пьяна; однако критики утверждают, что это не дипфейк. [90]

Дональд Трамп дипфейк [ править ]

Дипфейк Дональда Трампа был легко создан на основе пародии Джимми Фэллона, исполненного на канале NBC The Tonight Show. В этой пародии (вышедшей в эфир 4 мая 2016 года) Джимми Фэллон переоделся Дональдом Трампом и сделал вид, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастался своей основной победой в Индиане. [91] 5 мая 2019 года был создан дипфейк Дональда Трампа (взят из этого скетча). [91] В этом дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа (звук остался прежним). Это дипфейк-видео было загружено на YouTube основателем Derpfakes с комедийным намерением.

Дипфейк Барака Обамы [ править ]

Американский актер Джордан Пил, BuzzFeed и Monkeypaw Productions создали и спродюсировали дипфейк Барака Обамы (загруженный на YouTube 17 апреля 2018 года), в котором Барак Обама ругал и обзывал Дональда Трампа. [92] В этой дипфейке голос и рот Пила были преобразованы и преобразованы в голос и лицо Обамы. Цель этого видео заключалась в том, чтобы показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить любого сказать что угодно.

Положительные последствия [ править ]

Потенциальные позитивные инновации также появились вместе с растущей популярностью и созданием дипфейков. Например, корпоративные обучающие видеоролики могут быть созданы с использованием подделанных аватаров и их голосов. Примером этого является Synthesia, которая использует технологию deepfake с аватарами для создания персонализированных видео. [93]

Microsoft разработала приложение под названием «Seeing AI», которое использует искусственный интеллект и технологию deepfake, чтобы рассказывать о мире вокруг вас, чтобы помочь слепым и / или слабовидящим людям. [94] Благодаря технологии deepfake это приложение может озвучивать текст в документах, сканировать продукты и штрих-коды, распознавать людей и их эмоции, описывать местоположение и обстановку вокруг вас, определять валюту и счета, а также сообщать об этих функциях на разных языках в объеме и тон, адаптированный к вашему окружению. [94]

Ответы [ править ]

Платформы социальных сетей [ править ]

Twitter [ править ]

Twitter принимает активные меры по работе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, которые содержат манипулируемые медиа и / или дипфейки, которые сигнализируют зрителям о манипулировании СМИ. [95] Также будет предупреждение, которое появится для пользователей, которые планируют ретвитнуть, поставить лайк или взаимодействовать с твитом. [95] Twitter также будет работать, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на Twitter Moment или заслуживающую доверия новостную статью по соответствующей теме - в качестве действия по опровержению. [95] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести ущерб безопасности пользователей.[95] Чтобы лучше выявлять дипфейки и манипулируемые медиа в Twitter, Twitter попросил пользователей, заинтересованных в сотрудничестве с ними, поработать над решениями по обнаружению дипфейков, чтобы заполнить форму (срок подачи - 27 ноября 2020 г.). [96]

Facebook [ править ]

Facebook предпринял усилия для поощрения создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook был видным партнером в проведении конкурса Deepfake Detection Challenge (DFDC) , проведенного в декабре 2019 года, для 2114 участников, которые сгенерировали более 35000 моделей. [97] Лучшие модели с наивысшей точностью обнаружения были проанализированы на предмет сходства и различий; Эти результаты представляют интерес для дальнейших исследований по совершенствованию и уточнению моделей обнаружения дипфейков. [97] Facebook также детализировал, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [98]Однако средства массовой информации, которые были отредактированы для изменения порядка или контекста слов в сообщении, останутся на сайте, но будут отмечены как ложные, поскольку они не были созданы искусственным интеллектом. [98]

Обнаружение [ править ]

Большая часть академических исследований Deepfake направлена ​​на обнаружение видео. [99] Самым популярным методом является использование алгоритмов, аналогичных тем, которые используются для создания дипфейка для их обнаружения. [99] Распознавая закономерности в том, как создаются дипфейки, алгоритм может улавливать тонкие несоответствия. [99] Исследователи разработали автоматические системы, которые проверяют видео на наличие ошибок, таких как нерегулярное мигание света. [12] Этот метод также подвергался критике за создание « поста с подвижной целью », где в любое время алгоритмы обнаружения становятся лучше, как и Deepfakes. [99]Конкурс Deepfake Detection Challenge, организованный коалицией ведущих технологических компаний, надеется ускорить развитие технологии выявления подделанного контента. [100]

Другие методы используют блокчейн для проверки источника медиа. [101] Перед показом в социальных сетях видео необходимо будет проверять в реестре. [101] С помощью этой технологии будут одобряться только видео из надежных источников, что снижает распространение потенциально вредоносных медиафайлов Deepfake. [101]

Для борьбы с дипфейками была предложена цифровая подпись всех видео и изображений камерами и видеокамерами, включая камеры смартфонов. [102] Это позволяет отслеживать каждую фотографию или видео до их первоначального владельца, что может быть использовано для преследования диссидентов. [102]

Интернет-реакция [ править ]

С 2017 года, Саманта Коул Vice опубликовал серию статей , охватывающих новости , окружающие deepfake порнографии. [103] [104] [105] [56] [54] [106] [107] [23] 31 января 2018 года Gfycat начал удалять все дипфейки со своего сайта. [105] [10] На Reddit , то subreddit г / deepfakes был запрещен на 7 февраля 2018 года, в связи с нарушением политики «непроизвольной порнографией». [108] [109] [110] [111] [112] В том же месяце представители Twitterзаявили, что они приостановят действие аккаунтов, подозреваемых в размещении несанкционированного контента deepfake. [106] Чат Discord в прошлом принимал меры против дипфейков, [113] и занял общую позицию против дипфейков. [10] [114] В сентябре 2018, Google добавил «непроизвольные синтетические порнографические образа» в список запрета, позволяя любому запросить блок результатов , показывая их поддельные обнаженные. [115] [ проверить цитаты синтаксис ] В феврале 2018 года, PornHub сказал что он будет запрещать дипфейк-видео на своем веб-сайте, потому что он считается «несогласованным контентом», который нарушает их условия обслуживания. [104]Они также ранее заявили Mashable, что будут удалять контент, помеченный как дипфейки. [116] Авторы Motherboard из Buzzfeed News сообщили, что поиск «дипфейков» на Pornhub по- прежнему вернул несколько недавних дипфейк-видео. [104]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ. [117] Вместо этого видео будут помечены третьими сторонами как поддельные, а затем будут иметь пониженный приоритет в каналах пользователя. [103] Этот ответ был вызван в июне 2019 года после дипфейка с видео Марка Цукерберга 2016 года, распространенного в Facebook и Instagram . [117]

Правовой ответ [ править ]

В Соединенных Штатах есть некоторые ответы на проблемы, связанные с дипфейками. В 2018 году Закон о Вредоносное Deep Поддельный Запрет был введен в Сенат США , [118] и в 2019 DEEPFAKES Accountability Act был внесен в Палату представителей . [11] Несколько штатов также приняли законы относительно дипфейков, в том числе Вирджиния, [119] Техас, Калифорния и Нью-Йорк. [120] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал Законопроекты Ассамблеи № 602 и № 730. [121] [122]Законопроект № 602 о собрании предоставляет лицам, ставшим жертвами откровенного дипфейка сексуального характера, сделанного без их согласия, основание для иска против создателя контента. [121] Законопроект о собрании № 730 запрещает распространение злонамеренных фальшивых аудиовизуальных материалов, нацеленных на кандидата, баллотирующегося на государственный пост, в течение 60 дней после его избрания. [122]

В ноябре 2019 года Китай объявил, что дипфейки и другие синтетически фальшивые кадры должны содержать четкое уведомление об их фальшивости, начиная с 2020 года. Несоблюдение требований может рассматриваться как преступление, о котором Администрация киберпространства Китая сообщила на своем веб-сайте. [123] Китайское правительство, похоже, оставляет за собой право преследовать как пользователей, так и онлайн-видео платформы, не соблюдающие правила. [124]

В Соединенном Королевстве производители дипфейков могут быть привлечены к ответственности за домогательства, но есть призывы сделать дипфейк конкретным преступлением; [125] в Соединенных Штатах, где сборы, разнообразно , как кражи личных данных , киберпреследование и порноместь были преследуемыми, понятие более общего закона также обсуждалось. [115]

В Канаде организация Communications Security Establishment опубликовала отчет, в котором говорилось, что дипфейки могут использоваться для вмешательства в канадскую политику, в частности, для дискредитации политиков и влияния на избирателей. [126] [127] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они стали их целью. [128]

Ответ от DARPA [ править ]

Defense Advanced Research Projects Agency (DARPA) финансирует проект , в котором люди будут конкурировать , чтобы создать AI сгенерированных видео, аудио и изображений, а также автоматизированные инструменты для обнаружения этих deepfakes. [129] DARPA даже предприняло усилия по организации «дня предложений» для проекта, связанного с программой семантической криминалистики, в рамках которого исследователи стремятся предотвратить вирусное распространение средств массовой информации, управляемых ИИ. [130] DARPA и Программа семантической криминалистики также работают вместе над обнаружением этих управляемых ИИ носителей посредством усилий, направленных на обучение компьютеров использованию здравого смысла и логических рассуждений. [130]DARPA также создало программу Media Forensics (MediFor), чтобы уменьшить растущий вред, который наносят дипфейки и средства массовой информации, созданные искусственным интеллектом. [131] Эта программа направлена ​​не только на обнаружение дипфейков, но и на предоставление информации о том, как были созданы носители. [131] Одновременно цель DARPA состоит в том, чтобы обратить внимание и подчеркнуть значительную роль дипфейков и их влияние на принятие решений. [131]

В популярной культуре [ править ]

  • В середине декабря 1986 года в журнале Analog была опубликована повесть Джека Уодхамса «Пикапер». Его сюжет вращается вокруг улучшенных или созданных в цифровом виде видео, созданных опытными хакерами, обслуживающими недобросовестных юристов и политических деятелей. [132]
  • Фильм 1987 года «Бегущий человек» с Арнольдом Шварценеггером в главной роли изображает автократическое правительство, использующее компьютеры для цифровой замены лиц актеров лицами разыскиваемых беглецов, чтобы создать впечатление, что беглецы были нейтрализованы.
  • В техно-триллере 1992 года Филиппа Керра « Философское расследование » главный герой и серийный убийца Витгенштейн использует как программное обеспечение, подобное Deepfake, так и костюм виртуальной реальности для секса с аватаркой лейтенанта полиции. Айседоре «Джейк» Якович поручено поймать его. [133]
  • В фильме 1993 года « Восходящее солнце» с Шоном Коннери и Уэсли Снайпс в главных ролях изображен другой персонаж, Джинго Асакума, который показывает, что компьютерный диск изменил личность в цифровом виде, чтобы привлечь внимание конкурента.
  • Технология Deepfake является частью сюжета драмы BBC One The Capture 2019 года . Сериал рассказывает о бывшем британском солдате Шоне Эмери, который обвиняется в нападении и похищении своего адвоката. Искусно обработанные кадры с камер видеонаблюдения используются для того, чтобы подставить его и ввести в заблуждение полицию, ведущую расследование. [134] [135]
  • Аль - Дэвис против НФЛ - Повествование структура этого 2021 документального фильма, часть ESPN «s 30 30 документальных серий, использует deepfake версии двух центральных персонажей фильма, как deceased- Аль Дэвис , который владел Лас - Вегас рейдеров во время команды в Окленде и Лос-Анджелесе , а также Пит Розелл , комиссар НФЛ, который часто конфликтовал с Дэвисом. [136] [137]

См. Также [ править ]

  • Захват движения лица
  • Синтетические медиа
  • Виртуальный актер
  • Технология замены идентичности
  • Гиперреальность

Ссылки [ править ]

  1. ^ Брэндон, Джон (16 февраля 2018 г.). «Страшная высокотехнологичная порно: Жуткий„deepfake“видео находится на подъеме» . Fox News . Проверено 20 февраля 2018 года .
  2. ^ «Готовься, не паникуй: синтетические медиа и дипфейки» . witness.org . Проверено 25 ноября 2020 года .
  3. ^ a b Kietzmann, J .; Ли, LW; Маккарти, ИП; Кицманн, ТК (2020). «Дипфейки: Уловка или угощение?». Бизнес-горизонты . 63 (2): 135–146. DOI : 10.1016 / j.bushor.2019.11.006 .
  4. Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости - это плохо? Глубокие фейки - это место, где правда умирает» . Хранитель . Проверено 14 ноября 2018 года .
  5. ^ a b c d PhD Свен Чарлир (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил свою жену на вечернее шоу» . Средний . Проверено 8 ноября 2019 .
  6. ^ «Что такое Deepfakes и почему будущее порно Ужасающий» . Высокое благородство . 20 февраля 2018 . Проверено 20 февраля 2018 года .
  7. ^ «Эксперты опасаются, что технология подмены лица может начать международное противостояние» . Наброски . Проверено 28 февраля 2018 .
  8. ^ Руз, Кевин (4 марта 2018). «Вот и поддельные видео тоже» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 24 марта 2018 года . 
  9. ^ Шрейер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.), Adversarial Learning of Deepfakes in Accounting , arXiv : 1910.03810 , Bibcode : 2019arXiv191003810S
  10. ^ a b c Гошал, Абхиманью (7 февраля 2018 г.). «Twitter, PornHub и другие платформы запретить АИ-генерируемые знаменитости порно» . Следующая Сеть . Проверено 9 ноября 2019 .
  11. ^ a b Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019-2020): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности от 2019 года» . www.congress.gov . Дата обращения 16 октября 2019 .
  12. ^ a b c Харвелл, Дрю (12 июня 2019 г.). «Ведущие исследователи искусственного интеллекта гонятся за обнаружением« дипфейков »видео:« Мы уступаем в вооружении » » . Вашингтон Пост . Проверено 8 ноября 2019 .
  13. Санчес, Джулиан (8 февраля 2018 г.). «Благодаря ИИ, будущие„поддельным новостей“в настоящее время впервые в домашнем порно» . NBC News . Проверено 8 ноября 2019 .
  14. ^ a b c Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение deepfake становится вирусным, что вызывает немедленную негативную реакцию в отношении конфиденциальности» . Грань . Проверено 8 ноября 2019 .
  15. ^ a b Бреглер, Кристоф; Ковелл, Мишель; Слейни, Малкольм (1997). «Перезапись видео: управление визуальной речью с помощью звука». Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным методам . 24 : 353–360. DOI : 10.1145 / 258734.258880 . S2CID 2341707 . 
  16. ^ a b c Суваджанакорн, Супасорн; Зейтц, Стивен М .; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтезирующий Обама: Изучение синхронизации губ по аудио». ACM Trans. График . 36 (4): 95: 1–95: 13. DOI : 10.1145 / 3072959.3073640 . S2CID 207586187 . 
  17. ^ a b c Thies, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Нисснер, Маттиас (июнь 2016 г.). «Face2Face: захват лица в реальном времени и воспроизведение видео в формате RGB». Конференция IEEE 2016 года по компьютерному зрению и распознаванию образов (CVPR) . IEEE: 2387–2395. arXiv : 2007.14808 . DOI : 10.1109 / CVPR.2016.262 . ISBN 9781467388511. S2CID  206593693 .
  18. ↑ a b Фаркуар, Питер (27 августа 2018 г.). «Программа искусственного интеллекта скоро будет здесь, чтобы помочь вам танцевать deepface - только не называйте это deepfake» . Business Insider Австралия . Проверено 27 августа 2018 .
  19. ^ «Deepfakes для танцев: теперь вы можете использовать AI, чтобы имитировать те танцевальные движения, которые вы всегда хотели» . Грань . Проверено 27 августа 2018 .
  20. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: злонамеренное вмешательство в трехмерные медицинские изображения с использованием глубокого обучения . С. 461–478. ISBN 978-1-939133-06-9.
  21. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: обзор». arXiv : 2004.11138 . DOI : 10.1145 / 3425780 . S2CID 216080410 .  Цитировать журнал требует |journal=( помощь )
  22. ^ Karnouskos, Stamatis (2020). «Искусственный интеллект в цифровых медиа: эпоха дипфейков» (PDF) . IEEE Transactions on Technology and Society . 1 (3): 1. DOI : 10,1109 / TTS.2020.3001312 . S2CID 221716206 . Проверено 9 июля 2020 .  
  23. ^ a b c Коул, Саманта (24 января 2018 г.). «Мы действительно Fucked: все делают AI-сгенерированные Поддельные порно сейчас» . Vice . Дата обращения 4 мая 2019 .
  24. ^ Хейсома, Сэм (31 января 2018). «Люди используют технологию смены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и« Что такое 2018 »» . Mashable . Проверено 4 апреля 2019 года .
  25. ^ "r / SFWdeepfakes" . Reddit . Проверено 12 декабря 2018 .
  26. Перейти ↑ Hathaway, Jay (8 февраля 2018 г.). «Вот где„deepfakes,“новая фальшивка знаменитости порно, пошли после запрета Reddit» . Daily Dot . Проверено 22 декабря 2018 .
  27. ^ "Что такое дипфейки и как они делаются?" . Онлайн-технические советы . 23 мая 2019 . Проверено 8 ноября 2019 .
  28. Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять местами Илона Маска и Джеффа Безоса, и у меня это действительно плохо получается» . Грань . Проверено 8 ноября 2019 .
  29. ^ "Deepfakes web | Лучшее онлайн-приложение для обмена лицами" . Сеть дипфейков . Проверено 21 февраля 2021 года .
  30. ^ «Faceswap - это ведущее бесплатное мультиплатформенное программное обеспечение Deepfakes с открытым исходным кодом» . 15 октября 2019 г. - через WordPress.
  31. ^ «DeepFaceLab - это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. Readme.md) .: iperov / DeepFaceLab» . 19 июня 2019 г. - через GitHub.
  32. ^ Pangburn, DJ (21 сентября 2019). «Вас предупредили: дипфейки всего тела - следующий шаг в мимикрии человека на основе искусственного интеллекта» . Быстрая компания . Проверено 8 ноября 2019 .
  33. Лайонс, Ким (29 января 2020 г.). «FTC заявляет, что технология звуковых дипфейков становится лучше» . Грань .
  34. ^ «Аудио образцы из« Перенести обучение от проверки динамика на синтез текста в речь с несколькими динамиками » » . google.github.io .
  35. ^ Цзя, Е; Чжан, Ю; Вайс, Рон Дж .; Ван, Цюань; Шен, Джонатан; Рен, Фэй; Чен, Чжифэн; Нгуен, Патрик; Панг, Руоминг; Морено, Игнасио Лопес; У Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего на синтез речи с множеством говорящих». arXiv : 1806.04558 . Bibcode : 2018arXiv180604558J . Цитировать журнал требует |journal=( помощь )
  36. ^ "Визуальные вычисления TUM: профессор Маттиас Нисснер" . www.niessnerlab.org .
  37. ^ "Полная перезагрузка страницы" . IEEE Spectrum: Новости технологий, инженерии и науки .
  38. ^ «Вклад данных в исследования по обнаружению дипфейков» .
  39. ^ Тален, Микаэль. «Теперь вы можете сделать дипфейс из себя знаменитости всего за несколько кликов» . ежедневная точка . Проверено 3 апреля 2020 .
  40. ^ Мэтьюз, Зейн. «Веселье или страх: приложение Deepfake помещает лица знаменитостей на ваших селфи» . Kool1079 . Дата обращения 6 марта 2020 .
  41. ^ «Канье Уэст, Ким Кардашьян и ее отец: должны ли мы делать голограммы мертвых?» . BBC News . 31 октября 2020 . Проверено 11 ноября 2020 .
  42. ^ Модемы, The (30 октября 2020 г.). «КАНЬЕ ВЕСТ ПОДАРИЛ КИМ КАРДАШЯН ГОЛОГРАММУ ЕЕ ОТЦА НА ДЕНЬ РОЖДЕНИЯ» . модемы . Проверено 11 ноября 2020 .
  43. ^ "Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям" . adage.com . 2 октября 2020 . Проверено 11 ноября 2020 .
  44. ^ Zucconi, Алан (14 марта 2018). «Понимание технологии DeepFakes» . Алан Цуккони . Проверено 8 ноября 2019 .
  45. ^ a b c d e Кан, CE (10 декабря 2018 г.). "Что такое VAE-GAN?" . Средний . Проверено 8 ноября 2019 .
  46. ^ a b «Эти новые уловки могут перехитрить видео Deepfake - на данный момент» . Проводной . ISSN 1059-1028 . Проверено 9 ноября 2019 . 
  47. ^ Limberg, Питер (24 мая 2020). «Шантаж инфляцией» . CultState . Проверено 18 января 2021 года .
  48. ^ "Для Каппы" . Телеграф . 24 мая 2020 . Проверено 18 января 2021 года .
  49. ^ a b c Диксон, EJ; Диксон, EJ (7 октября 2019 г.). «Deepfake Porn по-прежнему представляет угрозу, особенно для звезд K-Pop» . Rolling Stone . Проверено 9 ноября 2019 .
  50. ^ a b c Рёттгерс, Янко (21 февраля 2018 г.). «Porn производители предлагают помочь Голливуду Take Down Deepfake Видео» . Разнообразие . Проверено 28 февраля 2018 .
  51. ^ «Состояние Deepfake - ландшафт, угрозы и влияние» (PDF) . Deeptrace . 1 октября 2019 . Дата обращения 7 июля 2020 .
  52. ^ Гоггин, Бенджамин. «От порно к„Игре престолов“: Как deepfakes и реалистично выглядящее поддельное видео ударило его большим» . Business Insider . Проверено 9 ноября 2019 .
  53. ^ Ли, Дэйв (3 февраля 2018 г.). « Поддельные порно“имеют серьезные последствия» . Проверено 9 ноября 2019 .
  54. ^ a b Коул, Саманта (19 июня 2018 г.). «ИИ-решение Gfycat для борьбы с дипфейками не работает» . Vice . Проверено 9 ноября 2019 .
  55. Зои, Френи (24 ноября 2019 г.). «Deepfake Porn здесь, чтобы остаться» . Средний .
  56. ^ a b Коул, Саманта; Майберг, Эмануэль; Коблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши» . Vice . Дата обращения 2 июля 2019 .
  57. Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом» . Vice Media .
  58. ^ "pic.twitter.com/8uJKBQTZ0o" . 27 июня 2019.
  59. ^ a b c d "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos" . az Aargauer Zeitung. 3 февраля 2018.
  60. ^ Патрик Генсинг. "Deepfakes: Auf dem Weg in eine alternate Realität?" .
  61. Romano, Aja (18 апреля 2018 г.). «Смоделированная реклама Обамы Джорданом Пилом - это обоюдоострое предупреждение против фейковых новостей» . Vox . Проверено 10 сентября 2018 года .
  62. Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал обработанные кадры выступления Трампа в Овальном кабинете. Сотрудник был уволен» . Вашингтон Пост . Проверено 11 января 2019 .
  63. ^ Кристофер, Nilesh (18 февраля 2020). «Мы только что увидели первое использование дипфейков в предвыборной кампании Индии» . Vice . Дата обращения 19 февраля 2020 .
  64. ^ "#TellTheTruthBelgium" . Вымирание Восстание Бельгия . Проверено 21 апреля 2020 года .
  65. ^ Holubowicz, Джеральд (15 апреля 2020). "Extinction Rebellion s'empare des deepfakes" . Журналистика. Дизайн (на французском) . Проверено 21 апреля 2020 года .
  66. ^ О'Салливан, Дони. «Конгресс расследует дипфейки, так как подделанное видео Пелоси вызывает ажиотаж» . CNN . Проверено 9 ноября 2019 .
  67. ^ «Несколько мыслей о глубоких подделках - сочинения Стивена Вольфрама» . Writings.stephenwolfram.com . Проверено 22 января 2021 года .
  68. ^ Катерина Чизек, Уильям Уриккио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1]
  69. ^ ANSA | Орнелла Мути в кортометраджо во Флоренции
  70. Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры вытеснить людей из бизнеса в эпоху дипфейков?» . Хранитель . ISSN 0261-3077 . Проверено 20 октября 2019 года . 
  71. ^ Radulovic, Petrana (17 октября 2018). «Харрисон Форд - звезда Solo: A Star Wars Story благодаря технологии deepfake» . Многоугольник . Проверено 20 октября 2019 года .
  72. ^ Виник, Эрин. «Как кукла Кэрри Фишер сделала карьеру для принцессы Леи из Rogue One» . Обзор технологий Массачусетского технологического института . Проверено 20 октября 2019 года .
  73. ^ a b «Нейронная замена лица с высоким разрешением для визуальных эффектов | Disney Research Studios» . Дата обращения 7 октября 2020 .
  74. ^ a b «Дипфейк-технология Диснея может быть использована в кино и на телевидении» . Blooloop . Дата обращения 7 октября 2020 .
  75. A, Джон Линдли (2 июля 2020 г.). «Компания Disney Ventures возвращает« мертвых актеров »с помощью распознавания лиц» . Tech Times . Дата обращения 7 октября 2020 .
  76. C, Ким (22 августа 2020 г.). «Танец с гробами и многое другое: музыкальные мемы 2020 года» . Music Times . Проверено 26 августа 2020 .
  77. ^ Sholihyn, Ильяс (7 августа 2020). «Кто-то глубоко подделал политиков Сингапура, чтобы они синхронизировали по губам эту японскую песню-мем» . AsiaOne . Проверено 26 августа 2020 .
  78. ^ Дамиани, Джесси. «Китайское приложение Deepfake Zao становится вирусным, сталкивается с немедленной критикой пользовательских данных и политики безопасности» . Forbes . Проверено 18 ноября 2019 .
  79. Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение deepfake становится вирусным, что вызывает немедленную негативную реакцию в отношении конфиденциальности» . Грань . Проверено 18 ноября 2019 .
  80. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против« deepfake »видео» . Independent.ie . Проверено 7 января 2020 года .
  81. ^ Reuters, 15 июля 2020, Deepfake Используется для атаки Активист Пары показывает новая Дезинформация Frontier
  82. ^ 972 Magazine, 12 августа 2020 г., «Левые за Биби»? Разоблачена глубокая пропаганда в пользу Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что никто из людей в Вопрос существует »
  83. ^ Седьмой глаз, 9 июня 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית
  84. ^ Статт, Ник (5 сентября 2019). «Воры теперь используют дипфейки искусственного интеллекта, чтобы обманом заставить компании отправлять им деньги» . Проверено 13 сентября 2019 .
  85. ^ Дамиани, Джесси. «Голосовой дипфейк был использован для обмана генерального директора на сумму 243 000 долларов» . Forbes . Проверено 9 ноября 2019 .
  86. ^ «Глубокие фейки с оружием: национальная безопасность и демократия на JSTOR» . www.jstor.org . Проверено 21 октября 2020 года .
  87. ^ a b «Идеальная технология Deepfake может появиться раньше, чем ожидалось» . www.wbur.org . Проверено 9 ноября 2019 .
  88. ^ a b c Бейтман, Джон (2020). «Резюме» . Дипфейки и синтетические медиа в финансовой системе : 1-2.
  89. ^ a b c «Дипфейк Путин здесь, чтобы предупредить американцев об их собственной гибели» . Обзор технологий Массачусетского технологического института . Дата обращения 7 октября 2020 .
  90. ^ Тауэрс-Кларк, Чарльз. «Мона Лиза и Нэнси Пелоси: последствия дипфейков» . Forbes . Дата обращения 7 октября 2020 .
  91. ^ a b «Рост дипфейка и угроза демократии» . Хранитель . Дата обращения 3 ноября 2020 .
  92. ^ Фэган, Кейли. «Вирусное видео, которое показало, как Обама называет Трампа« провалом --- », демонстрирует новую тревожную тенденцию под названием« дипфейки » » . Business Insider . Дата обращения 3 ноября 2020 .
  93. ^ Чендлер, Саймон. «Почему дипфейки являются чистым позитивом для человечества» . Forbes . Дата обращения 3 ноября 2020 .
  94. ^ a b «Приложение Seeing AI от Microsoft» . www.microsoft.com . Дата обращения 3 ноября 2020 .
  95. ^ a b c d «Помогите нам сформировать наш подход к синтетическим и управляемым медиа» . blog.twitter.com . Дата обращения 7 октября 2020 .
  96. ^ "TechCrunch" . TechCrunch . Дата обращения 7 октября 2020 .
  97. ^ a b «Результаты испытания Deepfake Detection: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Дата обращения 7 октября 2020 .
  98. ^ a b Пол, Кэти (4 февраля 2020 г.). «Твиттер для обозначения дипфейков и других обманных средств массовой информации» . Рейтер . Дата обращения 7 октября 2020 .
  99. ^ a b c d 18 июня, Кара Манке |; 201920 июня; 2019 г. (18 июня 2019 г.). «Исследователи используют причуды на лице, чтобы разоблачить« дипфейки » » . Новости Беркли . Проверено 9 ноября 2019 .CS1 maint: числовые имена: список авторов ( ссылка )
  100. ^ «Присоединяйтесь к вызову Deepfake Detection Challenge (DFDC)» . deepfakedetectionchallenge.ai . Проверено 8 ноября 2019 .
  101. ^ a b c «Блокчейн-решение наших проблем с глубокими подделками» . Проводной . ISSN 1059-1028 . Проверено 9 ноября 2019 . 
  102. ^ a b Литару, Калев. «Почему цифровые подписи не предотвратят глубоких подделок, но помогут репрессивным правительствам» . Forbes . Проверено 17 февраля 2021 года .
  103. ^ a b Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фальшивых видео» . Vice . Проверено 9 ноября 2019 .
  104. ^ a b c Коул, Саманта (6 февраля 2018 г.). «PornHub ли Беннинг AI-сгенерированных Поддельные порно видео, говорит , что они Nonconsensual» . Vice . Проверено 9 ноября 2019 .
  105. ^ a b Коул, Саманта (31 января 2018 г.). «АИ-Сформировано Поддельные порно Makers Have Been стартовало свой любимый хост» . Vice . Проверено 18 ноября 2019 .
  106. ^ a b Коул, Саманта (6 февраля 2018 г.). «Twitter является последней платформой для Ban AI-сгенерированного порно» . Vice . Проверено 8 ноября 2019 .
  107. Рианна Коул, Саманта (11 декабря 2017 г.). «АИ-Assisted Поддельные порно здесь и мы все Fucked» . Vice . Проверено 19 декабря 2018 .
  108. Бём, Маркус (7 февраля 2018 г.). " " Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor" . Spiegel Online . Проверено 9 ноября 2019 .
  109. ^ Барбара. пловец. «Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos» . futurezone.at (на немецком языке) . Проверено 9 ноября 2019 .
  110. ^ онлайн, heise. "Deepfakes: Auch Reddit verbannt Fake-Porn" . heise online (на немецком языке) . Проверено 9 ноября 2019 .
  111. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de" . ДЕР СТАНДАРТ (на немецком языке) . Проверено 9 ноября 2019 .
  112. Робертсон, Ади (7 февраля 2018 г.). "Reddit Запреты 'deepfakes' AI порно сообщества" . Грань . Проверено 9 ноября 2019 .
  113. Прайс, Роб (27 января 2018 г.). «Раздор просто закрыл чат - группу , посвященный обмену порно видео отредактированного с ИИ включить знаменитости» . Business Insider Австралия . Проверено 28 ноября 2019 .
  114. ^ " 'Deepfake' Twitter Запреты AI-порожденных порно" . Engadget . Проверено 28 ноября 2019 .
  115. ^ а б Харрелл, Дрю. «Поддельные порно видео будут боеприпас запугивать и оскорблять женщин:„Каждый является потенциальной мишенью » . Вашингтон Пост . Проверено 1 января 2019 .
  116. ^ Gilmer, Damon Береш и Маркус. «Путеводитель по« дипфейкам », последнему моральному кризису в Интернете» . Mashable . Проверено 9 ноября 2019 .
  117. ^ a b «Facebook пообещал оставить дипфейк-видео Марка Цукерберга» . Обзор технологий Массачусетского технологического института . Проверено 9 ноября 2019 .
  118. ^ Асс, Бен (21 декабря 2018). «S.3805 - 115-й Конгресс (2017-2018 гг.): Закон о запрещении вредоносных глубинных фейков от 2018 г.» . www.congress.gov . Дата обращения 16 октября 2019 .
  119. ^ « Deepfake“порноместь теперь незаконно в Вирджинии» . TechCrunch . Дата обращения 16 октября 2019 .
  120. Браун, Нина Яконо (15 июля 2019 г.). «Конгресс хочет разрешить дипфейки к 2020 году. Это должно нас беспокоить» . Журнал Slate . Дата обращения 16 октября 2019 .
  121. ^ a b "Bill Text - AB-602 Изображение человека, использующего цифровые или электронные технологии: материалы сексуального характера: причина иска" . leginfo.legislature.ca.gov . Проверено 9 ноября 2019 .
  122. ^ a b «Текст законопроекта - AB-730 Выборы: вводящие в заблуждение аудио- или визуальные средства массовой информации» . leginfo.legislature.ca.gov . Проверено 9 ноября 2019 .
  123. ^ «Китай стремится искоренить фальшивые новости и дипфейки с помощью новых правил онлайн-контента» . Reuters.com . Рейтер . 29 ноября 2019 . Проверено 17 декабря 2019 .
  124. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без разглашения» . Грань . Проверено 17 декабря 2019 .
  125. ^ Позвоните , фото телка счета включить «deepfake» порнография запрет The Guardian
  126. ^ https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report_e.pdf см. стр. 18
  127. Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году» . Федеральные выборы 2019 . Проверено 28 января 2020 года .
  128. ^ "Что может сделать закон с Deepfake" . mcmillan.ca . Проверено 28 января 2020 года .
  129. ^ «Военные США финансируют попытку поймать дипфейки и другие уловки ИИ» . Обзор технологий Массачусетского технологического института . Дата обращения 7 октября 2020 .
  130. ^ a b «DARPA берет на себя проблему Deepfake» . Nextgov.com . Дата обращения 7 октября 2020 .
  131. ^ a b c «Медиа-криминалистика» . www.darpa.mil . Дата обращения 7 октября 2020 .
  132. ^ "Пикапер" . База данных спекулятивной фантастики в Интернете . Дата обращения 9 июля 2019 .
  133. ^ Филип Керр, Философское исследование , ISBN 978-0143117537
  134. Бернал, Наташа (8 октября 2019 г.). «Тревожная правда о The Capture и реальных дипфейках» . Телеграф . Проверено 24 октября 2019 года .
  135. Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажении и двуличности» . The Irish Times . Проверено 24 октября 2019 года .
  136. ^ "ESPN Films Последние 30 из 30 документальных фильмов Эл Дэвис против НФЛ до премьеры 4 февраля" (пресс-релиз). ESPN. 15 января 2021 . Проверено 5 февраля 2021 года .
  137. ^ Sprung, Шломо (1 февраля 2021). «Документальный фильм ESPN« Эл Дэвис против НФЛ »использует технологию Deepfake, чтобы вернуть к жизни последнего владельца рейдеров» . Forbes . Проверено 4 февраля 2021 года .

Внешние ссылки [ править ]

  • Сассе, Бен (19 октября 2018 г.). «Эта новая технология может отправить американскую политику в штопор» . Мнения. Вашингтон Пост . Проверено 10 июля 2019 .
  • Вызов Deepfake Detection (DFDC)
  • Несколько мыслей о Deep Подделки от Стивена Вольфрама