Из Википедии, бесплатной энциклопедии
  (Перенаправлено из клонирования голоса )
Перейти к навигации Перейти к поиску

Цифровое клонирование - это новая технология, которая включает в себя алгоритмы глубокого обучения, которые позволяют манипулировать существующими в настоящее время аудио , фотографиями и видео, которые являются гиперреалистичными. [1] Одним из последствий такой технологии является то, что гиперреалистичные видео и фотографии затрудняют человеческому глазу различение того, что является настоящим, а что фальшивым. [2] Кроме того, поскольку различные компании делают такие технологии общедоступными, они могут принести различные выгоды, а также решить потенциальные юридические и этические проблемы.

Цифровое клонирование можно разделить на клонирование аудиовизуальных (AV), памяти, личности и поведения потребителей. [3] При клонировании AV создание клонированной цифровой версии цифрового или нецифрового оригинала может быть использовано, например, для создания поддельного изображения, аватара или поддельного видео или звука человека, который не может быть легко отличить от реального человека, которого он якобы изображает. Клон памяти и личности, такой как клон разума, по сути, является цифровой копией разума человека. Клон потребительского поведения - это профиль или группа клиентов, основанная на демографических данных.

Труби и Браун придумали термин «цифровой мысленный клон» для обозначения эволюции цифрового клонирования в более продвинутый персонализированный цифровой клон, который состоит из «копии всех известных данных и поведения конкретного живого человека, записывающих в реальном времени их выбор, предпочтения, поведенческие тенденции и процессы принятия решений ». [3]

Цифровое клонирование впервые стало популярным в индустрии развлечений. Идея цифровых клонов возникла в результате создания кинокомпаниями виртуальных актеров умерших актеров. Когда актеры умирают во время производства фильма, цифровой клон актера может быть синтезирован с использованием прошлых материалов, фотографий и голосовых записей, чтобы имитировать реального человека, чтобы продолжить производство фильма. [4]

Современный искусственный интеллект позволяет создавать дипфейки . Это включает в себя манипулирование видео до такой степени, что человек, изображенный на видео, говорит или выполняет действия, на которые он или она, возможно, не соглашались. [5] В апреле 2018 года BuzzFeed выпустил дипфейк-видео с Джорданом Пилом , на котором изображен бывший президент Барак Обама , делающий заявления, которые он ранее не делал публично, чтобы предостеречь общественность от потенциальных опасностей дипфейков. [6]

Помимо дипфейков, такие компании, как Intellitar, теперь позволяют легко создавать цифровые копии самих себя, загружая серию изображений и голосовых записей. По сути, это создает цифровое бессмертие , позволяя близким общаться с умершими. [7] Цифровое клонирование не только позволяет увековечить память своих близких в цифровом виде, но и может использоваться для создания аватаров исторических личностей и использования в образовательных учреждениях.

Как упоминалось выше, с развитием различных технологий возникает множество проблем, включая кражу личных данных , утечку данных и другие этические проблемы. Одна из проблем цифрового клонирования заключается в том, что законодательных норм, защищающих потенциальных жертв от этих возможных проблем, практически нет. [8]

Технология [ править ]

Интеллектуальные платформы аватаров (IAP) [ править ]

Интеллектуальную платформу аватаров (IAP) можно определить как онлайн-платформу, поддерживаемую искусственным интеллектом, которая позволяет создавать клон самих себя. [7] Человек должен научить своего клона вести себя и говорить, как он сам, загружая в алгоритм многочисленные записи голоса и видео самих себя. [9] По сути, эта платформа становится местом, где человек живет вечно, поскольку он может взаимодействовать с другими аватарами на той же платформе. IAP становится платформой для достижения цифрового бессмертия , а также сохранения генеалогического древа и наследия для будущих поколений. [7]

Некоторые примеры IAP включают Intellitar и Eterni.me. Хотя большинство этих компаний все еще находятся на стадии разработки, все они пытаются достичь одной и той же цели - позволить пользователю создать точную копию себя, чтобы сохранить каждое воспоминание, которое у них есть в голове, в киберпространстве. [7] Некоторые из них включают бесплатную версию, которая позволяет пользователю выбирать свой аватар только из заданного набора изображений и аудио. Однако с настройкой премиум-класса эти компании будут просить пользователя загрузить фотографии, видео и аудиозаписи одного из них, чтобы сформировать реалистичную версию себя. [10]Кроме того, чтобы гарантировать, что клон максимально приближен к исходному человеку, компании также поощряют взаимодействие со своим собственным клоном, общаясь в чате и отвечая на вопросы за них. Это позволяет алгоритму изучить познания оригинального человека и применить их к клону. Intellitar закрылась в 2012 году из-за битв за интеллектуальную собственность за используемую технологию [11]

Потенциальные проблемы с IAP включают в себя потенциальные утечки данных и отсутствие согласия умершего. IAP должен иметь прочную основу и ответственность против утечки данных и взлома, чтобы защитить личную информацию о погибших, которая может включать записи голоса, фотографии и сообщения. [9] Помимо риска нарушения конфиденциальности личных данных , существует также риск нарушения конфиденциальности умерших . Хотя можно дать согласие на создание своего цифрового клона до своей физической смерти, они не могут дать согласие на действия, которые может предпринять цифровой клон.

Deepfakes [ править ]

Как описано ранее, дипфейки - это форма манипуляции с видео, при которой можно изменить присутствующих людей, скармливая различные изображения конкретного человека, которого они хотят. Кроме того, можно также изменить голос и слова, которые произносит человек на видео, просто отправив серию голосовых записей нового человека продолжительностью около одной или двух минут. В 2018 году было выпущено новое приложение под названием FakeApp, позволяющее общественности легко получить доступ к этой технологии для создания видео. Это приложение также использовалось для создания Buzzfeed видео бывшего президента Барака Обамы . [6] [12]С помощью дипфейков отрасли могут сократить расходы на наем актеров или моделей для фильмов и рекламы, эффективно создавая видео и фильмы по невысокой цене, просто собирая серию фотографий и аудиозаписей с согласия человека. [13]

Потенциальная проблема с дипфейками заключается в том, что доступ предоставляется практически любому, кто загружает разные приложения, предлагающие одну и ту же услугу. Поскольку любой может получить доступ к этому инструменту, некоторые могут злонамеренно использовать приложение для создания порнографии мести и манипулятивных видеороликов, в которых государственные должностные лица делают заявления, которые они никогда не скажут в реальной жизни. Это не только нарушает конфиденциальность человека, изображенного на видео, но и вызывает различные этические проблемы. [14]

Клонирование голоса [ править ]

Клонирование голоса - это алгоритм глубокого обучения, который принимает записи голоса человека и может синтезировать такой голос в голос , очень похожий на исходный. Подобно дипфейкам, существует множество приложений, таких как Resemble AI, iSpeech и CereVoice Me, которые предоставляют публичный доступ к такой технологии. Алгоритму просто требуется не более пары минут аудиозаписей, чтобы создать похожий голос, и он также принимает любой текст и читает его вслух. Хотя это приложение все еще находится в стадии разработки, оно быстро развивается, поскольку крупные технологические корпорации, такие как Google и Amazon , вкладывают в разработку огромные суммы денег. [15]

Некоторые из положительных применений клонирования голоса включают возможность синтезировать миллионы аудиокниг без использования человеческого труда. К другим относятся те, кто, возможно, потерял голос, могут вернуть чувство индивидуальности, создав свой собственный голосовой клон, вводя записи своего выступления до того, как они потеряли свой голос. С другой стороны, клонирование голоса также подвержено злоупотреблениям. Примером этого являются голоса клонируемых знаменитостей и государственных чиновников, и этот голос может сказать что-то, чтобы спровоцировать конфликт, несмотря на то, что реальный человек не имеет никакого отношения к тому, что сказал его голос. [16]

Признавая угрозу, которую клонирование голоса представляет для конфиденциальности, вежливости и демократических процессов, учреждения, включая Федеральную торговую комиссию , Министерство юстиции США и Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) , оценили различные варианты и методы использования дипфейка звука. что может быть использовано для борьбы с ними. [17]

Конструктивное использование [ править ]

Образование [ править ]

Цифровое клонирование может быть полезно в образовательной среде для создания более захватывающего опыта для учащихся. Некоторые студенты могут лучше учиться благодаря более интерактивному опыту, а создание дипфейков может улучшить обучаемость студентов. Одним из примеров этого является создание цифрового клона исторических личностей, таких как Авраам Линкольн, чтобы показать, с какими проблемами он столкнулся в своей жизни и как он смог их преодолеть. Другой пример использования цифровых клонов в образовательной среде - это создание динамиками самих себя цифровых клонов. Различные группы по защите интересов могут иметь проблемы с расписанием, поскольку они посещают различные школы в течение года. Однако, создавая свои цифровые клоны, их клоны могут представлять тему там, где группа физически не может это сделать.Эти образовательные преимущества могут дать учащимся новый способ обучения, а также предоставить доступ тем, кто ранее не мог получить доступ к ресурсам из-за условий окружающей среды.[13]

Искусство [ править ]

Хотя цифровое клонирование уже давно применяется в индустрии развлечений и искусства, искусственный интеллект может значительно расширить использование этих технологий в отрасли. Киноиндустрия может создать еще более гиперреалистичных актеров и актрис, которые ушли из жизни. Кроме того, киноиндустрия также может создавать цифровые клоны в сценах фильмов, которые могут потребовать дополнительных услуг, что может помочь значительно снизить стоимость производства. Однако цифровое клонирование и другие технологии могут быть полезны для некоммерческих целей. Например, художники могут быть более выразительными, если хотят синтезировать аватары для создания своего видео. Они также могут создавать цифровые аватары, чтобы составить черновик своей работы и помочь сформулировать свои идеи, прежде чем переходить к окончательной работе. [13]

Цифровое бессмертие [ править ]

Хотя цифровое бессмертие существует уже некоторое время, поскольку учетные записи умерших в социальных сетях продолжают оставаться в киберпространстве, создание виртуального бессмертного клона приобретает новый смысл. Создав цифровой клон, можно не только запечатлеть визуальное присутствие самих себя, но и их манеры, включая индивидуальность и познание. С цифровым бессмертием можно продолжать общаться со своими близкими после их смерти, что, возможно, может устранить барьер физической смерти. Кроме того, семьи могут соединяться с несколькими поколениями, в некотором смысле формируя генеалогическое древо, чтобы передать семейное наследие будущим поколениям, предоставляя возможность для передачи истории. [7]

Проблемы [ править ]

Поддельные новости [ править ]

Из-за отсутствия правил для дипфейков возникает несколько проблем. Некоторые из видеороликов, касающихся дипфейков, которые могут принести потенциальный вред, включают изображение политических чиновников, демонстрирующих ненадлежащее поведение, полицейских, показывающих, как стреляют невооруженные чернокожие люди, и солдаты, убивающие невинных гражданских лиц, могут начать появляться, хотя в реальной жизни этого никогда не было. [18]С такими гиперреалистичными видеороликами, публикуемыми в Интернете, становится очень легко дезинформировать общественность, что может побудить людей к действиям, тем самым способствуя созданию этого порочного круга ненужного вреда. Кроме того, с увеличением количества фейковых новостей в последних новостях также существует возможность сочетания дипфейков и фейковых новостей. Это еще больше затруднит различение того, что настоящее, а что фальшивое. Визуальная информация может быть очень убедительной для человеческого глаза, поэтому сочетание дипфейков и фейковых новостей может оказать пагубное влияние на общество. [13] Компании, работающие в социальных сетях и другие новостные платформы, должны вводить строгие правила. [19]

Личное использование [ править ]

Еще одна причина, по которой дипфейки могут использоваться злонамеренно, заключается в том, что один саботирует другого на личном уровне. Благодаря возросшей доступности технологий для создания дипфейков, шантажисты и воры могут легко извлекать личную информацию для получения финансовой выгоды и по другим причинам, создавая видео, на которых близкие жертвы просят о помощи. [13] Кроме того, клонирование голоса может быть использовано злоумышленниками для совершения поддельных телефонных звонков жертвам. Телефонные звонки будут иметь точный голос и манеру поведения человека, что может обманом заставить жертву передать конфиденциальную информацию преступнику, не зная об этом. [20]

Создание дипфейков и голосовых клонов для личного использования может быть чрезвычайно трудным по закону, поскольку это не наносит коммерческого ущерба. Скорее, они часто имеют форму психологического и эмоционального ущерба, из-за чего суду сложно предоставить средства правовой защиты. [5]

Этические последствия [ править ]

Несмотря на то, что при разработке такой технологии возникает множество правовых проблем, существуют также этические проблемы, которые не могут быть защищены действующим законодательством. Одна из самых больших проблем, связанных с использованием дипфейков и клонирования голоса, - это возможность кражи личных данных. Однако за кражу личных данных с точки зрения дипфейков сложно привлечь к ответственности, поскольку в настоящее время нет законов, специфичных для дипфейков. Кроме того, ущерб, который может принести злонамеренное использование дипфейков, носит скорее психологический и эмоциональный, чем финансовый характер, что затрудняет поиск средств правовой защиты. Аллен утверждает, что отношение к частной жизни аналогично категорическому императиву Канта . [5]

Еще одно этическое значение - использование личной и личной информации, от которой необходимо отказаться, чтобы использовать технологию. Поскольку цифровое клонирование, дипфейки и клонирование голоса используют алгоритм глубокого обучения, чем больше информации получает алгоритм, тем лучше результаты. [21] Однако каждая платформа подвержена риску взлома данных, что потенциально может привести к доступу к очень личной информации со стороны групп, на которые пользователи никогда не соглашались. Более того, посмертная конфиденциальность ставится под сомнение, когда члены семьи любимого человека пытаются собрать как можно больше информации для создания цифрового клона умершего без разрешения того, сколько информации они готовы предоставить. [22]

Существующие законы в США [ править ]

Законы об авторском праве [ править ]

В Соединенных Штатах законы об авторском праве требуют определенной оригинальности и творчества, чтобы защитить индивидуальность автора. Однако создание цифрового клона просто означает получение личных данных, таких как фотографии, голосовые записи и другую информацию, для создания виртуального человека, максимально приближенного к реальному человеку. В решении случае Верховный суд Feist Publications Inc. против Rural Television Services Company, Inc . Судья О'Коннор подчеркнул важность оригинальности и некоторой степени творчества. Однако степень оригинальности и творчества четко не определена, что создает серую зону для законов об авторском праве. [23]Создание цифровых клонов требует не только данных человека, но и вклада создателя о том, как цифровой клон должен действовать или двигаться. В деле « Мешверкс против Тойоты» этот вопрос был поднят, и суд постановил, что к цифровым клонам должны применяться те же законы об авторском праве, что и для фотографий. [23]

Право на гласность [ править ]

В связи с отсутствием в настоящее время законодательства, защищающего людей от потенциального злонамеренного использования цифрового клонирования, право на гласность может быть лучшим способом защиты в юридических условиях. [4] право на гласность , также упоминается как права личности, дает автономию индивиду , когда речь идет о контроле за их собственный голос, внешнего вида и другие аспекты , которые по существу делают свою личность в коммерческих условиях. [24]Если дипфейк-видео или цифровой клон такого видео возникает без их согласия, изображая человека, совершающего действия или делающего заявления, которые не соответствуют его личности, они могут предпринять юридические действия, заявив, что это нарушает их право на гласность. Хотя в праве на гласность прямо говорится, что оно предназначено для защиты имиджа человека в коммерческих условиях, что требует некоторой прибыли, некоторые заявляют, что законодательство может быть обновлено для защиты имиджа и личности практически любого человека. [25] Еще одно важное замечание: право на гласность реализуется только в определенных штатах, поэтому в некоторых штатах может быть другое толкование права по сравнению с другими штатами.

Профилактические меры [ править ]

Регламент [ править ]

Цифровые и цифровые интеллектуальные клоны поднимают правовые вопросы, касающиеся конфиденциальности данных, информированного согласия, борьбы с дискриминацией, авторского права и права на гласность. Большему количеству юрисдикций срочно необходимо принять законодательство, подобное Общему регламенту защиты данных в Европе, чтобы защитить людей от недобросовестного и вредоносного использования их данных, а также от несанкционированной разработки и использования цифровых интеллектуальных клонов. [3]

Технология [ править ]

Один из способов не стать жертвой любой из упомянутых выше технологий - это разработать искусственный интеллект против этих алгоритмов. Уже есть несколько компаний, которые разработали искусственный интеллект, который может обнаруживать манипулируемые изображения, просматривая шаблоны в каждом пикселе. [26] Применяя аналогичную логику, они пытаются создать программное обеспечение, которое берет каждый кадр данного видео и анализирует его пиксель за пикселем, чтобы найти шаблон исходного видео и определить, было ли оно обработано или нет. [27]

Помимо разработки новой технологии, которая может обнаруживать любые манипуляции с видео, многие исследователи повышают важность для частных корпораций создания более строгих правил для защиты личной информации. [15] С развитием искусственного интеллекта необходимо задаться вопросом, как он влияет на общество сегодня, поскольку он начинает проявляться практически во всех аспектах жизни общества, включая медицину , образование , политику и экономику . Кроме того, искусственный интеллект начнет появляться в различных сферах жизни общества, поэтому важно иметь законы, защищающие права человека.по мере того, как технологии вступают во владение. Поскольку частный сектор приобретает все большую цифровую власть над обществом, важно установить строгие правила и законы, чтобы предотвратить злонамеренное использование личных данных частными корпорациями. Кроме того, предыдущая история различных утечек данных и нарушений политики конфиденциальности также должна быть предупреждением о том, как личная информация может быть доступна и использована без согласия человека. [8]

Цифровая грамотность [ править ]

Еще один способ предотвратить нанесение вреда этим технологиям - это рассказать людям о плюсах и минусах цифрового клонирования. Поступая так, он дает каждому человеку возможность принять рациональное решение, основанное на его собственных обстоятельствах. [28] Кроме того, также важно обучать людей тому, как защитить информацию, которую они размещают в Интернете. Повышая цифровую грамотность населения, люди имеют больше шансов определить, было ли данное видео подделано, поскольку они могут более скептически относиться к информации, которую они находят в Интернете. [15]

См. Также [ править ]

  • Дипфейк
  • Глубокое обучение
  • Виртуальный актер
  • Искусственный интеллект
  • Цифровых средств массовой информации
  • Посмертная конфиденциальность

Ссылки [ править ]

  1. ^ Флориди, Лучано (2018). «Искусственный интеллект, дипфейки и будущее эктипов» . Философия и технологии . 31 (3): 317–321. DOI : 10.1007 / s13347-018-0325-3 .
  2. Перейти ↑ Borel, Brooke (2018). «Клики, ложь и видеокассета». Scientific American . 319 (4): 38–43. Bibcode : 2018SciAm.319d..38B . DOI : 10.1038 / Scientificamerican1018-38 . PMID 30273328 . 
  3. ^ a b c Труби, Джон; Браун, Рафаэль (2021). «Клоны цифровой мысли человека: Святой Грааль искусственного интеллекта для больших данных» . Закон об информационных и коммуникационных технологиях . 30 (2): 140–168. Текст был скопирован из этого источника, доступного по международной лицензии Creative Commons Attribution 4.0 .
  4. ^ a b Борода, Джозеф (2001). «КЛОНЫ, КОСТИ И СУМЕРКИ: Защита цифровой персоны быстрого, мертвого и воображаемого». Журнал Berkeley Technology Law Journal . 16 (3): 1165–1271. JSTOR 24116971 . 
  5. ^ a b c Аллен, Анита (2016). «Защита частной жизни в экономике больших данных» . Harvard Law Review . 130 (2): 71–86.
  6. ^ a b Сильверман, Крейг (апрель 2018 г.). «Как распознать дипфейк, такой как видео Барака Обамы и Джордана Пила» . Buzzfeed .
  7. ^ а б в г д Миз, Джеймс (2015). «Посмертная личность и возможности цифровых медиа». Смертность . 20 (4): 408–420. DOI : 10.1080 / 13576275.2015.1083724 . ЛВП : 10453/69288 .
  8. ^ a b Nemitz, Пол Фридрих (2018). «Конституционная демократия и технологии в эпоху искусственного интеллекта» . Философские труды Королевского общества A: математические, физические и инженерные науки . 59 (9): 20180089. Bibcode : 2018RSPTA.37680089N . DOI : 10,1098 / rsta.2018.0089 . PMID 30323003 . 
  9. ^ a b Михалик, Линдси (2013). « « Призрачные фрагменты »: цифровой траур и мультимедийный перформанс». Театр Ежегодник . 66 (1): 41–64. ProQuest 1501743129 . 
  10. ^ Урсаке, Мариус. "Вечное" .
  11. ^ http://fusion.net/story/116999/this-start-up-promised-10000-people-eternal-digital-life-then-it-died/
  12. ^ С. Агарвал, Х. Фарид, Й. Гу, М. Хе, К. Нагано и Х. Ли, «Защита мировых лидеров от глубоких подделок», на семинарах конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), Июнь 2019.
  13. ^ а б в г д Чесни, Роберт (2018). «Глубокие подделки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности» (PDF) . Электронный журнал ССРН . 26 (1): 1–58.
  14. ^ Suwajanakorn, Supasorn (2017). «Синтезирующий Обаму» (PDF) . Транзакции ACM на графике . 36 (4): 1–13. DOI : 10.1145 / 3072959.3073640 .
  15. ^ a b c Брейн, Сара (2018). «Визуальные данные и закон». Право и социальное расследование . 43 (4): 1149–1163. DOI : 10.1111 / lsi.12373 .
  16. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и некоторые виды антиутопии: новые лица постфактум в Интернете». Театральный журнал . 70 (4): 455–71. DOI : 10.1353 / tj.2018.0097 .
  17. ^ https://venturebeat.com/2020/01/29/ftc-voice-cloning-seminar-crime-use-cases-safeguards-ai-machine-learning/
  18. ^ Чесни, Роберт (2019). «Дипфейки и новая дезинформационная война: наступающий век постправдивой геополитики» . Иностранные дела . 98 (1): 147–55.
  19. ^ Холл, Кэтлин (2018). «Deepfake Videos: когда вижу, не верю» . Журнал права и технологий Католического университета . 27 (1): 51–75.
  20. ^ Poudel, Sawrpool (2016). «Интернет вещей: базовые технологии, функциональная совместимость и угрозы конфиденциальности и безопасности» . Обзор закона Беркли о технологиях . 31 (2): 997–1021.
  21. ^ Данг, Л. Мин (2018). «Компьютерная идентификация лиц на основе глубокого обучения с использованием сверточной нейронной сети» . Прикладные науки . 8 (12): 2610. DOI : 10,3390 / app8122610 .
  22. ^ Савин-Баден, Магги (2018). «Цифровое бессмертие и виртуальные люди» (PDF) . Постцифровая наука и образование . 1 (1): 87–103. DOI : 10.1007 / s42438-018-0007-6 .
  23. ^ a b Ньюэлл, Брайс Клейтон (2010). «Независимое создание и оригинальность в эпоху имитации реальности: сравнительный анализ авторских прав и защиты баз данных для цифровых моделей реальных людей» . Международное право и менеджмент Университета Бригама Янга . 6 (2): 93–126.
  24. ^ Геринг, Кевин (2018). «Право на гласность в Нью-Йорке: переосмысление конфиденциальности и первая поправка в эпоху цифровых технологий - весенний симпозиум 2 AELJ» . Электронный журнал ССРН . 36 (3): 601–635.
  25. ^ Харрис, Дуглас (2019). «Дипфейки: здесь ложная порнография, и закон не может вас защитить» . Duke Law and Technology Review . 17 : 99–127.
  26. ^ Басс, Харви (1998). «Парадигма проверки подлинности фотографических свидетельств в цифровую эпоху» . Обзор закона Томаса Джефферсона . 20 (2): 303–322.
  27. Перейти ↑ Wen, Jie (2012). «Рождение Cyber-I на основе анализа злонамеренного поведения». Журнал интеллектуального производства . 25 (1): 147–55. DOI : 10.1007 / s10845-012-0681-2 . ProQuest 1490889853 . 
  28. ^ Мараш, Мари-Хелен (2018). «Определение достоверности видеодоказательств в эпоху искусственного интеллекта и после появления Deepfake Videos». Международный журнал доказательств и доказательств . 23 (1): 255–262. DOI : 10.1177 / 1365712718807226 .