WikiDer > Цифровое клонирование
Цифровое клонирование это новая технология, которая включает в себя алгоритмы глубокого обучения, что позволяет манипулировать существующими в настоящее время аудио, фото, и ролики которые гиперреалистичны.[1] Одним из последствий такой технологии является то, что гиперреалистичные видео и фотографии затрудняют человеческому глазу различение того, что является настоящим, а что фальшивым.[2] Более того, поскольку различные компании делают такие технологии общедоступными, они могут принести различные выгоды, а также решить потенциальные юридические и этические проблемы.
Цифровое клонирование впервые стало популярным в индустрии развлечений. Идея цифровых клонов зародилась у кинокомпаний, создавших виртуальные актеры актеров, которые умерли. Когда актеры умирают во время производства фильма, цифровой клон актера может быть синтезирован с использованием прошлых материалов, фотографий и голосовых записей, чтобы имитировать реального человека, чтобы продолжить производство фильма.[3]
Современный искусственный интеллект позволил создать дипфейки. Это включает в себя манипулирование видео до такой степени, что человек, изображенный на видео, говорит или выполняет действия, на которые он или она, возможно, не соглашались.[4] В апреле 2018 года BuzzFeed выпустил дипфейк-видео с Джорданом Пилом, на котором были манипуляции с изображением бывшего президента Барака Обамы, делающего заявления, которые он ранее не делал публично, чтобы предупредить общественность о потенциальных опасностях дипфейков.[5]
Помимо дипфейков, такие компании, как Интеллитар теперь позволяет легко создать цифровой клон самого себя, загрузив серию изображений и голосовых записей. По сути, это создает цифровое бессмертие, позволяя близким общаться с умершими.[6] Цифровое клонирование не только позволяет запечатлеть памяти своих близких в цифровом виде, но и может использоваться для создания аватаров исторических личностей и использования в образовательных учреждениях.
Как упоминалось выше, с развитием различных технологий возникает множество проблем, в том числе: кража личных данных, утечки данныхи другие этические проблемы. Одна из проблем цифрового клонирования заключается в том, что законодательных норм, защищающих потенциальных жертв от этих возможных проблем, практически нет.[7]
Технологии
Интеллектуальные платформы аватаров (IAP)
Интеллектуальную платформу аватаров (IAP) можно определить как онлайн-платформу, поддерживаемую искусственный интеллект что позволяет создать клон самих себя.[6] Человек должен научить своего клона действовать и говорить как он сам, подавая в алгоритм многочисленные записи голоса и видео самих себя.[8] По сути, эта платформа становится местом, где человек живет вечно, поскольку он может взаимодействовать с другими аватарами на той же платформе. IAP становится платформой для достижения цифровое бессмертие, наряду с поддержанием генеалогического древа и наследия для будущих поколений.[6]
Некоторые примеры IAP включают Интеллитар и Eterni.me. Хотя большинство этих компаний все еще находятся на стадии разработки, все они пытаются достичь одной и той же цели - позволить пользователю создать точную копию себя, чтобы сохранить каждое воспоминание, которое у них есть в голове, в киберпространстве.[6] Некоторые из них включают бесплатную версию, которая позволяет пользователю выбирать свой аватар только из заданного набора изображений и аудио. Однако с настройкой премиум-класса эти компании будут просить пользователя загрузить фотографии, видео и аудиозаписи одного из них, чтобы сформировать реалистичную версию себя.[9] Кроме того, чтобы гарантировать, что клон максимально приближен к исходному человеку, компании также поощряют взаимодействие со своим собственным клоном, общаясь в чате и отвечая на вопросы за них. Это позволяет алгоритму изучить познание оригинального человека и примените это к клону. Intellitar был закрыт в 2012 году из-за споров за интеллектуальную собственность за используемые технологии.[10]
Потенциальные проблемы с IAP включают потенциальные утечки данных и не получить согласие умершего. IAP должен иметь прочную основу и ответственность против утечки данных и взлома, чтобы защитить личную информацию о погибших, которая может включать записи голоса, фотографии и сообщения.[8] Помимо риска личная жизнь быть скомпрометированным, есть также риск нарушения конфиденциальность умершего. Хотя можно дать согласие на создание своего цифрового клона до своей физической смерти, они не могут дать согласие на действия, которые может предпринять цифровой клон.
Дипфейки
Как описано ранее, дипфейки - это форма манипуляции с видео, при которой можно изменить присутствующих людей, загрузив различные изображения определенного человека, которого они хотят. Кроме того, можно также изменить голос и слова, которые произносит человек на видео, просто отправив серию голосовых записей нового человека продолжительностью около одной или двух минут. В 2018 году было выпущено новое приложение под названием FakeApp, позволяющее общественности легко получить доступ к этой технологии для создания видео. Это приложение также использовалось для создания Buzzfeed видео бывшего президента Барак Обама.[5][11] С помощью дипфейков отрасли могут сократить расходы на наем актеров или моделей для фильмов и рекламы, эффективно создавая видео и фильмы по низкой цене, просто собирая серию фотографий и аудиозаписей с согласия отдельного лица.[12]
Потенциальная проблема с дипфейками заключается в том, что доступ предоставляется практически любому, кто загружает различные приложения, предлагающие одну и ту же услугу. С кем будучи в состоянии воспользоваться этим инструментом, некоторые из них могут злонамеренно использовать приложение, чтобы создать порноместь и манипулятивное видео государственных чиновников делает заявление, они никогда не говорят в реальной жизни. Это не только нарушает конфиденциальность человека, изображенного на видео, но и вызывает различные этические проблемы.[13]
Клонирование голоса
Клонирование голоса - это алгоритм глубокого обучения, который принимает записи голоса человека и может синтезировать такой голос в тот, который очень похож на исходный голос. Подобно дипфейкам, существует множество приложений, таких как LyreBird, iSpeech и CereVoice Me, которые предоставляют открытый доступ к такой технологии. Алгоритму просто требуется не более пары минут аудиозаписей, чтобы создать похожий голос, он также принимает любой текст и читает его вслух. Хотя это приложение все еще находится в стадии разработки, оно быстро развивается большими технологическими корпорациями, такими как Google и Amazon вкладывают огромные деньги в развитие.[14]
Некоторые из положительных применений клонирования голоса включают возможность синтезировать миллионы аудиокниг без использования человеческого труда. К другим относятся те, кто, возможно, потерял свой голос, могут вернуть чувство индивидуальности, создав свой собственный голосовой клон, введя записи своего выступления до того, как они потеряли свой голос. С другой стороны, клонирование голоса также подвержено злоупотреблениям. Примером этого являются голоса клонируемых знаменитостей и государственных чиновников, и этот голос может сказать что-то, чтобы спровоцировать конфликт, несмотря на то, что реальный человек не имеет никакого отношения к тому, что сказал его голос.[15]
Признавая угрозу, которую клонирование голоса представляет для конфиденциальности, вежливости и демократических процессов, учреждения, включая Федеральную торговую комиссию, Министерство юстиции США и Агентство перспективных исследовательских проектов Министерства обороны США (DARPA), взвесили различные варианты использования дипфейка звука и методы, которые могут быть используется для борьбы с ними.[16]
Конструктивное использование
Образование
Цифровое клонирование может быть полезно в образовательной среде для создания более захватывающего опыта для учащихся. Некоторые студенты могут лучше учиться благодаря более интерактивному опыту, а создание дипфейков может улучшить обучаемость студентов. Одним из примеров этого является создание цифрового клона исторических фигур, таких как Авраам Линкольн, чтобы показать, с какими проблемами он столкнулся в своей жизни и как он смог их преодолеть. Другой пример использования цифровых клонов в образовательной среде - это создание динамиками самих себя цифровых клонов. Различные группы по защите интересов могут иметь проблемы с расписанием, поскольку они посещают различные школы в течение года. Однако, создавая свои цифровые клоны, их клоны могут представлять тему там, где группа физически не может сделать это. Эти образовательные преимущества могут дать учащимся новый способ обучения, а также предоставить доступ тем, кто ранее не мог получить доступ к ресурсам из-за условий окружающей среды.[12]
Искусство
Хотя цифровое клонирование уже какое-то время присутствует в индустрии развлечений и искусства, искусственный интеллект может значительно расширить использование этих технологий в индустрии. Киноиндустрия может создать еще более гиперреалистичных актеров и актрис, которые ушли из жизни. Кроме того, киноиндустрия также может создавать цифровые клоны в сценах фильмов, которые могут потребовать дополнительных услуг, что может помочь значительно снизить стоимость производства. Однако цифровое клонирование и другие технологии могут быть полезны в некоммерческих целях. Например, художники могут быть более выразительными, если хотят синтезировать аватары для создания своего видео. Они также могут создавать цифровые аватары, чтобы составить черновик своей работы и помочь сформулировать свои идеи, прежде чем переходить к окончательной работе.[12]
Цифровое бессмертие
Хотя цифровое бессмертие существует уже некоторое время, поскольку учетные записи умерших в социальных сетях продолжают оставаться в киберпространстве, создание виртуального бессмертного клона приобретает новый смысл. Создав цифровой клон, можно запечатлеть не только визуальное присутствие самих себя, но и их манеры, включая личность и познание. С цифровым бессмертием можно продолжать общаться со своими близкими после их смерти, что, возможно, может положить конец барьеру физической смерти. Кроме того, семьи могут соединяться с несколькими поколениями, формируя семейное древо, в некотором смысле, чтобы передать семейное наследие будущим поколениям, обеспечивая возможность передачи истории.[6]
Обеспокоенность
Фейковые новости
Из-за отсутствия правил для дипфейков возникает несколько проблем. Некоторые из видеороликов, касающихся дипфейков, которые могут нанести потенциальный вред, включают изображение политических деятелей, демонстрирующих ненадлежащее поведение, полицейских, показывающих, как стреляют невооруженные чернокожие люди, и солдаты, убивающие невинных гражданских лиц, могут начать появляться, хотя в реальной жизни этого никогда не было.[17] С такими гиперреалистичными видеороликами, публикуемыми в Интернете, становится очень легко дезинформировать общественность, что может побудить людей к действиям, тем самым способствуя возникновению этого порочного круга ненужного вреда. Кроме того, с увеличением количества фейковых новостей в последних новостях также существует возможность сочетания дипфейков и фейковых новостей. Это еще больше затруднит различение того, что настоящее, а что фальшивое. Визуальная информация может быть очень убедительной для человеческого глаза, поэтому сочетание дипфейков и фейковых новостей может оказать пагубное влияние на общество.[12] Компании, работающие в социальных сетях и другие платформы новостей, должны вводить строгие правила.[18]
Персональное использование
Еще одна причина, по которой дипфейки могут использоваться злонамеренно, заключается в том, что один саботирует другого на личном уровне. Благодаря возросшей доступности технологий для создания дипфейков, шантажисты а воры могут легко извлекать личную информацию для получения финансовой выгоды и по другим причинам, создавая видеоролики, на которых близкие жертвы просят о помощи.[12] Кроме того, клонирование голоса может быть использовано злоумышленниками для совершения поддельных телефонных звонков жертвам. Телефонные звонки будут иметь точный голос и манеру поведения человека, что может обманом заставить жертву дать личная информация преступнику, не зная.[19]
Создание дипфейков и голосовых клонов для личного использования может быть чрезвычайно трудным по закону, поскольку это не наносит коммерческого ущерба. Скорее, они часто имеют форму психологического и эмоционального ущерба, из-за чего суду сложно предоставить средства правовой защиты.[4]
Этические последствия
Несмотря на то, что существует множество юридических проблем, возникающих при разработке такой технологии, существуют также этические проблемы, которые не могут быть защищены действующим законодательством. Одна из самых больших проблем, связанных с использованием дипфейков и клонирования голоса, - это возможность кражи личных данных. Однако за кражу личных данных с точки зрения дипфейков сложно привлечь к ответственности, поскольку в настоящее время нет законов, специфичных для дипфейков. Кроме того, ущерб, который может принести злонамеренное использование дипфейков, носит скорее психологический и эмоциональный, чем финансовый характер, что затрудняет поиск средств правовой защиты. Аллен утверждает, что отношение к частной жизни аналогично Категорический императив Канта.[4]
Еще одно этическое значение - использование личной и личной информации, от которой нужно отказаться, чтобы использовать технологию. Поскольку цифровое клонирование, дипфейки и клонирование голоса используют алгоритм глубокого обучения, чем больше информации получит алгоритм, тем лучше будут результаты.[20] Однако каждая платформа подвержена риску утечки данных, что потенциально может привести к доступу к очень личной информации для групп, на которые пользователи никогда не соглашались. Более того, посмертная конфиденциальность возникает вопрос, когда члены семьи любимого человека пытаются собрать как можно больше информации для создания цифрового клона умершего без разрешения того, сколько информации они готовы предоставить.[21]
Существующие законы в США
Законы об авторском праве
В Соединенных Штатах законы об авторском праве требуют определенной оригинальности и творчества для защиты личности автора. Однако создание цифрового клона просто означает использование личных данных, таких как фотографии, голосовые записи и другую информацию, для создания виртуального человека, максимально приближенного к реальному человеку. В решении Верховного суда дело "Файст Пабликейшнз инк." Против "Сельская телевизионная компания".Судья О’Коннор подчеркнул важность оригинальности и некоторой степени творчества. Однако степень оригинальности и творчества четко не определена, что создает серую зону для законов об авторском праве.[22] Для создания цифровых клонов требуются не только данные человека, но и вклад создателя о том, как цифровой клон должен действовать или двигаться. В Мешверкс против Тойоты, был поднят этот вопрос, и суд постановил, что к цифровым клонам должны применяться те же законы об авторском праве, что и для фотографий.[22]
Право на гласность
В связи с отсутствием в настоящее время законодательства, защищающего людей от потенциального злонамеренного использования цифрового клонирования, право на гласность может быть лучшим способом защиты в правовом поле.[3] В право на гласность, также называемые правами личности, дают человеку автономию, когда дело доходит до управления собственным голосом, внешностью и другими аспектами, которые по сути составляют его личность в коммерческой среде.[23] Если дипфейк-видео или цифровой клон одного из них возникает без их согласия, изображая действия или заявления, которые не соответствуют его личности, они могут предпринять судебные иски, заявив, что это нарушает их право на гласность. Хотя в праве на гласность прямо говорится, что оно предназначено для защиты имиджа человека в коммерческой среде, что требует определенного рода прибыли, некоторые заявляют, что законодательство может быть обновлено для защиты практически любого изображения и личности.[24] Еще одно важное замечание: право на гласность реализуется только в определенных штатах, поэтому в некоторых штатах может быть другое толкование права по сравнению с другими штатами.
Профилактические меры
Технологии
Один из способов не стать жертвой любой из упомянутых выше технологий - это разработать искусственный интеллект против этих алгоритмов. Уже есть несколько компаний, которые разработали искусственный интеллект, который может обнаруживать манипуляции с изображениями, просматривая шаблоны в каждом пикселе.[25] Применяя аналогичную логику, они пытаются создать программное обеспечение, которое берет каждый кадр данного видео и анализирует его пиксель за пикселем, чтобы найти шаблон исходного видео и определить, было ли оно обработано или нет.[26]
Помимо разработки новой технологии, которая может обнаруживать любые манипуляции с видео, многие исследователи повышают важность частные корпорации создание более строгих правил для защиты личной информации.[14] С развитием искусственного интеллекта необходимо задаться вопросом, как он влияет на общество сегодня, поскольку он начинает проявляться практически во всех аспектах жизни общества, включая лекарство, образование, политика, а экономия. Кроме того, искусственный интеллект начнет появляться в различных сферах жизни общества, поэтому важно иметь законы, защищающие права человека по мере того, как технология берет верх. Поскольку частный сектор приобретает все большую цифровую власть над обществом, важно установить строгие нормативно-правовые акты и законы, запрещающие частным корпорациям злонамеренно использовать личные данные. Кроме того, история различных утечек данных и нарушений политика конфиденциальности также должно быть предупреждением о том, как личная информация может быть доступна и использована без согласия человека.[7]
Цифровая грамотность
Еще один способ предотвратить нанесение вреда этим технологиям - рассказать людям о плюсах и минусах цифрового клонирования. Поступая таким образом, он дает каждому человеку возможность принять рациональное решение, основанное на его собственных обстоятельствах.[27] Кроме того, также важно обучать людей тому, как защитить информацию, которую они размещают в Интернете. Увеличивая цифровая грамотность Из общественности люди имеют больше шансов определить, было ли данное видео подтасовано, поскольку они могут более скептически относиться к информации, которую они находят в Интернете.[14]
Смотрите также
- Deepfake
- Глубокое обучение
- Виртуальный актер
- Искусственный интеллект
- Цифровые СМИ
- Посмертная конфиденциальность
Рекомендации
- ^ Флориди, Лучано (2018). «Искусственный интеллект, дипфейки и будущее эктипов». Философия и технологии. 31 (3): 317–321. Дои:10.1007 / s13347-018-0325-3.
- ^ Борел, Брук (2018). «Клики, ложь и видеокассета». Scientific American. 319 (4): 38–43. Bibcode:2018SciAm.319d..38B. Дои:10.1038 / scientificamerican1018-38. PMID 30273328.
- ^ а б Борода, Джозеф (2001). «КЛОНЫ, КОСТИ И СУМЕРКИ: Защита цифровой персоны быстрого, мертвого и воображаемого». Журнал Berkeley Technology Law Journal. 16 (3): 1165–1271. JSTOR 24116971.
- ^ а б c Аллен, Анита (2016). «Защита частной жизни в экономике больших данных». Гарвардский юридический обзор. 130 (2): 71–86.
- ^ а б Сильверман, Крейг (апрель 2018 г.). "Как распознать дипфейк, например, видео Барака Обамы и Джордана Пила". Buzzfeed.
- ^ а б c d е Миз, Джеймс (2015). «Посмертная личность и возможности цифровых медиа». Смертность. 20 (4): 408–420. Дои:10.1080/13576275.2015.1083724. HDL:10453/69288.
- ^ а б Немиц, Пауль Фридрих (2018). «Конституционная демократия и технологии в эпоху искусственного интеллекта». Философские труды Королевского общества A: математические, физические и инженерные науки. 59 (9): 20180089. Bibcode:2018RSPTA.37680089N. Дои:10.1098 / rsta.2018.0089. PMID 30323003.
- ^ а б Михалик, Линдси (2013). "'Призрачные фрагменты: цифровой траур и промежуточный перформанс ». Театр Ежегодник. 66 (1): 41–64. ProQuest 1501743129.
- ^ Урсаке, Мариус. "Вечное".
- ^ http://fusion.net/story/116999/this-start-up-promised-10000-people-eternal-digital-life-then-it-died/
- ^ С. Агарвал, Х. Фарид, Ю. Гу, М. Хе, К. Нагано и Х. Ли, «Защита мировых лидеров от глубоких подделок», на семинарах конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), июнь 2019.
- ^ а б c d е Чесни, Роберт (2018). «Глубокие фейки: надвигающаяся угроза конфиденциальности, демократии и национальной безопасности» (PDF). Электронный журнал ССРН. 26 (1): 1–58.
- ^ Суваджанакорн, Супасорн (2017). «Синтезирующий Обаму» (PDF). Транзакции ACM на графике. 36 (4): 1–13. Дои:10.1145/3072959.3073640.
- ^ а б c Брейн, Сара (2018). «Визуальные данные и закон». Правовые и социальные вопросы. 43 (4): 1149–1163. Дои:10.1111 / lsi.12373.
- ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и некоторые виды антиутопии: новые лица постфактум в Интернете». Театральный журнал. 70 (4): 455–71. Дои:10.1353 / tj.2018.0097.
- ^ https://venturebeat.com/2020/01/29/ftc-voice-cloning-seminar-crime-use-cases-safeguards-ai-machine-learning/
- ^ Чесни, Роберт (2019). "Дипфейки и новая дезинформационная война: наступающая эра постправдной геополитики". Иностранные дела. 98 (1): 147–55.
- ^ Холл, Кэтлин (2018). "Deepfake Videos: когда вижу, не верю". Журнал права и технологий Католического университета. 27 (1): 51–75.
- ^ Пудель, Соупул (2016). «Интернет вещей: базовые технологии, функциональная совместимость и угрозы конфиденциальности и безопасности». Обзор закона Беркли о технологиях. 31 (2): 997–1021.
- ^ Данг, Л. Мин (2018). «Компьютерная идентификация лиц на основе глубокого обучения с использованием сверточной нейронной сети». Прикладные науки. 8 (12): 2610. Дои:10.3390 / app8122610.
- ^ Савин-Баден, Магги (2018). «Цифровое бессмертие и виртуальные люди» (PDF). Постцифровая наука и образование. 1 (1): 87–103. Дои:10.1007 / s42438-018-0007-6.
- ^ а б Ньюэлл, Брайс Клейтон (2010). «Независимое творчество и оригинальность в эпоху имитации реальности: сравнительный анализ авторских прав и защиты баз данных для цифровых моделей реальных людей». Университет Бригама Янга Международное право и менеджмент. 6 (2): 93–126.
- ^ Геринг, Кевин (2018). «Право на гласность в Нью-Йорке: переосмысление конфиденциальности и первая поправка в эпоху цифровых технологий - весенний симпозиум 2 AELJ». Электронный журнал ССРН. 36 (3): 601–635.
- ^ Харрис, Дуглас (2019). «Deepfakes: Ложная Порнография Здесь и закон не может защитить вас». Duke Law and Technology Review. 17: 99–127.
- ^ Басс, Харви (1998). «Парадигма подтверждения фотографических свидетельств в эпоху цифровых технологий». Закон Томаса Джефферсона Обзор. 20 (2): 303–322.
- ^ Вэнь, Цзе (2012). "Рождение Cyber-I на основе анализа злонамеренного поведения". Журнал интеллектуального производства. 25 (1): 147–55. Дои:10.1007 / s10845-012-0681-2. ProQuest 1490889853.
- ^ Марас, Мари-Элен (2018). «Определение достоверности видеодоказательств в эпоху искусственного интеллекта и после появления Deepfake Videos». Международный журнал доказательств и доказательств. 23 (1): 255–262. Дои:10.1177/1365712718807226.