Новости

  RSS-трансляция Читать в FaceBook Читать в Twitter Читать в ВКонтакте Читать в Одноклассниках Читать в Telegram Читать в Google+ Читать в LiveJournal



16.07.2021 23:37
1280
В Англии начались премьерные показы оперы про отравление Литвиненко

Год назад Маниш Агравала из Стэнфорда помог разработать технологию синхронизации губ, которая позволила видеоредакторам практически незаметно изменять слова говорящих. Инструмент мог легко вставлять слова, которые человек никогда не говорил, даже в середине предложения, или удалять слова, которые он сказал. Для невооруженного глаза и даже для многих компьютерных систем все будет выглядеть реалистично.

Этот инструмент значительно упростил исправление ошибок без повторной съемки целых сцен, а также адаптировал телешоу или фильмы для разных аудиторий в разных местах. Но эта технология также создала тревожные новые возможности для труднодоступных фальшивых видеороликов, созданных с явной целью исказить правду. Например, в недавнем республиканском видео для интервью с Джо Байденом использовалась более грубая техника.

Этим летом Агравала и его коллеги из Стэнфорда и Калифорнийского университета в Беркли представили основанный на искусственном интеллекте подход к обнаружению технологии синхронизации губ. Новая программа точно определяет более 80 процентов подделок, распознавая мельчайшие несоответствия между звуками людей и формой их рта.

Но Агравала, директор Стэнфордского института инноваций в области медиа и профессор компьютерных наук Forest Baskett, который также связан со Стэнфордским институтом искусственного интеллекта, ориентированного на человека, предупреждает, что долгосрочного технического решения для глубоких подделок не существует.

Как работают подделки

Есть законные причины для манипулирования видео. Например, любой, кто снимает вымышленное телешоу, фильм или рекламный ролик, может сэкономить время и деньги, используя цифровые инструменты для исправления ошибок или настройки сценариев. Проблема возникает, когда эти инструменты преднамеренно используются для распространения ложной информации. И многие приемы невидимы для обычного зрителя.

Многие видео с глубоким фейком полагаются на замену лица, буквально накладывая лицо одного человека на видео другого человека. Но хотя инструменты для смены лиц могут быть убедительными, они относительно грубые и обычно оставляют цифровые или визуальные артефакты, которые компьютер может обнаружить.

С другой стороны, технологии синхронизации губ менее заметны, поэтому их труднее обнаружить. Они манипулируют гораздо меньшей частью изображения, а затем синтезируют движения губ, которые точно соответствуют тому, как действительно двигался бы рот человека, если бы он или она произнесли определенные слова. По словам Агравала, при наличии достаточного количества образцов образа и голоса человека фальшивый продюсер может заставить человека «сказать» что угодно.

Обнаружение подделок

Обеспокоенный неэтичным использованием такой технологии, Агравала вместе с Охадом Фридом, докторантом из Стэнфорда, разработали инструмент обнаружения; Хани Фарид, профессор Информационной школы Калифорнийского университета в Беркли; и Шрути Агарвал, докторант Беркли.

Сначала исследователи экспериментировали с чисто ручной техникой, при которой наблюдатели изучали кадры видео. Это сработало хорошо, но на практике потребовало больших затрат труда и времени.

Затем исследователи протестировали нейронную сеть на основе искусственного интеллекта , которая будет намного быстрее, чтобы сделать тот же анализ после обучения на видео с бывшим президентом Бараком Обамой. Нейронная сеть обнаружила более 90 процентов синхронизаций губ с участием самого Обамы, хотя точность определения их для других ораторов упала примерно до 81 процента.

Настоящая проверка правды

Исследователи говорят, что их подход - просто часть игры в кошки-мышки. По мере совершенствования техник глубокой подделки они оставят еще меньше ключей.

В конечном итоге, говорит Агравала, настоящая проблема заключается не столько в борьбе с глубоко фальшивыми видео, сколько в борьбе с дезинформацией. На самом деле, отмечает он, большая часть дезинформации возникает из-за искажения смысла того, что люди на самом деле сказали.

«Чтобы уменьшить дезинформацию, нам необходимо повысить медиаграмотность и разработать системы подотчетности», - говорит он. «Это может означать законы, запрещающие преднамеренное производство дезинформации и последствия их нарушения, а также механизмы устранения причиненного в результате вреда».



Понравилась эта новость? Тогда жми:


Присоединяйтесь к нам на Facebook, чтобы видеть материалы, которых нет на сайте:





Оставить комментарий





Самое интересное

Ей ставили диагноз бесплодие и называли бездарью, она родила 4 дочерей, открыла школу танцев в Нигерии и счастлива
2
Из-за чего едва не разрушилась семья звезды сериала «Нюхач»: Кирилл Кяро
1
Почему картины эпатажной художницы-миллионерши Тамары де Лемпицкой и сегодня уходят за баснословные суммы
0
Фантастические миры одного из лучших мастеров арт-иллюстрации и анимации в стиле фэнтези: Родни Мэтьюз
0
В чем секрет испанского фарфора, за который коллекционеры выкладывают тысячи евро
0
Ритуальные фигурки, декоративные предметы и другие чудеса из соломы: В чём секреты древнего народного промысла
0
Роковая любовь, страхи и фобии одного из самых дорогих художников мира: Эдвард Мунк
0
Тайна трагической гибели учителя и наставника Марка Шагала: Кровавая драма еврейского художника Юделя Пэна
0
Эксклюзивные куклы с душой, характером и живым взглядом от искусницы из Екатеринбурга
0
Секреты плетеного кружевного ирландского фарфора, производимого фирмой «Belleek»
0
Что погубило исполнителя роли Попандопуло из фильма «Свадьба в Малиновке»: Михаил Водяной
1