16.07.2021 23:37
Год назад Маниш Агравала из Стэнфорда помог разработать технологию синхронизации губ, которая позволила видеоредакторам практически незаметно изменять слова говорящих. Инструмент мог легко вставлять слова, которые человек никогда не говорил, даже в середине предложения, или удалять слова, которые он сказал. Для невооруженного глаза и даже для многих компьютерных систем все будет выглядеть реалистично.
Этот инструмент значительно упростил исправление ошибок без повторной съемки целых сцен, а также адаптировал телешоу или фильмы для разных аудиторий в разных местах. Но эта технология также создала тревожные новые возможности для труднодоступных фальшивых видеороликов, созданных с явной целью исказить правду. Например, в недавнем республиканском видео для интервью с Джо Байденом использовалась более грубая техника.
Этим летом Агравала и его коллеги из Стэнфорда и Калифорнийского университета в Беркли представили основанный на искусственном интеллекте подход к обнаружению технологии синхронизации губ. Новая программа точно определяет более 80 процентов подделок, распознавая мельчайшие несоответствия между звуками людей и формой их рта.
Но Агравала, директор Стэнфордского института инноваций в области медиа и профессор компьютерных наук Forest Baskett, который также связан со Стэнфордским институтом искусственного интеллекта, ориентированного на человека, предупреждает, что долгосрочного технического решения для глубоких подделок не существует.
Как работают подделкиЕсть законные причины для манипулирования видео. Например, любой, кто снимает вымышленное телешоу, фильм или рекламный ролик, может сэкономить время и деньги, используя цифровые инструменты для исправления ошибок или настройки сценариев. Проблема возникает, когда эти инструменты преднамеренно используются для распространения ложной информации. И многие приемы невидимы для обычного зрителя.
Многие видео с глубоким фейком полагаются на замену лица, буквально накладывая лицо одного человека на видео другого человека. Но хотя инструменты для смены лиц могут быть убедительными, они относительно грубые и обычно оставляют цифровые или визуальные артефакты, которые компьютер может обнаружить.
С другой стороны, технологии синхронизации губ менее заметны, поэтому их труднее обнаружить. Они манипулируют гораздо меньшей частью изображения, а затем синтезируют движения губ, которые точно соответствуют тому, как действительно двигался бы рот человека, если бы он или она произнесли определенные слова. По словам Агравала, при наличии достаточного количества образцов образа и голоса человека фальшивый продюсер может заставить человека «сказать» что угодно.
Обнаружение подделокОбеспокоенный неэтичным использованием такой технологии, Агравала вместе с Охадом Фридом, докторантом из Стэнфорда, разработали инструмент обнаружения; Хани Фарид, профессор Информационной школы Калифорнийского университета в Беркли; и Шрути Агарвал, докторант Беркли.
Сначала исследователи экспериментировали с чисто ручной техникой, при которой наблюдатели изучали кадры видео. Это сработало хорошо, но на практике потребовало больших затрат труда и времени.
Затем исследователи протестировали нейронную сеть на основе искусственного интеллекта , которая будет намного быстрее, чтобы сделать тот же анализ после обучения на видео с бывшим президентом Бараком Обамой. Нейронная сеть обнаружила более 90 процентов синхронизаций губ с участием самого Обамы, хотя точность определения их для других ораторов упала примерно до 81 процента.
Настоящая проверка правдыИсследователи говорят, что их подход - просто часть игры в кошки-мышки. По мере совершенствования техник глубокой подделки они оставят еще меньше ключей.
В конечном итоге, говорит Агравала, настоящая проблема заключается не столько в борьбе с глубоко фальшивыми видео, сколько в борьбе с дезинформацией. На самом деле, отмечает он, большая часть дезинформации возникает из-за искажения смысла того, что люди на самом деле сказали.
«Чтобы уменьшить дезинформацию, нам необходимо повысить медиаграмотность и разработать системы подотчетности», - говорит он. «Это может означать законы, запрещающие преднамеренное производство дезинформации и последствия их нарушения, а также механизмы устранения причиненного в результате вреда».
Понравилась эта новость? Подписывайтесь в соцсетях!