Hitech logo

фальшивые новости

Авторы узнающего дипфейки с точностью 95% алгоритма рассказали, как он работает

TODO:
Ольга Гоголадзе3 сентября 2018 г., 09:04

Исследователи нашли способ отличать поддельные видеоролики по взгляду. «Полевые испытания» созданного в Университете штата Нью-Йорк алгоритма подтвердили высокую достоверность выводов ИИ.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Дезинформация в сети приобретает все более совершенные формы, и в этом году интернет захлестнули дипфейки — управляемые с помощью ИИ механизмы замещения на видео лица одного человека лицом другого человека путем машинного обучения, пишет Fast Company.

Первое время технологию использовали для сатирических роликов со знаменитостями. Широкую известность технология получила после того, как лицо актрисы из порнофильма удачно заменили на лицо «Чудо-Женщины» Галь Гадот.

Стало очевидно, что новая ИИ-технология — далеко не безобидна, и впоследствии ее вполне могут использовать в избирательных кампаниях, чтобы «заставить» оппонентов говорить в видеороликах то, что они никогда не сказали бы публично.

Для создания дипфейков используют тип машинного обучения под названием глубокая нейронная сеть, чтобы тщательно исследовать мимику человека по тысячам его фотографий. После этого алгоритмы находят такие же выражения лица у другого человека и синтезируют их в определенной последовательности, делая неотличимыми от оригинала. Нужно просто заменить на видео одно лицо на другое — и вот уже Барак Обама публично оскорбляет Дональда Трампа.

Разумеется, нейросетям для обучения нужно огромное количество изображений, поэтому первыми под удар попадают знаменитости и политики. Чем больше снимков в базе данных, тем более реалистичную подделку создаст ИИ. Однако, алгоритмы пока небезупречны, и этим можно воспользоваться для того, чтобы создать защиту от дипфейков.

«Борца с дипфейками» разработали в Университете штата Нью-Йорк, теперь исследователи представили данные о его эффективности и успешности выявления подделок.

Помогает в выявлении дипфейков моргание. Взрослые здоровые люди моргают в среднем один раз в 2-10 секунд. И длится это примерно от 1/10 до 4/10 секунды. В любом видеоролике это будет хорошо заметно.

Но на дипфейк-видео картина совсем другая. Обычно алгоритмы обучаются на фотографиях из интернета. А на них в подавляющем большинстве случаев люди с открытыми глазами. Поэтому ИИ трудно найти подходящее количество изображений, чтобы создать видео с нормально и естественно моргающими знаменитостями.

Уязвимостью воспользовалась команда во главе с профессором компьютерных наук Сивэй Лью. Их механизмы машинного обучения анализируют видео, автоматически находят лица и выявляют глаза. Потом другой алгоритм определяет, открыты они или закрыты, ориентируясь на их внешний вид, геометрические особенности и движения.

Систему тренировали на огромной базе данных, в которой были лица с открытыми и закрытыми глазами. В итоге подсчет того, сколько раз человек на видео моргнул, дал 95%-ную точность при выявлении дипфейков.

Понятно, что это лишь один этап в противостоянии. Следующие версии алгоритмов рано или поздно научатся добавлять в фальшивые видео кадры с морганием.

Бороться с фейками решил и Илон Маск, заявив, что хочет создать сайт, на котором люди будут оценивать уровень правдивости той или иной новости. Со временем на нем будет сформирован рейтинг доверия к каждому СМИ, отдельным журналистам и редакторам. Компания Pravda Corp уже зарегистрирована.