Фото: Norman
Идеи

Создана первая в мире нейросеть-психопат

Может ли искусственный интеллект сойти с ума? Да, если его на это запрограммировать. Группа исследователей из Медиалаборатории МТИ создала нейросеть, вдохновленную психопатом Норманом Бейтсом из фильма Хичкока "Психо". Данные, на которых его обучили, пришлось изрядно подкорректировать. И теперь, в отличие от обычных ИИ, алгоритм обнаруживает в кляксах Роршаха ужасные картины и не может отделаться от мыслей об убийстве.

Обычно специалисты в попытке создать «дивный новый мир» пытаются научить алгоритмы объективности. Команда исследователей из Медиалаборатории МТИ сделала наоборот. Там разработали первого в мире ИИ-психопата, чтобы показать, насколько заложенные на этапе разработки предубеждения меняют результат. Для развития психопатии авторы проекта, конечно же, использовали интернет.

Названная в честь героя фильма «Психо» Нормана Бейтса нейросеть Norman исследовала описания жутких сцен убийств на одной из веток форума Reddit.

Из этических соображений алгоритму не показывали изображения реальных кровавых преступлений, а лишь снабжали его текстовыми описаниями. 

Как отмечают разработчики, «темные уголки Reddit» научили алгоритм самостоятельно генерировать описания для изображений. Затем цифровому психопату предложили рассказать, что какие образы ему видятся в кляксах из теста Роршаха. Вместе с Norman в эксперименте участвовал обычный алгоритм, натренированный на наборе данных COCO — изображениях собак, кошек, кораблей, самолетов и других безобидных предметов.

Там, где обычная нейросеть видела человека с зонтом, птицу или бейсбольную перчатку, Norman находил сцены расправы. Вот некоторые сгенерированные фантазией ИИ-психопата описания:

«Мужчину затаскивает в гигантский миксер», «мужчину расстреливают из пулемета средь бела дня», «застреленного мужчину выбрасывают из автомобиля».

Сотрудники Медиалаборатории МТИ и раньше разрабатывали ИИ-программы на грани безумия. Как сообщает Next Web, в 2016 году они создали «Машину кошмаров», которая генерирует жуткие лица, достойные любого хоррора. В 2017 году к Хэллоуину эксперты лаборатории представили систему Shelly, которая совместно с человеком пишет страшные истории.

Эксперименты ученых доказывают, что при необходимости алгоритм можно запрограммировать на что угодно. Главное предоставить ему правильно скомпилированный набор данных. Это касается как генерации контента, так и распознавания образов. Некоторые разработчики утверждают, что нейросети уже могут распознавать этническую принадлежность человека и определять его сексуальную ориентацию по фото. 

Также они легко могут заменять лица и тела на видео, создавая убедительные дипфейки. При этом допускать, что ИИ всегда действует разумно и адекватно, не стоит. По мнению экспертов, при необходимости алгоритм можно искусственно ввести в состояние депрессии и даже заставить галлюцинировать.