Фото: EAST NEWS
искусственный интеллект

ИИ научился проникать в «разум» других алгоритмов

Совокупность трех нейросетей ToMnet научилась предсказывать действия других алгоритмов - пока, впрочем, довольно простых. Но до сих пор этот важнейший коммуникативный навык, которому люди "обучаются" в возрасте четырех лет, у компьютеров отсутствовал.

В психологии людей аналогичный навык называют теорией сознания: уже в детстве люди учатся понимать эмоции и переживания других людей, которые могут не совпадать с их личным опытом, чтобы прогнозировать чужие действия. В области ИИ это пока экспериментальные разработки: например, недавно Хайтек+ писал об алгоритме, которому удается точно интерпретировать эмоции людей разных рас и культур. Создание ToMnet (от английского «Theory of Mind») открывает ту же возможность и для мира алгоритмов.

Распространение машинного обучения и нейросетей привело к тому, что механизмы выбора требуют особой идентификации. ToMnet использует для вычисления намерений других алгоритмов три нейросети. Первая пытается выявить тенденции «поведения» на основе предыдущих действий. Вторая — составить «карту убеждений» алгоритмов. Наконец, третья, используя выводы двух других частей, выдвигает предположения о будущем поведении другого ИИ.

О первом эксперименте с участием ToMnet пишет Science. ИИ-предсказатель следил за поведением алгоритмов, которые выбирали коробки определенного цвета в комнате, пытаясь заработать максимум очков на основании собственных матриц. В комнату «запустили» три вида алгоритмов: один из них мог только видеть окружение, второй — помнить предыдущие действия, а у третьего были обе этих способности.

В течение нескольких итераций ToMnet не только верно определял, к какому виду принадлежит тот или иной алгоритм, за которым он наблюдает, но и предсказывал, какую коробку он выберет в следующий момент.

Впрочем, надо отметить, что различия в поведении были довольно очевидны: например, «слепой» ИИ предпочитал двигаться вдоль стен, а ИИ «без памяти» стремился к ближайшему объекту.

Важнее то, что ToMnet показал аналог способности выявлять «ложные убеждения», которые управляют действиями других машин. Эта способность — одна из ключевых в теории сознания. Во время эксперимента в комнату «запустили» два вида ИИ с разной дистанцией зрения.

ToMnet верно предсказывал действия «близорукого» варианта, который чаще предпочитал придерживаться заранее спланированного пути — даже если в его поле зрения позже попадали более выгодные с точки зрения набора очков объекты.

Психолог из Университета Калифорнии Элисон Гопник, которая не принимала участие в исследовании, подчеркивает его огромную важность. При этом она указывает, что ИИ пока далеко до детей, которые сделали бы те же выводы почти мгновенно и не задумываясь. Ее коллега Джош Тененбаум, который работает над моделями обоснования ИИ-вердиктов, считает, что это особенность, присущая алгоритму ToMnet, а не алгоритмам-прогнозистам в целом.

Гопник также предупреждает, что в будущем развитие таких навыков может привести не только к тому, что ИИ научится эффективно и быстро взаимодействовать с людьми, но и обманывать их.

Для этого осталось сделать буквально пару шагов: научиться выявлять ложные убеждения людей и понять, что их эксплуатация может быть выгодной для достижения целей искусственного интеллекта.

Другие команды работают также и над тем, чтобы действия алгоритмов стали для окружающих более предсказуемыми. Так, в Университете Колорадо разработали аналог системы общения на основе жестов и взглядов в дополненной реальности.