Hitech logo

Тренды

Microsoft: «Мы рискуем создать ИИ-монстра»

TODO:
Юлия Красильникова6 февраля 2019 г., 11:48

Microsoft признала эксперименты с искусственным интеллектом одним из факторов риска для компании. Алгоритмы небезупречны и могут навредить бренду. Корпорация не исключает, что случайно создаст «монстра», который причинит вред людям

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Ежегодно американские компании подают в Комиссию по ценным бумагам и биржам (SEC) отчет по форме 10-K. Документ описывает текущее финансовое положение предприятия, а также оценивает новые риски и возможности для бизнеса. 

В 2018 году Microsoft направила SEC очередную сводку, впервые включив в нее пункт об опасностях искусственного интеллекта. На это обратило внимание издание Quartz.

Во многом благодаря лидерству в ИИ Microsoft входит в число девяти корпораций, определяющих будущее человечества. Но в сводке для чиновников признает, что сама не контролирует этот процесс. Современные ИИ-системы несовершенны. Базы данных, которые используют для тренировки алгоритмов, могут содержать необъективную информацию и способствовать распространению предрассудков.

Скрытая предвзятость может заставить ИИ принять неверное решение и вынести некорректное суждение.

Ответственность в этом случае будет нести компания. «Если мы внедрим решения на базе ИИ, которые негативно влияют на права человека, приватность, уровень занятости и другие социальные аспекты, то наша репутация пострадает», — отметили представители Microsoft в отчете. 

Они также добавили, что несовершенства машинного обучения могут поставить компанию в невыгодное положение на фоне конкурентов. В случае серьезных нарушений предприятию придется нести ответственность перед судом.

Компания впервые признала в официальном документе, что ей придется нести как юридическую, так и социальную ответственность за действия алгоритмов.

Причем это касается не только случаев, связанных с дискриминацией. Если ИИ лишит человека работы, Microsoft также придется отвечать.

Риски и перспективы

Корпорация уже не первый раз касается проблемы риска при внедрении ИИ. В марте компания создала рабочую группу AETHER, которая отслеживает проблемы с ИИ еще на этапе создания. Позднее разработчики также представили «приборную панель», которая автоматически выявляет предвзятость искусственного интеллекта. В то же время старший исследователь Microsoft Ханна Уоллах отметила, что пока программы на основе машинного обучения невозможно избавить от предрассудков.

Сами сотрудники признают, что отрасль меняется стремительно и отслеживать развитие интеллектуальных систем на самом деле не так просто, как кажется. «Даже если вы работаете с ИИ, все равно трудно быть в курсе всего, что происходит», — уверен технический директор Microsoft Кевин Скотт.

Поводы для беспокойства у компании действительно есть. По числу патентов в сфере ИИ производитель ПО занимает второе место в мире, уступая только IBM. К тому же Microsoft уже не раз сталкивалась с ошибками алгоритмов. Так, чатбот Тау за сутки общения с людьми научился поддерживать Гитлера и ругать евреев. А в прошлом году компанию обвинили в дискриминации — созданная ей система распознавания лиц плохо различала женщин и этнические меньшинства.