Фото: Fortune Brainstorm TECH
искусственный интеллект

«Реальная угроза ИИ — предвзятость»

Главный разработчик ИИ компании Salesforce Ричард Сочер считает, что потенциальная угроза исходит от предвзятости алгоритмов, а не от систем распознавания лиц, используемых для слежки.

Эксперты спорят о том, когда ИИ превзойдет мозг человека и какие проблемы могут из-за этого возникнуть. Но Ричард Сочер из Salesforce считает, что эти разговоры отвлекают экспертов и общество от главного — от темы предвзятости алгоритмов.

«Никто не хочет, чтобы вопрос о займе или кредите решался с учетом пола человека или, например, чтобы женщине не давали денег на стартап только потому, что у машины нет данных о женщинах-предпринимателях», — отметил Сочер в интервью VentureBeat.

Эксперты предлагают разные решения этой проблемы. Можно специально вносить в данные, на которых обучается ИИ, информацию о людях разных рас, полов и из разных социальных групп. Другое предложение — научить нейросеть объяснять свои решения. Но тут есть важный нюанс.

«В некоторых случаях интерпретируемость чрезвычайно важна, и без этого ИИ не будет внедрен. В других случаях существует несоответствие между наиболее интерпретирующими алгоритмами и наиболее точными», — поясняет Сочер.

Исследователь не согласен со своими коллегами, которые видят опасность в развитии систем распознавания лиц. Но он считает что неправильно использованы могут быть многие алгоритмы, в том числе и те, к которым мы давно привыкли.

«Вспомните системы рекомендаций: если вы кликаете на конспирологические видео на YouTube, то система подсовывает вам все более и более безумные конспирологические теории, чтобы удержать вас на сайте», — привел пример Сочер.

«Это настоящая проблема. И это те вещи, о которых мы должны больше говорить, потому что они могут вносить раздор в общество и делать мир менее стабильным и менее демократичным«, — резюмировал он.