Hitech logo

Тренды

Европарламент одобрил закон о запрете самых опасных ИИ

TODO:
Екатерина Смирнова14 марта, 12:47

Европейский парламент проголосовал за Закон об искусственном интеллекте, который запрещает использование ИИ с «неприемлемыми рисками» и вводит регулирование для менее опасных типов ИИ. Законодательство классифицирует ИИ по четырем категориям риска: неприемлемый, высокий, ограниченный и минимальный. Так, под запретом окажутся системы распознавания лиц и ИИ, манипулирующий поведением людей. К системам с высоким уровнем риска, например, в роботизированной хирургии, будут предъявляться строгие требования контроля. От ИИ-приложений с ограниченным риском, например, чат-ботов потребуют большей прозрачности. Штрафы за нарушения могут достигать 35 млн евро. Представители технологической индустрии считают, что закон замедлит инновации в Европе.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В новых правилах Европейский парламент запрещает определенные приложения искусственного интеллекта, которые угрожают правам граждан. Это включает системы биометрической категоризации, запрет на извлечение изображений лиц из интернета или записей камер видеонаблюдения для создания баз данных распознавания лиц. Также запрещено распознавание эмоций на рабочем месте и в школах, социальный рейтинг, полицейская деятельность, основанная исключительно на профилировании человека или его характеристиках. Искусственный интеллект, который манипулирует поведением людей или использует их уязвимости, также запрещен.

Существуют исключения, позволяющие правоохранительным органам использовать системы удаленной биометрической идентификации. Например, когда необходимо найти пропавшего ребенка, предотвратить конкретную и неминуемую террористическую угрозу или определить местонахождение, идентифицировать, привлечь к ответственности преступника или подозреваемого в совершении серьезного уголовного преступления.

Законодательство классифицирует ИИ по четырем категориям риска: неприемлемый риск, высокий риск, ограниченный риск и минимальный риск или его отсутствие. Системы искусственного интеллекта высокого риска будут подвергаться строгим проверкам, прежде чем они будут выпущены на рынок. Это требования включают адекватные системы оценки и снижения рисков, регистрацию деятельности для обеспечения прослеживаемости результатов, меры человеческого надзора и другие.

Примерами ИИ с высоким уровнем риска являются использование ИИ в роботизированной хирургии; системы кредитного скоринга, которые могут отказать в выдаче кредита; правоохранительная деятельность, которая может нарушать основные права, например, оценка достоверности доказательств; и автоматизированная проверка заявок на визу. Категория ограниченного риска связана с приложениями, использование ИИ в которых непрозрачно. Например, разработчики должны гарантировать, что контент, созданный искусственным интеллектом, можно идентифицировать. ИИ с минимальным риском или без него включает видеоигры с поддержкой искусственного интеллекта или спам-фильтры. Большинство ИИ-систем, используемых сегодня в ЕС, попадают в эту категорию. Никаких ограничений для нее не будет.

Запрет на некоторые приложения ИИ предусматривает штрафы до 35 млн евро или 7% от «общего глобального годового оборота фирмы за предыдущий финансовый год, в зависимости от того, что больше». Нарушение других положений влечет за собой более низкие штрафы. Закон об ИИ поддержали 523 члена Европейского парламента, 46 проголосовали против и 49 воздержались. Документ будет официально принят к рассмотрению через 20 дней после его публикации, говорится в заявлении Европарламента. Запреты начнут действовать через шесть месяцев после этого, но другие правила вступят в силу позже. Обязательства по системам высокого риска вступят в силу только через 36 месяцев.

Это решение вызвало сопротивление со стороны Ассоциации компьютерной и коммуникационной индустрии, лоббистской группы технологической индустрии. По их мнению, закон замедлит инновации в Европе. К некоторым системам искусственного интеллекта с низким уровнем риска теперь будут предъявляться строгие требования без дальнейшего обоснования, а другие будут вовсе запрещены. Это может привести к оттоку европейских компаний и отдельных специалистов, занимающихся искусственным интеллектом.