Hitech logo

Тренды

2023-й стал годом настоящего прорыва в ИИ — языковые модели проникли почти везде

TODO:
Екатерина Смирнова8 января, 17:34

Если 2023 год и определялся каким-то конкретным типом технологий, то это точно искусственный интеллект. В этом году ИИ вышел на совершенно новый уровень, благодаря внедрению чат-ботов и других генераторов контента по всему миру. Вместе с тем, ИИ вызывает много опасений и противоречий. Хайтек+ вспоминает главные события года, связанные с искусственным интеллектом, — от GPT-4 и законодательного регулирования до забастовки сценаристов и увольнения Сэма Альтмана.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Гонка языковых моделей

В 2023 году появилось много генеративных языковых моделей, основанных на алгоритмах глубокого обучения. Все началось с ChatGPT. Первоначальная версия чат-бота OpenAI вышла на технологическую сцену в ноябре 2022 года. Чуть больше года спустя ChatGPT насчитывает более 180 млн пользователей, получает 10 млн ежедневных запросов и может похвастаться более чем 2 млн платных клиентов.

В 2023 году OpenAI разработала усовершенствованную генеративную языковую модель GPT-4, которая может похвастаться более чем 1,8 трлн параметров, что в 10 раз больше, чем у GPT-3.5. Это делает ее одной из крупнейших языковых моделей, когда-либо созданных.

Почти все IT-гиганты в уходящем году представили свои LLM и чат-ботов. Вот некоторые из них:

  • Bard и модель PaLM 2 от Google
  • GigaChat от «Сбера» и модель YandexGPT 2 от «Яндекса»
  • ERNIE Bot от Baidu
  • Q от Amazon
  • Grok от компании Илона Маска xAI
  • Bing от Microsoft
  • Gemini от Google DeepMind
  • Tongyi Qianwen от Alibaba
  • С языковыми моделями все еще связано множество проблем, например, дезинформация под видом правды и «галлюцинации». Есть вопросы и к обучающим данным. Например, The New York Times утверждает, что OpenAI и Microsoft обучали своих чат-ботов на миллионах её статей. Это лишило их заработка на подписках, рекламе и просмотрах. Издание подало в суд на обе компании за нарушение авторских прав.

    В 2024 году ожидается выход языковой модели следующего поколения от компании OpenAI. По слухам, GPT-5 сможет достичь уровня общего искусственного интеллекта  (AGI) по ряду важных показателей. К каким последствиям это приведет — неизвестно.

    Мультимедийный ИИ

    Прогресс в области ИИ привел к развитию мультимодальности. Нейросети теперь умеют работать не только с текстом, но и с изображениями, видео и аудио.

    В 2023 году были представлены новые модели для генерации изображений, такие как DALL-E 3, Stable Diffusion XL, Midjourney v5, «Шедеврум», Kandinsky 2.2 и Kandinsky 3.0 и многие другие. Изображения, сгенерированные искусственным интеллектом, становятся реалистичнее. Так, многие приняли фото с папой Римским Франциском в белом пуховике, сгенерированное Midjourney, за реальное. Еще одна проблема — авторские права. Художники подали иск против компаний, создающих изображения с использованием искусственного интеллекта. Они считают, что ИИ копирует их работы.

    Появились первые нейросети для создания видео — Pika 1.0, Gen-2, российские Kandinsky Video и «Шедеврум». Искусственному интеллекту сложнее генерировать видео, чем статичные изображения. Поэтому ИИ-видео часто короткие, а иногда — довольно пугающие. Не так давно был анонсирован новостной канал, вести который будет целая команда цифровых сотрудников. В представленном видеоролике ИИ-ведущие почти неотличимы от реальных.

    ИИ-пионеры в музыкальной сфере — Lyria, Stable Audio и MusicLM. С начала 2023 года регулярно появляются ИИ-каверы популярных песен, имитирующие голоса и манеру исполнения разных музыкантов. Создатели таких треков не согласовывают свою деятельность с музыкантами, не берут у них разрешение и не платят за использование их голоса и текстов. В 2023 году Google и Universal Music начали переговоры о лицензировании мелодий и голосов артистов для песен, созданных искусственным интеллектом. А DeepMind, создатель Lyria, использует SynthID для нанесения «водяных знаков» на созданные ИИ музыкальные материалы.

    Системы ИИ научились воспроизводить человеческий голос даже по короткому отрывку записи с ним. Например, Meta (компания признана экстремистской и запрещена в РФ) выпустила бесплатную программу для клонирования голоса, Audiobox. ПО хорошо имитирует голоса людей и разные звуки, например, лай собак или пение птиц. Microsoft представила ИИ-модель Vall-E, которая преобразует текст в речь и может за считанные секунды скопировать любой голос, в том числе, его тональность и акустику. Алгоритм используется компанией в озвучке аудиокниг, но, очевидно, что он может стать инструментом для мошенников. Кроме того, в начале года российские дикторы беспокоились, что ИИ отнимет у них работу. Уже существуют инструменты, которые защищают запись голоса от копирования алгоритмами ИИ путем добавления в запись неслышимых человеческим ухом искажений.

    Зато искусственный интеллект помог Полу Маккартни и Ринго Старру превратить старое демо Джона Леннона в «новую» песню Beatles.

    Страх перед ИИ и регулирование

    В 2023 году искусственный интеллект привлек много внимания общественности и правительств стран. Весной СМИ обсуждали письмо, подписанное Илоном Маском и 1300 экспертами, в котором они призывали приостановить разработку масштабных ИИ-систем хотя бы на полгода из-за «значительных рисков для общества и человечества». Несмотря на это, разработки продолжались, а Маск благополучно выпустил собственного чат-бота.

    В OpenAI предложили не останавливать исследования, а создать аналог Агентства по атомной энергии для контроля над ИИ. Группа из 350 лидеров отрасли, включая руководство OpenAI и DeepMind, подписалась под коротким письмом: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

    Вскоре дискуссия вышла на правительственный уровень. Впервые в истории Совбез ООН провёл заседание, посвящённое ИИ. В сенате США состоялись слушания, на которых выступили Билл Гейтс, Марк Цукерберг и Илон Маск. Маск назвал ИИ угрозой человечеству, а Гейтс — спасением.

    Летом в Китае был принят первый законодательный акт, регулирующий создание и функционирование генеративного искусственного интеллекта на государственном уровне. Осенью США ввели правила, обязывающие разработчиков мощных ИИ-систем информировать органы власти о результатах тестирования на безопасность.

    В ЕС приняли проект «Закона об искусственном интеллекте». Создатели систем искусственного интеллекта, включая чат-бота ChatGPT, будут обязаны раскрывать больше информации о данных, используемых для создания ИИ-моделей. Некоторые требования разработчики считают невыполнимыми.

    Отнимет ли ИИ работу

    Взрыв интереса к генеративному ИИ и чат-ботам вызвал опасения по поводу сокращения рабочих мест, подобные тем, которые возникли при внедрении подвижного конвейера в начале XX века и компьютеров в 1950-е годы. По данным Goldman Sachs, в результате автоматизации, которую могут обеспечить ChatGPT и другие инструменты искусственного интеллекта, во всем мире может быть потеряно до 300 млн рабочих мест с полной занятостью. Это целых 18% мировой рабочей силы.

    Согласно отчету, опубликованному Всемирным экономическим форумом в Женеве, в течение всего пяти следующих лет почти четверть всех рабочих мест в развитых странах окажутся под влиянием внедрения ИИ, оцифровки и других экономических изменений.

    Но есть и оптимистичные прогнозы. В ООН считают, что генеративный искусственный интеллект не возьмет на себя работу большинства людей полностью, а вместо этого автоматизирует часть их обязанностей, освобождая сотрудников для выполнения других задач.

    Голливуд VS искусственный интеллект

    Потерять рабочие места из-за ИИ побоялись деятели киноиндустрии. Сценаристы бастовали с мая, а в середине июля к ним присоединились актеры. Обе гильдии выдвигали схожие требования: повышение выплат за повторные показы работ на стриминговых платформах, а также защита контрактов в контексте использования искусственного интеллекта. Сценаристы обеспокоены тем, что искусственный интеллект сможет писать сценарии лучше, а актеры боятся, что технология будет использовать их образы без согласия. Забастовки привели к прекращению производства большинства сериалов, а множество крупных кинопроизводств заморозилось.

    В сентябре сценаристы добились компромисса. Они согласились с использованием искусственного интеллекта  при написании сценариев, но только под контролем и с согласием автора-человека.

    Увольнение Сэма Альтмана

    Сэм Альтман, генеральный директор OpenAI, стал звездой индустрии искусственного интеллекта. Однако в один ноябрьский день все рухнуло. Его бесцеремонно уволили из OpenAI — к огромному удивлению его самого и мира в целом. Совет директоров обвинил его в недостаточной прозрачности в общении, что, по их мнению, помешало ему выполнять свои обязанности.

    Центральной фигурой в этих событиях стал Илья Суцкевер, главный научный сотрудник и сооснователь OpenAI. Между Альтманом и советом директоров возникли серьезные разногласия относительно стратегии развития и коммерциализации ИИ, а также управления потенциальными рисками. Суцкевер и другие члены совета директоров выразили беспокойство о скорости разработки и внедрения технологий, которые, по их мнению, могут мешать безопасности и этическим принципам работы компании.

    Верхушку OpenAI трясло несколько дней. В конце концов, под давлением инвесторов и угрозой увольнения почти всех сотрудников совету директоров пришлось пойти на попятную и пригласить Сэма Альтмана вернуться в кресло гендиректора. Взамен трех членов совета директоров, включая раскаявшегося инициатора переворота Илью Суцкевера, попросили уйти в отставку.

    После этих событий Илон Маск, некогда входивший в совет директоров, заявил, что потенциальная опасность искусственного интеллекта настолько велика, что OpenAI, самая мощная на данный момент компания в области ИИ в мире, должна раскрыть причину увольнения Альтмана.