Другой вариант
Скачать Распечатать

Требования Акта об искусственном интеллекте, предъявляемые к большинству содержателей систем искусственного интеллекта 3/32/24

Terēza Vāgentroca
Юрист, PwC Legal

Система искусственного интеллекта (ИИ) способна обеспечивать все более эффективную, конкурентоспособную и продуктивную повседневную работу как в частном, так и в общественном секторе. На рынке существуют разные модели систем ИИ, которые можно внедрить, адаптировать к потребностям своего предприятия и в дальнейшем использовать в повседневной работе. Необходимо помнить о том, что, например, при использовании системы ИИ в профессиональных целях в своей организации согласно Регламенту ЕС № 2024/1689 («Акт об ИИ») на содержателей систем ИИ возлагаются различные обязанности.

Кто является содержателем системы ИИ?

Это физическое или юридическое лицо, учреждение общественного сектора, агентство или другая структура, использующая систему ИИ, которая находится в ее ведении, кроме случаев, когда система ИИ используется для ведения личной, непрофессиональной деятельности. В частности, содержателем системы ИИ является лицо, использующее систему ИИ для нужд своей профессиональной деятельности, т.е. лицо, которое адаптировало данную систему под свои нужды и контролирует, кто, как и для чего ею пользуется.

Например, предприятие «А» приобрело у разработчика систем ИИ «В» модель, которую адаптирует и использует в качестве своего виртуального ассистента, чтобы повысить эффективность обслуживания клиентов. Предприятие «А» будет считаться содержателем, поскольку именно это предприятие поддерживает систему и обеспечивает ее деятельность.

Актом об ИИ предусматривается присвоение системам определенных уровней рисков. В данной статье мы обратимся к обязанностям, которые необходимо выполнять в большинстве случаев, т.е. не анализируя дополнительные обязанности, выполняемые при использовании систем ИИ с высокой степенью риска, и не углубляясь в запрещенную практику ИИ. Существуют системы, для использования которых Актом об ИИ не предусматриваются дополнительные обязанности. Это системы, не оказывающие влияния на принятие решений, результаты которых не могут значительно ущемить основные права людей. К примеру, такой системой будет использование ИИ при создании видеоигры.

Если предприятие является содержателем системы с высокой степенью риска, уровень его обязанностей и ответственности повышается, поэтому предприятиям обязательно нужно определить и разобраться, квалифицируется ли какая-либо из используемых ими систем ИИ как система ИИ с высокой степенью риска.

Что такое система ИИ с высокой степенью риска?

Это система, используемая в следующих отраслях: 

  • на объектах критической инфраструктуры, что, помимо прочего, может представлять угрозу жизни людей;
  • в сфере образования или профессионального обучения, что может установить доступ к образованию и возможностям трудоустройства;
  • в защитных компонентах продуктов;
  • в сфере трудоустройства, управления персоналом и доступа к самостоятельной занятости;
  • в важных частных и государственных услугах;
  • в правоохранительных органах, что может оказать влияние на основные права человека, в том числе свободу;
  • в сфере управления миграцией, предоставлением убежища и пограничным контролем;
  • в сфере управления юстицией и демократических процессах;
  • в других случаях.

В большинстве случаев, если системы ИИ внедряются для выполнения более обыденных задач, на предприятиях системы ИИ с высокой степенью риска или запрещенные практики ИИ не применяются, поэтому Актом об ИИ для таких систем с ограниченной степенью риска введены лишь несколько дополнительных правил.

Прозрачность

При использовании системы ИИ, генерирующей изображения, аудио- или видеоконтент, который, к примеру, очень напоминает реальных людей, предметы или события, которые могут необоснованно показаться человеку подлинными или настоящими, или манипулирующей ими, необходимо указывать, что контент сгенерирован искусственно или в результате манипуляции. Если такой контент является частью явно художественного, вымышленного или подобного произведения или программы, данное информирование должно происходить таким образом, чтобы не препятствовать потреблению контента.

Например, если коммерческая деятельность предприятия связана с искусством и в рамках коммерческой деятельности создано манипулятивное изображение, информирование об этом можно обеспечить пояснительным текстом. В свою очередь, если предприятие использует систему ИИ и создает манипулятивное изображение, которое публикуется, потребителей нужно оповестить об этом водяным знаком.

Содержатели, которые с помощью системы ИИ генерируют текст (или манипулируют им), чтобы использовать его для информирования общества о важных вопросах, обязаны включать информацию об использовании системы ИИ. Эту обязанность выполнять не нужно, если человек просматривает данный текст, осуществляет редакционный контроль и физическое или юридическое лицо принимает на себя редакционную ответственность за данный текст, созданный системой ИИ.

Например, если коммерсант, работающий в медийной отрасли, использует систему ИИ для подготовки статьи, информирующей общество о некоем важном для него вопросе, и эту статью не просматривает редактор, она публикуется без контроля, то статья должна содержать пояснительное сообщение о том, что при ее подготовке использовалась система ИИ. Если предприятие, работающее в медийной отрасли, использует систему ИИ для подготовки статьи, которая будет информировать общество, а человек обеспечивает просмотр, выполняет функцию редактора, то сообщать об использовании системы ИИ не нужно.

Такое уведомление во многих местах можно было заметить еще до вступления в силу Акта об ИИ. Ряд платформ социальных сетей уже сейчас предлагают возможность автоматически указывать, что контент создан с использованием системы ИИ.

ИИ-грамотность

Каждое предприятие независимо от используемых систем ИИ обязано развивать и совершенствовать грамотность в сфере ИИ.

Содержатель должен обучить персонал, который будет работать с системой ИИ, а именно: четко определить, для каких целей предназначены системы ИИ, какие данные подлежат обработке, какие вопросы будет решать система и по каким принципам работать, а также указать другие соображения, помогающие людям принимать информированные и разумные решения. Акт об ИИ определяет это непременной обязанностью при использовании систем ИИ с высокой степенью риска. Дополнительно обязательно нужно обучаться и лицам, которые не только обеспечивают различные внутренние процессы, но и содействуют инновациям на предприятии, поскольку перед внедрением новых систем необходимо понимать, какие выгоды сможет обеспечить система, каких целей предприятия поможет достичь.

ИИ-грамотность – это сфера, которую следует усовершенствовать каждому предприятию, внедряющему системы ИИ для улучшения труда, независимо от степени рискованности систем. Системы ИИ обладают большим потенциалом, но если люди, которые могут пользоваться данными инструментами в повседневной работе, не умеют этого делать или действуют неэффективно, у предприятия не возникнет выгода либо выгода окажется меньше запланированной. К тому же ИИ-грамотность – навык, требующий регулярного усовершенствования, поэтому нельзя забывать о регулярном обучении и практических занятиях, конечно, адаптированных к используемым предприятием системам и целям, поскольку обучение общего характера не всегда может дать желаемый эффект.

Согласно Акту об ИИ, на содержателей систем ИИ с высокой степенью риска возлагаются следующие дополнительные обязанности:

  • создание системы управления рисками для всего жизненного цикла системы ИИ с высокой степенью риска;
  • управление данными – необходимо обеспечить, чтобы наборы данных об обучении, валидации и тестировании были соответствующими, достаточно репрезентативными, по возможности не содержали ошибок и вполне соответствовали установленной цели;
  • подготовка технической документации, чтобы доказать соответствие и предоставить учреждениям информацию для оценки соответствия;
  • обеспечение человеческого надзора;
  • определение соответствующих уровней точности, выносливости и кибербезопасности;
  • создание и соблюдение системы управления качеством.

На содержателей ИИ могут быть наложены крупные штрафы за нарушения требований, включенных в Акт об ИИ, – за общие нарушения требований Акта об ИИ возможно применение штрафа в размере 750 000 евро.

В разделе штрафов особенно акцентируется несоблюдение требований, предъявляемых к системам ИИ с высокой степенью риска, – здесь санкцией за нарушение обязанности является денежный штраф в размере до 15 000 000 евро или, если нарушителем является предприятие, до 3% от его суммарного общемирового оборота в предыдущем финансовом году, в зависимости от того, какая цифра больше. Безусловно, это максимальные штрафы, и предусмотрены отдельные аргументы, которые нужно учитывать в интересах малых и средних предприятий, в том числе стартапов, чтобы обеспечить их экономическую жизнеспособность.

Важно отметить, что штрафы, предусмотренные Актом об ИИ, можно применять только со 2 августа 2025 года, поэтому еще есть время подготовиться и обеспечить соответствие.

Резюмируя вышеизложенное, отметим, что вступление в силу Акта об ИИ не возложит на большинство содержателей систем ИИ существенных, значительных дополнительных обязанностей, однако если поддерживается система ИИ с высокой степенью риска, то сейчас определенно один из последних моментов для того, чтобы убедиться в соблюдении всех требований Акта об ИИ и не рисковать применением санкций.

Поделиться статьей

Если у Вас возникли какие либо комментарии к этой статье, просим отправить здесь lv_mindlink@pwc.com

Ваш вопрос