Система искусственного интеллекта (ИИ) способна обеспечивать все более эффективную, конкурентоспособную и продуктивную повседневную работу как в частном, так и в общественном секторе. На рынке существуют разные модели систем ИИ, которые можно внедрить, адаптировать к потребностям своего предприятия и в дальнейшем использовать в повседневной работе. Необходимо помнить о том, что, например, при использовании системы ИИ в профессиональных целях в своей организации согласно Регламенту ЕС № 2024/1689 («Акт об ИИ») на содержателей систем ИИ возлагаются различные обязанности.
Это физическое или юридическое лицо, учреждение общественного сектора, агентство или другая структура, использующая систему ИИ, которая находится в ее ведении, кроме случаев, когда система ИИ используется для ведения личной, непрофессиональной деятельности. В частности, содержателем системы ИИ является лицо, использующее систему ИИ для нужд своей профессиональной деятельности, т.е. лицо, которое адаптировало данную систему под свои нужды и контролирует, кто, как и для чего ею пользуется.
Например, предприятие «А» приобрело у разработчика систем ИИ «В» модель, которую адаптирует и использует в качестве своего виртуального ассистента, чтобы повысить эффективность обслуживания клиентов. Предприятие «А» будет считаться содержателем, поскольку именно это предприятие поддерживает систему и обеспечивает ее деятельность.
Актом об ИИ предусматривается присвоение системам определенных уровней рисков. В данной статье мы обратимся к обязанностям, которые необходимо выполнять в большинстве случаев, т.е. не анализируя дополнительные обязанности, выполняемые при использовании систем ИИ с высокой степенью риска, и не углубляясь в запрещенную практику ИИ. Существуют системы, для использования которых Актом об ИИ не предусматриваются дополнительные обязанности. Это системы, не оказывающие влияния на принятие решений, результаты которых не могут значительно ущемить основные права людей. К примеру, такой системой будет использование ИИ при создании видеоигры.
Если предприятие является содержателем системы с высокой степенью риска, уровень его обязанностей и ответственности повышается, поэтому предприятиям обязательно нужно определить и разобраться, квалифицируется ли какая-либо из используемых ими систем ИИ как система ИИ с высокой степенью риска.
Это система, используемая в следующих отраслях:
В большинстве случаев, если системы ИИ внедряются для выполнения более обыденных задач, на предприятиях системы ИИ с высокой степенью риска или запрещенные практики ИИ не применяются, поэтому Актом об ИИ для таких систем с ограниченной степенью риска введены лишь несколько дополнительных правил.
При использовании системы ИИ, генерирующей изображения, аудио- или видеоконтент, который, к примеру, очень напоминает реальных людей, предметы или события, которые могут необоснованно показаться человеку подлинными или настоящими, или манипулирующей ими, необходимо указывать, что контент сгенерирован искусственно или в результате манипуляции. Если такой контент является частью явно художественного, вымышленного или подобного произведения или программы, данное информирование должно происходить таким образом, чтобы не препятствовать потреблению контента.
Например, если коммерческая деятельность предприятия связана с искусством и в рамках коммерческой деятельности создано манипулятивное изображение, информирование об этом можно обеспечить пояснительным текстом. В свою очередь, если предприятие использует систему ИИ и создает манипулятивное изображение, которое публикуется, потребителей нужно оповестить об этом водяным знаком.
Содержатели, которые с помощью системы ИИ генерируют текст (или манипулируют им), чтобы использовать его для информирования общества о важных вопросах, обязаны включать информацию об использовании системы ИИ. Эту обязанность выполнять не нужно, если человек просматривает данный текст, осуществляет редакционный контроль и физическое или юридическое лицо принимает на себя редакционную ответственность за данный текст, созданный системой ИИ.
Например, если коммерсант, работающий в медийной отрасли, использует систему ИИ для подготовки статьи, информирующей общество о некоем важном для него вопросе, и эту статью не просматривает редактор, она публикуется без контроля, то статья должна содержать пояснительное сообщение о том, что при ее подготовке использовалась система ИИ. Если предприятие, работающее в медийной отрасли, использует систему ИИ для подготовки статьи, которая будет информировать общество, а человек обеспечивает просмотр, выполняет функцию редактора, то сообщать об использовании системы ИИ не нужно.
Такое уведомление во многих местах можно было заметить еще до вступления в силу Акта об ИИ. Ряд платформ социальных сетей уже сейчас предлагают возможность автоматически указывать, что контент создан с использованием системы ИИ.
Каждое предприятие независимо от используемых систем ИИ обязано развивать и совершенствовать грамотность в сфере ИИ.
Содержатель должен обучить персонал, который будет работать с системой ИИ, а именно: четко определить, для каких целей предназначены системы ИИ, какие данные подлежат обработке, какие вопросы будет решать система и по каким принципам работать, а также указать другие соображения, помогающие людям принимать информированные и разумные решения. Акт об ИИ определяет это непременной обязанностью при использовании систем ИИ с высокой степенью риска. Дополнительно обязательно нужно обучаться и лицам, которые не только обеспечивают различные внутренние процессы, но и содействуют инновациям на предприятии, поскольку перед внедрением новых систем необходимо понимать, какие выгоды сможет обеспечить система, каких целей предприятия поможет достичь.
ИИ-грамотность – это сфера, которую следует усовершенствовать каждому предприятию, внедряющему системы ИИ для улучшения труда, независимо от степени рискованности систем. Системы ИИ обладают большим потенциалом, но если люди, которые могут пользоваться данными инструментами в повседневной работе, не умеют этого делать или действуют неэффективно, у предприятия не возникнет выгода либо выгода окажется меньше запланированной. К тому же ИИ-грамотность – навык, требующий регулярного усовершенствования, поэтому нельзя забывать о регулярном обучении и практических занятиях, конечно, адаптированных к используемым предприятием системам и целям, поскольку обучение общего характера не всегда может дать желаемый эффект.
Согласно Акту об ИИ, на содержателей систем ИИ с высокой степенью риска возлагаются следующие дополнительные обязанности:
На содержателей ИИ могут быть наложены крупные штрафы за нарушения требований, включенных в Акт об ИИ, – за общие нарушения требований Акта об ИИ возможно применение штрафа в размере 750 000 евро.
В разделе штрафов особенно акцентируется несоблюдение требований, предъявляемых к системам ИИ с высокой степенью риска, – здесь санкцией за нарушение обязанности является денежный штраф в размере до 15 000 000 евро или, если нарушителем является предприятие, до 3% от его суммарного общемирового оборота в предыдущем финансовом году, в зависимости от того, какая цифра больше. Безусловно, это максимальные штрафы, и предусмотрены отдельные аргументы, которые нужно учитывать в интересах малых и средних предприятий, в том числе стартапов, чтобы обеспечить их экономическую жизнеспособность.
Важно отметить, что штрафы, предусмотренные Актом об ИИ, можно применять только со 2 августа 2025 года, поэтому еще есть время подготовиться и обеспечить соответствие.
Резюмируя вышеизложенное, отметим, что вступление в силу Акта об ИИ не возложит на большинство содержателей систем ИИ существенных, значительных дополнительных обязанностей, однако если поддерживается система ИИ с высокой степенью риска, то сейчас определенно один из последних моментов для того, чтобы убедиться в соблюдении всех требований Акта об ИИ и не рисковать применением санкций.
Если у Вас возникли какие либо комментарии к этой статье, просим отправить здесь lv_mindlink@pwc.com
Ваш вопросРанее мы рассказывали о самом популярном на данный момент инструменте искусственного интеллекта (ИИ) ChatGPT как с точки зрения функциональности, так и в аспекте защиты персональных данных. В данной статье обобщены тенденции использования генеративного искусственного интеллекта (GenAI) и прогнозы относительно влияния ИИ на предпринимательство.
Генеративный искусственный интеллект (GenAI) стал важным инструментом предпринимательской деятельности, помогая предприятиям оптимизировать процессы, повысить эффективность и сократить издержки. Однако, чтобы понять влияние GenAI на финансы в полной мере, важно рассмотреть издержки данного инструмента с разных точек зрения.
В 2021 году мы рассказывали о проекте регламента Европейской комиссии об искусственном интеллекте (ИИ), которым предусматривается регулирование систем ИИ на основе подхода, опирающегося на риски. В частности, системы ИИ, которые считаются системами с неприемлемым уровнем риска, в ЕС не допускаются вообще. Для систем ИИ с высоким уровнем риска проектом регламента предусматриваются строгие условия, которые необходимо выполнить, чтобы получить разрешение на распространение таких систем на рынке ЕС. Пока ведутся предварительные работы, которые позволят применять регламент об ИИ, в сентябре 2022 года Комиссия представила проект директивы об условиях внедоговорной ответственности ИИ («проект Директивы об ответственности»), которая наряду с проектом регламента об ИИ и условиями безопасности продуктов ИИ будет создавать юридические рамки для распространения систем ИИ на рынке ЕС. В данной статье – коротко о том, какие условия предусматриваются проектом Директивы об ответственности для предприятий, чтобы распространять системы ИИ на рынке.
Мы используем cookie-файлы для персонализации контента, улучшения пользовательского опыта и сбора статистики.
Нажимая «Принять все cookie-файлы», вы соглашаетесь на использование всех типов cookie-файлов. Если вы хотите выбрать, каких cookie-файлов мы можем использовать, выберите соответствующих.
Чтобы получить дополнительную информацию, вы можете ознакомиться с нашей «Политикой использования cookie-файлов».
Эти cookie-файлы обеспечивают работу веб-сайта, и отключить их нельзя. Обычно они применяются в ответ на производимые вами действия, т.е. на ваши запросы, например, установить настройки конфиденциальности или заполнить какие-либо формы и служат для того, чтобы сделать использование вами веб-сайта более удобным для вас. Вы можетe настроить свой браузер таким образом, чтобы он блокировал эти cookie-файлы или оповещал вас о них, но в этом случае некоторые компоненты сайта перестанут работать. Эти cookie-файлы не хранят данные, идентифицирующие личность.
Эти cookie-файлы помогают нам вести подсчет статистики количества посетителей и исследовать источники трафика, чтобы мы могли оценивать и повышать эффективность и удобство работы нашего сайта для вас. Они позволяют нам узнать, какие страницы являются самыми популярными или пользуются наименьшим интересом пользователей, каким образом посетители перемещаются по сайту. Вся информация, собираемая этими cookie-файлами, обобщается и, соответственно, является анонимной. Если вы запретите использовать эти cookie-файлы, мы не сможем отслеживать посещаемость сайта и не сможем регулировать его работу.
В целях продвижения своих услуг, сбора статистики и проведения исследований, PwC и MindLink.lv может размещать на других сайтах рекламу, которая будет видна вам. Cookie-файлы используются для того, чтобы сделать предложения ориентированными на вас и ваши интересы. Кроме того, они нужны для предотвращения частого появления одной и той же рекламы. Эти рекламные обращения предназначены исключительно для того, чтобы ознакомить вас с потенциально интересными для вас предложениями. PwC не продает ваши данные третьим лицам.