Что такое политики компании по применению ИИ?

ИИ-политики компании — это набор правил, определяющий, как корректно использовать системы ИИ. Выполнение правил помогает обеспечить соответствие требованиям регуляторов, конфиденциальность данных и цифровую безопасность.

Шаблон политики компании по применению ИИ

Чтобы политика помогала внедрять лучшие практики и эффективно снижала уровень риска, она должна содержать основные разделы, перечисленные ниже. К ним относятся:

Цель и сфера применения

Этот вступительный раздел, который должен прояснить общее направление ИИ-политики компании. В разделе также должно быть указано, кто обязан соблюдать требования политики, например: не только штатные сотрудники, но и внешние подрядчики.

Одобренные приложения

Здесь должны быть перечислены только те приложения на основе ИИ, которые разрешены для использования. Можно также указать процедуры доступа к каждому из них, чтобы обеспечить комплаенс, но критичную информацию, например, реквизиты доступа к системе, указывать нельзя. По запросу лица, которому требуется получить доступ, их в защищенном виде может предоставить администратор или пользователь получит их в процессе регистрации.

Рекомендации по продвижению и/или использованию

Краткое изложение процесса использования ИИ можно оформить, например в виде маркированного списка. Оно поможет пользователям понять по шагам, что нужно делать.. В руководстве можно установить руководящие принципы и рассказать о том, как должны обрабатываться разрешения, как контролировать качество генерируемого искусственный интеллектом контента, а также как управлять внутренними коммуникациями и общим доступом к данным и инструментам, предоставляемый системам ИИ. Кроме того, можно конкретизировать, что делать в случае наличия риска или уязвимости, связанной с любым из перечисленных выше факторов.

Что запрещено использовать

В этом разделе следует пояснить, когда, где и как не следует использовать ИИ-приложения из списка разрешенных. Конкретные обоснованные исключения также следует указать здесь. Здесь, как и в остальных разделах политики, выбирайте четкие, лаконичные и простые для понимания формулировки, чтобы свести к минимуму вероятность неправильного толкования или путаницы.

Конфиденциальность данных, права интеллектуальной собственности и условия использования

В этом разделе напомните пользователям о необходимости ознакомиться с условиями использования инструментов ИИ, к которым им разрешен доступ, чтобы избежать неправильного их применения и связанной с этим ответственности. Также следует обратить внимание на то, как важно сохранять конфиденциальность данных и не допускать плагиата, уважать права интеллектуальной собственности и их владельцев, а также на то, чтобы не предоставлять инструментам, о которых идет речь, доступ к конфиденциальной информации.

Закон и комплаенс

В этом разделе укажите руководящие органы и нормативные акты, требования которых ваши сотрудники и организация в целом обязаны выполнять при использовании ИИ. Сюда должны быть включены утвержденные правительственные акты и любые требования, предъявляемые к вашей юридической службе, командам по ИБ и по ИТ.

Примеры политик по применению ИИ

Канадская стратегия ИИ

В национальной стратегии Канады по ИИ — Pan-Canadian Artificial Intelligence Strategy выделено четыре приоритетных направления, но указана единая цель: «вызвать положительные социальные, экономические и экологические преимущества для людей и планеты».

Практики Microsoft по ответственному применению ИИ

Это собрание технической документации, документов по исследованиям и политикам, направленных на ответственное применение ИИ с соблюдением этических норм. В мае 2024 г. компания Microsoft опубликовала очередной ежегодный отчет Responsible AI Transparency Report, который охватывает все аспекты: от измерения и управления рисками ИИ до создания безопасных и ответственных моделей GenAI.

Национальный институт стандартов и технологий (NIST): ИИ-стандарты и предложения для политик

NIST работает в тесном сотрудничестве с заинтересованными представителями частного и государственного секторов, а также с федеральными агентствами над разработкой новых стандартов ИИ. Они активно участвуют в работе международных и североамериканских участников разработки политик в области ИИ: Совета по торговле и технологиям США-ЕС, ОЭСР, Совета Европы, QUAD и ряда других инициатив. NIST также сотрудничает с Министерством торговли США и Государственным департаментом США.

В июле 2024 года NIST также выпустил четыре публикации, которые призваны помочь повысить безопасность, надежность и достоверность ИИ-систем. Сюда входят следующие публикации:

Государственное регулирование ИИ и комплаенс

Этика ИИ

Этика ИИ — это совокупность принципов, которые регулируют ответственную разработку, внедрение и использование систем ИИ. Основные принципы этики ИИ: согласованность, справедливость, подотчетность, прозрачность, конфиденциальность и влияние технологий ИИ на общество.

Рекомендации экспертов по регулированию GenAI

В отчете, опубликованном исследователями OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety) освещается сложность регулирования моделей GenAI для обеспечения безопасности пользователей. В отчете говорится, что модели GenAI создают особые проблемы для регулирования: опасные возможности могут появиться неожиданно; трудно предотвратить неправомерное использование развернутой модели и трудно предотвратить широкое распространение возможностей модели.

Кроме того, в резюме отчета отмечается, что для регулирования необходимы как минимум три составных элемента:

  1. процесс стандартизации для определения соответствующих требований к разработчикам GenAI;
  2. требования к регистрации и отчетности, которые позволят регулирующим органам получить представление о процессах разработки GenAI;
  3. механизмы, обеспечивающие соблюдение стандартов безопасности при разработке и внедрении моделей GenAI.

ИИ

Исследования по теме

Статьи по теме