ИИ-политики компании — это набор правил, определяющий, как корректно использовать системы ИИ. Выполнение правил помогает обеспечить соответствие требованиям регуляторов, конфиденциальность данных и цифровую безопасность.
Чтобы политика помогала внедрять лучшие практики и эффективно снижала уровень риска, она должна содержать основные разделы, перечисленные ниже. К ним относятся:
Этот вступительный раздел, который должен прояснить общее направление ИИ-политики компании. В разделе также должно быть указано, кто обязан соблюдать требования политики, например: не только штатные сотрудники, но и внешние подрядчики.
Здесь должны быть перечислены только те приложения на основе ИИ, которые разрешены для использования. Можно также указать процедуры доступа к каждому из них, чтобы обеспечить комплаенс, но критичную информацию, например, реквизиты доступа к системе, указывать нельзя. По запросу лица, которому требуется получить доступ, их в защищенном виде может предоставить администратор или пользователь получит их в процессе регистрации.
Краткое изложение процесса использования ИИ можно оформить, например в виде маркированного списка. Оно поможет пользователям понять по шагам, что нужно делать.. В руководстве можно установить руководящие принципы и рассказать о том, как должны обрабатываться разрешения, как контролировать качество генерируемого искусственный интеллектом контента, а также как управлять внутренними коммуникациями и общим доступом к данным и инструментам, предоставляемый системам ИИ. Кроме того, можно конкретизировать, что делать в случае наличия риска или уязвимости, связанной с любым из перечисленных выше факторов.
В этом разделе следует пояснить, когда, где и как не следует использовать ИИ-приложения из списка разрешенных. Конкретные обоснованные исключения также следует указать здесь. Здесь, как и в остальных разделах политики, выбирайте четкие, лаконичные и простые для понимания формулировки, чтобы свести к минимуму вероятность неправильного толкования или путаницы.
В этом разделе напомните пользователям о необходимости ознакомиться с условиями использования инструментов ИИ, к которым им разрешен доступ, чтобы избежать неправильного их применения и связанной с этим ответственности. Также следует обратить внимание на то, как важно сохранять конфиденциальность данных и не допускать плагиата, уважать права интеллектуальной собственности и их владельцев, а также на то, чтобы не предоставлять инструментам, о которых идет речь, доступ к конфиденциальной информации.
В этом разделе укажите руководящие органы и нормативные акты, требования которых ваши сотрудники и организация в целом обязаны выполнять при использовании ИИ. Сюда должны быть включены утвержденные правительственные акты и любые требования, предъявляемые к вашей юридической службе, командам по ИБ и по ИТ.
В национальной стратегии Канады по ИИ — Pan-Canadian Artificial Intelligence Strategy выделено четыре приоритетных направления, но указана единая цель: «вызвать положительные социальные, экономические и экологические преимущества для людей и планеты».
Это собрание технической документации, документов по исследованиям и политикам, направленных на ответственное применение ИИ с соблюдением этических норм. В мае 2024 г. компания Microsoft опубликовала очередной ежегодный отчет Responsible AI Transparency Report, который охватывает все аспекты: от измерения и управления рисками ИИ до создания безопасных и ответственных моделей GenAI.
NIST работает в тесном сотрудничестве с заинтересованными представителями частного и государственного секторов, а также с федеральными агентствами над разработкой новых стандартов ИИ. Они активно участвуют в работе международных и североамериканских участников разработки политик в области ИИ: Совета по торговле и технологиям США-ЕС, ОЭСР, Совета Европы, QUAD и ряда других инициатив. NIST также сотрудничает с Министерством торговли США и Государственным департаментом США.
В июле 2024 года NIST также выпустил четыре публикации, которые призваны помочь повысить безопасность, надежность и достоверность ИИ-систем. Сюда входят следующие публикации:
Этика ИИ — это совокупность принципов, которые регулируют ответственную разработку, внедрение и использование систем ИИ. Основные принципы этики ИИ: согласованность, справедливость, подотчетность, прозрачность, конфиденциальность и влияние технологий ИИ на общество.
В отчете, опубликованном исследователями OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety) освещается сложность регулирования моделей GenAI для обеспечения безопасности пользователей. В отчете говорится, что модели GenAI создают особые проблемы для регулирования: опасные возможности могут появиться неожиданно; трудно предотвратить неправомерное использование развернутой модели и трудно предотвратить широкое распространение возможностей модели.
Кроме того, в резюме отчета отмечается, что для регулирования необходимы как минимум три составных элемента:
Исследования по теме
Статьи по теме