Les politiques d’entreprise en matière d’IA sont un ensemble de règles opérationnelles liées à la bonne utilisation de la technologie d’IA. Elles aident à maintenir la conformité, à assurer la confidentialité des données et à préserver la sécurité numérique.
Si vous souhaitez que votre politique expose efficacement les bonnes pratiques et limite les risques, elle doit se concentrer sur plusieurs domaines essentiels. Il s'agit notamment des suivants :
Cette section d’introduction a pour but de clarifier l’intention de votre politique d’entreprise en matière d’IA. Elle doit également précise qui doit respecter ses exigences, comme les personnes extérieures ou les agences, en plus des employés.
Ici, seules les applications liées à l’IA approuvées doivent être répertoriées. Les procédures d’accès pour chacun peuvent également être spécifiées ici afin d'assurer la conformité, même si des détails sensibles comme les identifiants de connexion doivent être évités. Ces détails peuvent être fournis par la direction de manière sécurisée, sur la demande de la personne cherchant un accès et/ou pendant le processus d’intégration.
Le fait de résumer le processus à suivre pour l’utilisation de l’IA, comme dans une liste à puces, aide les utilisateurs à comprendre les étapes appropriées et à les respecter. C’est l’occasion de mettre en place des protections opérationnelles et de communiquer la façon dont doivent être gérés les autorisations, les communications internes, l’assurance qualité du contenu généré par l’IA, et l'accès global aux données et aux outils accordés aux systèmes d’IA. En outre, il peut être utile de préciser ce qu’il faut faire si/quand un risque de vulnérabilité lié à l’un des éléments ci-dessus est soupçonné.
Cette section doit clarifier quand, où et comment les applications d’IA approuvées ne doivent pas être utilisées. S’il existe des exceptions raisonnables spécifiques, elles doivent également être incluses ici. Comme dans l’ensemble de la politique, les formulations que vous utilisez doivent être claires, concises et faciles à suivre, tout en minimisant les risques d’interprétation erronée ou de confusion.
Cette section rappelle à vos utilisateurs qu’ils doivent revoir les conditions générales des outils d’IA qu’ils sont autorisés à consulter. Cela aidera à les protéger contre une mauvaise utilisation et/ou des problèmes de fiabilité. Vous devez également insister sur l’importance du maintien de la confidentialité des données et sur le fait qu’ils doivent éviter tout plagiat, respecter les droits de propriété intellectuelle et leurs détenteurs, et ne pas donner accès à des informations confidentielles pour le ou les outils en question.
Indiquez ici les organes directeurs et les réglementations avec lesquels votre organisation, et donc votre équipe, doivent assurer la conformité lorsqu’elles utilisent l’IA. Vous devez ajouter les lois gouvernementales établies et les exigences éventuelles pour votre équipe juridique, de sécurité et/ou IT.
Divisée en plusieurs priorités stratégiques, mais unifiée dans sa mission, la Stratégie pancanadienne en matière d’intelligence artificielle cherche à « offrir des avantages sociaux, économiques et environnementaux pour les personnes et pour la planète ».
Il s'agit d'une collection de recherches, de politiques et de documentation en ingénierie axée sur l’avancée de l’IA d'une manière éthique et responsable. Microsoft a également publié son Responsible AI Transparency Report (Rapport sur la transparence de l’IA responsable) en mai 2024, qui couvre aussi bien le mappage que la mesure et la gestion des risques de l’IA pour créer des modèles d’IA frontière sûrs et responsables.
Le NIST a travaillé en étroite collaboration avec des agences fédérales et des parties prenantes essentielles des secteurs privé et public pour développer de nouvelles normes d’IA. Il est « fortement engagé auprès des efforts des États-Unis et internationaux en matière de politique d’IA comme l’US-EU Trade and Technology Council, l’OECD, le Conseil de l’Europe, le Dialogue quadrilatéral pour la sécurité », et plusieurs autres initiatives. Le NIST travaille également avec l’US Department of Commerce’s International Trade Administration et l’US Department of State dans le cadre de ces efforts.
En juillet 2024, le NIST a également sorti quatre publications « visant à améliorer la sécurité et la fiabilité des systèmes d’IA ». Il s’agit des mesures suivantes :
L'éthique de l’IA implique des principes et des directives qui régissent le développement, le déploiement et l’utilisation responsables des systèmes d’IA. Elle traite des problèmes tels que l’alignement, l'équité, la responsabilité, la transparence, la confidentialité, le risque et les impacts sociétaux des technologies d’IA.
Un rapport publié sur les chercheurs d’OpenAI (arXiv:2307.03718 : Frontier AI Regulation: Managing Emerging Risks to Public Safety) souligne plusieurs défis liés à la réglementation des modèles d'avant-garde d’IA pour protéger les utilisateurs. Il indique que les « modèles d’IA frontières présentent un défi réglementaire distinct : des capacités dangereuses peuvent se présenter de manière inattendue ; il est difficile d'éviter de manière solide qu’un modèle déployé soit utilisé de manière incorrecte ; et il est complexe d'éviter que les capacités d'un modèle ne prolifèrent de manière étendue ».
En outre, le résumé du rapport indique que « au moins trois blocs fondamentaux » sont nécessaires pour la réglementation :
Recherches associées
Articles associés