As políticas de empresa em IA são o conjunto de regras operacionais que governam o uso correto da tecnologia de IA. Essas políticas ajudam a manter a conformidade, garantir a privacidade dos dados e preservar a segurança digital.
Para que sua política eduque efetivamente sobre as melhores práticas e mitigue riscos, ela precisa se concentrar em várias áreas-chave. Estas incluem as seguintes:
Esta seção introdutória tem como objetivo esclarecer a intenção da sua política de empresa em IA. Ela também deve especificar quem precisa aderir aos seus requisitos, como indivíduos ou agências terceirizadas, além dos funcionários regulares.
Aqui, devem ser listados apenas as aplicações relacionadas à IA que são aprovadas para uso. Os procedimentos de acesso corretos para cada um também podem ser especificados aqui para ajudar a garantir a conformidade, embora detalhes sensíveis, como credenciais de login, devam ser omitidos. Essas informações podem ser fornecidas pela gestão de forma segura, a pedido do indivíduo que busca acesso e/ou durante o processo de integração.
Resumir o devido processo para o uso de IA, como em uma lista com marcadores, ajuda os usuários a entender os passos apropriados e a segui-los. Esta é uma oportunidade para implementar diretrizes operacionais e comunicar como permissões, comunicações internas, a garantia de qualidade do conteúdo gerado por IA e o acesso geral a dados e ferramentas concedido aos sistemas de IA devem ser tratados. Além disso, pode ser útil especificar o que fazer se quando um risco ou vulnerabilidade relacionado a qualquer um dos itens acima for suspeitado.
Esta seção deve esclarecer quando, onde e como os aplicativos de IA aprovados não devem ser usados. Se houver exceções razoáveis específicas, elas também devem ser incluídas aqui. Assim como no restante da política, a linguagem escolhida deve ser clara, concisa e fácil de seguir, minimizando o risco de má interpretação ou confusão.
Esta seção lembra os usuários de revisar os termos e condições das ferramentas de IA às quais têm permissão para acessar, ajudando a proteger contra o uso indevido e/ou problemas relacionados à responsabilidade. Ela também deve enfatizar a importância de manter a privacidade dos dados e evitar plágio, respeitando os direitos de propriedade intelectual e seus titulares, além de não conceder aos ferramentas em questão acesso a informações confidenciais.
Aqui, especifique os órgãos reguladores e as normas com os quais sua organização—e, por extensão, sua equipe—precisam manter conformidade ao usar IA. Esses devem incluir atos governamentais estabelecidos e quaisquer requisitos para sua equipe jurídica, de segurança e/ou de TI.
Dividida em várias prioridades estratégicas, mas unificada em sua missão, a Estratégia de Inteligência Artificial Pan-Canadense busca "trazer benefícios sociais, econômicos e ambientais positivos para as pessoas e o planeta."
Esta é uma coleção de pesquisas, políticas e documentação de engenharia voltadas para o avanço da IA de maneira ética e responsável. A Microsoft também publicou seu abrangente Relatório de Transparência em IA Responsável em maio de 2024, que abrange desde o mapeamento, medição e gerenciamento de riscos de IA até a construção de modelos de IA de fronteira seguros e responsáveis.
O NIST trabalhou em estreita colaboração com importantes partes interessadas do setor privado e público e agências federais para desenvolver novos padrões de IA. Eles estão "fortemente engajados em esforços de política de IA nos EUA e internacionalmente, como o Conselho de Comércio e Tecnologia EUA-UE, a OCDE, o Conselho da Europa, o Diálogo de Segurança Quadrilateral" e várias outras iniciativas. O NIST também está colaborando com a Administração de Comércio Internacional do Departamento de Comércio dos EUA e o Departamento de Estado dos EUA como parte desses esforços.
Em julho de 2024, o NIST também publicou quatro documentos que têm como objetivo "ajudar a melhorar a segurança, a proteção e a confiabilidade dos sistemas de IA." Isso inclui:
A ética em IA envolve princípios e diretrizes que regulam o desenvolvimento, a implementação e o uso responsáveis dos sistemas de IA. Ela aborda questões como alinhamento, justiça, responsabilidade, transparência, privacidade, risco e os impactos sociais das tecnologias de IA.
Um relatório publicado sobre pesquisadores da OpenAI (arXiv:2307.03718: Regulamentação da IA de Fronteira: Gerenciando Riscos Emergentes para a Segurança Pública) destaca vários desafios associados à regulamentação de modelos de IA de fronteira para ajudar a proteger os usuários. O relatório afirma que "os modelos de IA de fronteira representam um desafio regulatório distinto: recursos perigosos podem surgir inesperadamente; é difícil prevenir de forma robusta o uso indevido de um modelo implantado; e é difícil impedir a proliferação ampla dos recursos de um modelo."
Além disso, o resumo do relatório destaca que existem “pelo menos três blocos de construção” necessários para a regulamentação:
Pesquisas relacionadas
Artigos Relacionados