Las políticas empresariales de IA son el conjunto de reglas operativas que gobierna el uso correcto de la tecnología de IA. Estas ayudan a mantener el cumplimiento, asegurar la privacidad de la información y mantener la seguridad digital.
Para que su política eduque efectivamente sobre mejores prácticas y mitigue el riesgo, necesita enfocarse en algunas áreas clave. Estas incluyen:
Esta sección inicial busca aclarar la intención de la política de IA de su organización. También debería de especificar quién necesita adherirse a sus requerimientos, como individuos externos o agencias además de los empleados regulares.
Aquí deben de listarse solamente las aplicaciones relacionadas con la IA que están aprobadas para su uso. También se deben especificar aquí los procedimientos correctos de acceso para ayudar a asegurar el cumplimiento, aunque se debe evitar mencionar las credenciales de inicio de sesión. Estas, en su lugar, se pueden brindar de forma segura al individuo que busca acceso ya sea en el momento o como parte del proceso de onboarding.
Resumir el proceso correcto para el uso de la IA ayuda a los usuarios a comprender los pasos apropiados y adherirse a ellos. Esta es una oportunidad para implementar guías operativas y comunicar cómo se deben gestionar los permisos, las comunicaciones internas, el control de calidad del contenido generado con la IA y los accesos a herramientas y datos en general. Además, puede ser útil especificar qué hacer en caso de que se sospeche una vulnerabilidad o un riesgo relacionado con cualquiera de los puntos anteriores.
Esta sección debe aclarar cuándo, dónde y cómo no se deben de usar las aplicaciones aprobadas de IA. Si existen excepciones razonables y específicas, estas deben incluirse en esta sección. Como con el resto de la política, las palabras que elija usar deben de ser claras, concisas y fáciles de entender para minimizar el riesgo de malos entendidos, malas interpretaciones o confusión en general.
Esta sección busca recordarle a sus usuarios de revisar los términos y condiciones de las herramientas de IA que tienen permitido acceder, ayudando a proteger contra malos usos. También debe de enfocarse en la importancia de mantener la privacidad de la información y evitar plagios, el respeto a los derechos de propiedad intelectual y no darle acceso a información confidencial a las herramientas en cuestión.
Aquí, especifique cuáles son las normativas y los organismos con los que su organización debe mantener el cumplimiento al momento de usar la IA. Estos deben incluir leyes y cualquier requerimiento para sus equipos legales, de seguridad y/o de TI.
Dividida entre múltiples prioridades estratégicas y unificada en su misión, la Estrategia Pan-Canadiense de Inteligencia Artificial busca “traer beneficios sociales, económicos y ambientales para las personas y para el planeta.”
Una colección de investigaciones, políticas y documentación de ingeniería enfocada en el avance de la IA de una forma ética y responsable. Microsoft también publicó su Reporte de Transparencia de la IA Responsable en mayo de 2024, el cual cubre todo desde el mapeo, medición y gestión de los riesgos de IA para crear modelos seguros y responsables de IA.
NIST ha trabajado de cerca con partes interesadas del sector público y privado, además de agencias federales, para desarrollar nuevos estándares de IA. Están “fuertemente involucrados con los esfuerzos internacionales y de los Estados Unidos para crear políticas de IA, tales como US-EU Trade and Technology Council, OECD, Council of Europe, Quadrilateral Security Dialogue,” y otras iniciativas. NIST también está colaborando con la Administración de Comercio Internacional del Departamento de Comercio y el Departamento de Estado de los Estados Unidos como parte de estos esfuerzos.
En julio de 2024, NIST también realizó cuatro publicaciones que buscan “ayudar a mejorar la seguridad y confianza de los sistemas de IA.” Estas incluyen:
La ética en la IA consiste de los principios que gobiernan el desarrollo, despliegue y uso responsable de los sistemas de IA. Aborda temas como la alineación, la imparcialidad, la rendición de cuentas, la transparencia, la privacidad, los riesgos y los impactos en la sociedad de las tecnologías de IA.
Un reporte publicado por los investigadores de OpenAI (arXiv:2307.03718: Frontier AI Regulation: Managing Emerging Risks to Public Safety) destaca varios desafíos asociados con la regulación de los modelos de IA para proteger a los usuarios. Destaca que “los modelos de Frontier AI representan un desafío para los reguladores: pueden surgir capacidades peligrosas sin advertencia; es difícil prevenir el mal uso de un modelo desplegado; y es difícil evitar que las capacidades de un modelo se propaguen ampliamente.”
Además, el resumen del reporte nota que existen “al menos 3 pilares” necesarios para la regulación:
Investigaciones Relacionadas
Artículos Relacionados