Las políticas de empresa con IA consisten en el conjunto de normas operacionales reglamentarias relacionadas con el uso correcto de la tecnología de IA. Estas ayudan a mantener el cumplimiento de normativa, garantizar la privacidad de los datos y a mantener la seguridad digital.
Para que su política instruya de forma efectiva acerca de las prácticas recomendadas y mitigue el riesgo, debe centrarse en diversas áreas principales. Estas incluyen las siguientes:
La sección inicial se refiere a clarificar la intención de su política de empresa con IA. También debería especificar quién debe adherirse a estos requisitos, como personas o agencias externas contratadas además de los empleados habituales.
Aquí, solo deberían aparecer las aplicaciones aprobadas relacionadas con la IA. También es posible especificar aquí los procedimientos de acceso correctos con el fin de garantizar el cumplimiento de normativa, aunque debería omitirse la información sensible como las credenciales de inicio de sesión. En su lugar, la dirección puede proporcionar esta información de forma segura a petición de las personas que necesiten acceder y/o durante el proceso de incorporación.
Resumir el correspondiente proceso de uso de la IA, por ejemplo, en forma de lista numerada, ayuda a los usuarios a comprender los pasos adecuados y adherirse a ellos. Esto supone una oportunidad de implementar barreras operacionales y comunicar cómo se deben gestionar los permisos, las comunicaciones internas, los controles de calidad del contenido generado por IA, los datos en general y el acceso concedido a los sistemas de IA a las herramientas. Asimismo, puede ayudar especificar qué hacer si o cuando se sospecha de un riesgo o vulnerabilidad relacionada con alguna de las áreas mencionadas anteriormente.
Esta sección debe clarificar cuándo, dónde y cómo no se deberían utilizar las aplicaciones de IA aprobadas. También debería incluir aquí toda excepción específica razonable, si procede. Al igual que ocurre con el resto de la política, el lenguaje seleccionado debe ser claro, conciso y fácil de seguir a la vez que minimiza el riesgo de interpretación errónea o confusión.
Esta sección recuerda a sus usuarios de que deben revisar los términos y condiciones de las herramientas de IA a las que tiene permitido acceder, lo que ayuda a protegerle frente al uso indebido y/o frente a problemas relacionados con la responsabilidad. También debe centrarse en la importancia de mantener la privacidad de los datos y evitar plagios, respetando los derechos de propiedad intelectual y sus titulares, y no proporcionar a las herramientas en cuestión acceso a información confidencial.
Aquí especifique las regulaciones y los órganos rectores con los que su organización, y por extensión, su equipo, deben mantener el cumplimiento de normativa cuando utilicen la IA. Estos deben incluir leyes gubernamentales establecidas y cualquier otro requisito para su equipo de TI, seguridad y/o legal.
Aunque dividido en diversas prioridades estratégicas y unificado en su misión, la Estrategia de inteligencia artificial Pancanadiense busca «llevar los beneficios positivos medioambientales, económicos y sociales para las personas y el planeta».
Esta es una colección investigaciones, políticas y documentación técnica centrada en el desarrollo de la IA de forma ética y responsable. Microsoft también publicó su detallado Informe de transparencia de IA responsable en mayo de 2024, el cual abarca todo desde la creación de mapas, mediciones y gestión de los riesgos de la IA hasta el desarrollo seguro y responsable de modelos de IA de frontera.
El NIST ha trabajado estrechamente con los principales interesados de los sectores públicos y privados, así como con agencias federales para desarrollar nuevos estándares de IA. Existen «esfuerzos de políticas de IA profundamente comprometidos, como el Consejo de Comercio y Tecnología (Trade and Technology Council) efforts such as the US-EU Trade and Technology Council, OECD (OCDE), Consejo de Europa, Diálogo de Seguridad Cuadrilateral (Quadrilateral Security Dialogue)», entre otras iniciativas. El NIST también colabora con la Administración de Comercio Internacional del Departamento de Comercio de los EE. UU. y el Departamento de Estado de los EE. UU., como parte de estos esfuerzos.
En julio de 2024, el NIST también difundió cuatro publicaciones «destinadas a mejorar la seguridad y la credibilidad de los sistemas de IA». Estas incluyen:
La ética de la IA implica principios y directrices que rigen el desarrollo, implementación y uso responsables de los sistemas de IA. Aborda problemas como el alineamiento, imparcialidad, responsabilidad, transparencia, privacidad, riesgo y los impactos sociales de las tecnologías de IA.
Un informe publicado por los investigadores de OpenAI (arXiv:2307.03718: Regulación de IA de frontera: Gestión de los riesgos emergentes en la seguridad pública) destaca los numerosos desafíos asociados a la regulación de los modelos de IA de frontera para ayudar a proteger a los usuarios. Menciona que «los modelos de IA de frontera suponen un desafío regulatorio distinto: capacidades peligrosas pueden surgir de forma inesperada, es difícil evitar enérgicamente el uso indebido de un modelo implementado, y es difícil detener la amplia proliferación de las capacidades del modelo».
Además, el resumen del informe indica que hay «al menos tres bloques de creación» que necesitan regulación:
Investigaciones relacionadas
Artículos relacionados