¿Qué es la IA?

La Inteligencia Artificial (IA) es una tecnología que empodera a las computadoras y a las máquinas a imitar habilidades humanas como aprender, comprender, resolver problemas, tomar decisiones, ser creativos y tomar acciones independientes.

¿Dónde se usa la IA?

Las organizaciones usan la IA para impulsar la innovación, empoderar a sus equipos y optimizar las operaciones de distintas formas. Dependiendo de cómo se implementen, las capacidades de IA a menudo se fortalecen con analíticos predictivos, machine learning (ML) y otras funcionalidades. Los casos de uso de la IA incluyen pero no se limitan a:

  • Aprovechar los centros de datos para entrenar modelos de IA
  • Ayudar a clientes con el apoyo de chatbots
  • Optimizar los procesos de las cadenas de suministro
  • Automatizar tareas repetitivas para liberar recursos y equipos
  • Apoyar con la generación de ideas creativas y brainstorming
  • Reducir el tiempo a la respuesta de queries
  • Acelerar los procesos de toma de decisiones
  • Reducir costos por medio de la optimización y automatización
  • Traducir texto y/o audio
  • Consolidar hallazgos de investigación y estadísticas

PCs IA

El hardware que se usa para impulsar la innovación, optimizar los procesos y gestionar las operaciones diarias está cambiando. Las arquitecturas avanzadas como los computadores con conjunto de instrucciones reducido (RISC), conocidas como desarrollos ARM, y arquitecturas de ordenador con conjunto de instrucciones complejas (CISC) como x86 están jugando papeles críticos en la industria de la computación. Ahora que empresas como Apple, Microsoft, Broadcom, Intel y otras están invirtiendo fuertemente en tecnologías habilitadas por IA, hemos entrado a la era de las PCs IA. Estos sistemas están optimizados para soportar una gran cantidad de tareas habilitadas por IA, incluyendo pero no limitando a reconocimiento de voz, procesamiento de lenguaje natural y machine learning. El hardware específico para la IA acelera muchas de estas tareas dentro del dispositivo, permitiendo que la IA se entrene en máquinas que usamos todos los días y que dé como resultado inferencias más poderosas.

Centros de Datos IA

Para potenciar el aprendizaje profundo y entrenar a los modelos de IA, las organizaciones están aprovechando el desempeño que ofrecen los centros de datos de IA. Estas son instalaciones que albergan grandes cantidades de hardware, incluyendo unidades de procesamiento gráfico (GPUs) y sistemas de aceleración de IA. Como nota un artículo reciente publicado en Forbes que explora estas capacidades, estos centros entregan “poder sustancial de cómputo," colectivamente consumiendo cantidades masivas de energía y que incluso necesitan de soluciones de enfriamiento de vanguardia.

¿Qué es la IA para SOCs?

Los centros de operaciones de seguridad (SOCs) pueden aprovechar la IA para distribuir sus recursos de forma más eficiente y mitigar el riesgo. A través del deep learning, la automatización y otras capacidades, pueden acelerar el tiempo que toma identificar los riesgos y la toma de acciones de respuesta, particularmente si se usa una plataforma de ciberseguridad que pueda consolidar las soluciones y que integra la IA para optimizar aún más las operaciones.

Riesgos de Seguridad de IA

Con la facilidad de acceso a herramientas como ChatGPT, OpenAI y Microsoft Copilot, los actores maliciosos están fuertemente interesados en acceder a información sensible. En algunos casos, buscan manipular precisamente a las herramientas de IA para que operen contra su uso debido. Los riesgos claves de seguridad para IA incluyen la “rogue AI”, la automatización de fraudes y la gobernanza insuficiente de datos.

Las organizaciones no solamente deben de mantener el paso, pero deben mantenerse adelante de los cibercriminales por medio una adopción de la IA basada en riesgos y con fuertes estándares de cumplimiento. Una parte crítica de esta estrategia es desarrollar un entendimiento mucho más profundo de los riesgos de seguridad de la IA.

Políticas Empresariales de IA

Una política consciente de los riesgos que brinde una guía sobre el uso correcto de la IA es un punto de referencia muy importante para los empleados. Asegurar que se siga y que se mantenga actualizada ayudará a minimizar el riesgo que enfrenta su organización. Es esencial contar con las políticas y procesos correctos para mantener el cumplimiento y la seguridad de la información. Explorar ejemplos de reguladores gubernamentales e industriales y trabajar con sus colegas pueden ayudarle a informar cómo creará su propia política de IA.

Deepfakes

Conforme la tecnología de IA generativa (GenAI) continúa avanzado, los deepfakes se están volviendo cada vez más convincentes. Y, ahora que los actores maliciosos los usan para manipular individuos o grupos con imágenes, videos o textos en apariencia auténtico y confiable Ya sea que la IA juega un papel o no, la intención de los cibercriminales sigue siendo la misma: engañar, robar o defraudar.

Cómo Proteger a la IA

Entender cómo funcionan las implementaciones de IA, incluyendo cómo usan y potencialmente retienen la información, es de gran ayuda para crear una respuesta efectiva de ciberseguridad. Conforme las organizaciones continúan imaginando e innovando con IA, los actores maliciosos también continúan adaptándose para aprovechar cualquier vulnerabilidad que encuentren. Y, como el panorama de amenazas evoluciona junto con la IA, las organizaciones deben buscar proteger sus implementaciones de IA de forma proactiva.

Acciones recomendadas por OWASP (Open Web Application Security Project) para la seguridad de IA

  • Implementar gobernanza de IA
  • Extienda sus prácticas de seguridad por medio de controles y activos OWASP (así como soluciones de seguridad para IA)
  • Asegúrese de que cualquier proveedor de IA con el que trabaje haya implementado controles apropiados de seguridad
  • Limite el impacto de sus implementaciones de IA minimizando la información y los privilegios
  • Prevenga la denegación de servicio estableciendo límites
  • Implemente guardas en la forma de procesos de supervisión (incluyendo la supervisión humana)

Además, si está desarrollando sus propios sistemas de IA y, si está entrenando sus propios modelos o no, OWASP recomienda lo siguiente:

  • Integre su ingeniería de IA y datos en sus prácticas seguras de desarrollo de software
  • Aplique los controles técnicos y procesos apropiados (respondiendo a las novedades sobre amenazas de IA)

Lea el resumen de seguridad para IA de OWASP para conocer más detalles e insights técnicos.

Seguridad de datos de Machine Learning (ML)

La GenAI usa capacidades de ML para analizar datos y generar productos creativos, y con eso están surgiendo nuevos riesgos. “La seguridad de datos de Machine Learning también debe de considerar la integridad de los datos en tránsito y durante su procesamiento,” destaca un artículo de Global Cybersecurity Alliance (GCA) sobre la seguridad de datos de ML. “Un compromiso en la integridad de los datos puede alterar los resultados de los modelos. Puede llevar a tomar decisiones sesgadas o imprecisas con consecuencias potencialmente negativas.”

Se exploran a detalle cuáles pueden ser pasos proactivos a seguir en este artículo:

  • Control de accesos y autentificación
  • Auditorías regulares de datos y monitoreo
  • Anonimización y seudonimización de datos
  • Prácticas seguras para compartir información

¿Qué es un Modelo de IA?

Los modelos de IA son estructuras que consisten de una arquitectura y valores de parámetros que permiten que el sistema realice tareas como hacer predicciones o generar contenido, lo cual se llama inferencia. Estas tareas pueden consistir en responder a queries, detectar patrones en los datos, reconocer comportamientos y más. Los modelos de IA típicamente pasan por una etapa de entrenamiento para conocer los mejores valores y parámetros para realizar inferencias efectivas.

Dependiendo de las necesidades, metas, requerimientos de cumplimiento y presupuesto de su organización, entre otros factores, se pueden considerar una gran variedad de modelos de IA para su implementación. Sin embargo, es importante notar que cada modelo de IA trae consigo un nivel inherente de riesgo, y que también hay distintos modelos que deben considerarse.

Tipos de Modelos de IA

IA tradicional/limitada

La mayoría de la tecnología establecida de IA que está implementada actualmente se trata de IA tradicional o limitada. Aunque es capaz de adaptarse a las necesidades y/o queries de sus usuarios, solamente puede realizar ciertas tareas predeterminadas, a menudo dentro de un solo dominio. Algunos ejemplos incluyen a los chatbots en los portales de servicio al cliente, asistentes virtuales como Siri y software de detección de idiomas con capacidades de traducción automática.

De acuerdo con el Equipo de IA y Datos de IBM, existen dos categorías funcionales de IA limtada:

IA de máquina reactiva

Como sugiere el término, la IA de máquina solamente puede hacer uso de la información que se le alimenta en el momento actual. Puede interactuar activamente con su ambiente y con sus usuarios, pero, al no poder memorizar lo que aprende, no puede mejorar por sí sola. Las recomendaciones de contenido que se pueden ver en servicios de streaming y en plataformas de redes sociales hacen uso de este tipo de IA, así como también las herramientas diseñadas para realizar análisis predictivo de datos en tiempo real.

IA de memoria limitada

La IA de memoria limitada aprovecha la información presente y pasada para serle de mayor utilidad. Se dice que es “limitada” porque no puede almacenar la información que recibe de forma indefinida, por lo que básicamente depende de memoria de corto plazo. Sin embargo, aprovecha los datos a los que sí puede acceder para optimizar continuamente su desempeño y sus capacidades. Dicho de otra forma, su ambiente y la información de entrada la entrenan para responder de la mejor forma posible. Los asistentes virtuales entran en esta categoría, por ejemplo.

“Frontier AI”

Aunque la IA limitada se usa en una gran variedad de implementaciones, los modelos de “Frontier AI”, mejor conocidos como GenAI, también están recibiendo una gran cantidad de atención y de inversiones. Estos modelos son aún más avanzados, experimentales y de vanguardia. Como insinúa el término, la IA generativa o GenAI está diseñada para generar contenidos, ya sea desde prompts o al acceder a información existente. Algunos ejemplos destacados son GPT-4 y Google Gemini Ultra.

El reporte de la Universidad de Stanford, Artificial Intelligence Index Report 2024, estima que los costos de entrenar a los modelos de Frontier AI han alcanzado “niveles sin precedentes”, con Google Gemini Ultra costando $191 millones de dólares, por ejemplo. Además, destaca que la industria es un elemento que impulsa la investigación sobre la Frontier AI, produciendo 51 “modelos notorios de machine learning” en 2023 a comparación de 15 en el ámbito académico. Sin embargo, simultáneamente, surgieron 21 modelos de estas características de colaboraciones industrial-académicas. El reporte también destaca que, a pesar de la disminución de la inversión privada en 2022, la inversión en GenAI ha incrementado a $25.2 millones de millones de dólares, y que “todos los jugadores principales […] reportaron rondas de inversión sustanciales.” 

Resumiendo los tipos de modelos de IA

“La IA tradicional es muy buena para reconocer patrones, mientras que la IA generativa es excelente para generar patrones. La IA tradicional puede analizar datos y decirle qué es lo que ve, mientras que la IA generativa puede usar esos mismos datos para crear algo completamente nuevo,” escribe el autor Bernard Marr en The Difference Between Generative AI: An Easy Explanation for Everyone (Forbes). “Tanto la IA generativa como la tradicional juegan papeles importantes en nuestro futuro, cada uno presentando posibilidades únicas. Será clave adoptar estas tecnologías avanzadas para que los individuos y los negocios puedan mantenerse a la vanguardia en nuestro panorama digital de rápida evolución.”

Términos adicionales asociados con la IA

Algoritmo

Conjunto de instrucciones paso a paso diseñadas para resolver un problema o realizar una tarea. Define una secuencia de operaciones que puede ejecutar una computadora.

Deep learning

Subconjunto de ML donde los algoritmos, inspirados por la estructura y función de las redes neuronales del cerebro humano, aprenden de grandes cantidades de datos. “Deep” (profundo) se refiere en este caso al gran número de capas en donde se organizan estas neuronas artificiales. El deep learning es excelente para realizar tareas como el reconocimiento de imágenes y voz, procesamiento de lenguaje natural y reconocimiento de patrones más complejos.

Agente de IA

Sistema diseñado para percibir su ambiente y tomar acciones para maximizar la probabilidad de lograr metas específicas. Usa sensores para recopilar información y algoritmos para tomar decisiones, actuar y evaluar las consecuencias, a menudo aprendiendo y adaptándose conforme pasa el tiempo.

Medios sintéticos

Contenido producido o manipulado usando técnicas de IA, como deep learning. Incluye imágenes, videos y audios generados que simulen elementos del mundo real de forma convincente, desdibujando la línea entre lo auténtico y lo simulado.

Large language model (LLM)

LLMs se refiere a los modelos de IA con billones de parámetros, como GPT-4, que se entrenan usando grandes cantidades de datos para manipular y generar texto que simule ser creado por un ser humano. Esto permite la realización de varias tareas y aplicaciones relacionadas con el lenguaje. Los transformadores son actualmente la arquitectura dominante para los LLMs.

Modelo fundacional

Típicamente es un modelo de deep learning que ha entrenado con una gran cantidad de datos, el cual entonces puede usarse para varias tareas. Los LLMs son ejemplos de los modelos fundacionales, capaces de especializarse en lenguaje, código, imágenes, audio, una combinación de estos o pueden también ser multi-modales. Los modelos fundacionales también pueden especializarse en funciones específicas, como los chatbots.

Investigaciones Relacionadas

Artículos Relacionados