La inteligencia artificial (IA) es una tecnología que empodera a máquinas y ordenadores a imitar las capacidades humanas como aprender, comprender, resolver problemas, tomar decisiones, crear y realizar acciones independientes
Las organizaciones utilizan IA para ayudar a impulsar la innovación, empoderar a sus equipos y optimizar operaciones de diversas maneras. Dependiendo de cómo se implementa la IA, sus capacidades se ven impulsadas mediante análisis predictivos, machine learning (ML) y otras funcionalidades. Entre los casos de uso de IA se incluyen, entre otros:
El hardware que utilizamos para impulsar la innovación, optimizar procesos y gestionar operaciones del día a día está cambiando. Las arquitecturas avanzadas como los equipos con «Ordenador con conjunto de instrucciones reducido» (RISC, por sus siglas en inglés), comúnmente conocidos como desarrollo de ARM, y arquitecturas de «Ordenador con conjunto de instrucciones complejas» (CISC, por sus siglas en inglés) como x86, desempeñan roles fundamentales en el sector de la computación. Con empresas como Apple, Microsoft, Broadcom, Intel y otras compañías invirtiendo fuertemente en tecnologías con IA, hemos entrado en la era de los ordenadores personales con IA. Estos sistemas están optimizados para gestionar una amplia gama de tareas impulsadas con IA, incluidas, pero no limitadas a, reconocimiento de voz, procesamiento de lenguaje natural y machine learning. Los hardwares específicos para IA aceleran muchas de estas tareas en los dispositivos, lo que permite una potente inferencia de la IA incluso para entrenar a equipos diariamente.
Para potenciar el aprendizaje profundo y el entrenamiento de modelos de IA, las organizaciones están aprovechando el rendimiento y los amplios resultados ofrecidos por los datacenters de IA. Los datacenters de IA son instalaciones que hospedan grandes cantidades de hardware, incluidas las unidades de procesamiento gráfico (GPU) y sistemas de aceleración de IA. Un reciente artículo en la revista Forbes exploraba sus capacidades, entre las que destaca un «sustancial poder computacional», lo que colectivamente consume ingentes cantidades de electricidad y que, incluso, requiere avanzadas soluciones de enfriamiento.
Los centros de operaciones de seguridad (SOC) pueden aprovechar la IA para asignar recursos y mitigar riesgos de forma más eficiente. Mediante el aprendizaje profundo, la automatización y demás capacidades, pueden acelerar la identificación de su riesgo y las medidas de respuesta, especialmente si utilizan una plataforma de ciberseguridad que consolida soluciones e integra la IA para optimizar aún más sus operaciones.
Con herramientas como ChatGPT, OpenAI y Microsoft Copilot accesibles al público, los agentes de amenazas pueden seguir intentando acceder a datos sensibles. En algunos casos su objetivo son las herramientas de IA para manipular su comportamiento con el fin de que funcionen de forma distinta a su uso originalmente previsto. Entre los principales riesgos en la seguridad de la IA se incluyen: IA deshonesta, automatización de fraudes y gobernanza de datos insuficiente.
Las organizaciones no solo deben mantener el ritmo, sino que también deben ir por delante de los ciberdelincuentes garantizando el conocimiento de los riesgos y la adopción de tecnología de IA que cumpla la normativa. El desarrollo de una mayor comprensión de los riesgos de la seguridad de la IA es una parte vital de esta estrategia.
Una política de concienciación del riesgo que proporcione una orientación acerca del uso correcto de la IA es un punto importante de referencia para los empleados. Garantizar que ésta se sigue y se mantiene actualizada ayudará a minimizar el riesgo al que se enfrenta su organización. El contar con políticas y procedimientos correctos es fundamental para cumplir con la normativa y mantener una seguridad de los datos efectiva. Explorar ejemplos procedentes de los reguladores federales y de la industria, así como trabajar con personas y organizaciones en su misma situación puede ayudarle con la creación de su propia política de IA.
A medida que la tecnología de IA generativa (GenAI) continúa avanzando, los deepfakes son cada vez más convincentes. Con agentes de amenazas utilizándolos para manipular personas o grupos y que crean que la imagen, vídeo o texto generado sea auténtico y de confianza, estos suponen un importante riesgo a la seguridad de los datos. Ya sea que la IA desempeñe o no un papel en él, la intención de los ciberdelincuentes sigue siendo utilizar cualquier enfoque para confundir, robar y/o defraudar.
Comprender cómo funcionan las implementaciones de IA, incluido cómo aprovechan y posiblemente retienen datos, ayuda a proporcionar información para crear una respuesta de ciberseguridad efectiva. A medida que las organizaciones continúan imaginando e innovando con IA, los agentes maliciosos se están adaptando correspondientemente para aprovechar todas las vulnerabilidades. Debido al panorama de amenazas en constante evolución junto con la IA en sí misma, las organizaciones deben esforzarse en proteger proactivamente sus implementaciones de IA.
Asimismo, si se encuentra desarrollando sus propios sistemas de IA e independientemente de si entrena sus propios modelos, OWASP recomienda:
Lea la descripción general de seguridad de IA de OWASP para obtener más detalles e información técnica.
Con la GenAI aprovechando las capacidades de ML para el análisis de datos y para obtener resultados creativos, aparecen nuevos riesgos. «La seguridad de datos de machine learning también debe considerar la integración de datos en tránsito y durante el procesamiento», menciona un artículo de Global Cibersecurity Alliance (GCA) acerca de la seguridad de datos de ML. «Una integridad de datos comprometida puede sesgar los resultados del modelo. Puede llevar a decisiones sesgadas o imprecisas con posibles consecuencias devastadoras».
En el siguiente artículo se exploran pasos proactivos en mayor profundidad:
Los modelos de IA son estructuras creadas de una arquitectura y valores de parámetro que permiten que el sistema realice tareas como realización de previsiones o generación de contenido, lo que se conoce como inferencia. Estas tareas pueden variar desde responder a consultas, detectar patrones en los datos, reconocer comportamientos y mucho más. Los modelos de IA generalmente atraviesan un proceso de entrenamiento para aprender los mejores valores de parámetros y así realizar una inferencia efectiva.
Dependiendo de las necesidades, objetivos, requisitos de cumplimiento de normativa y presupuesto de su organización, entre otros factores, puede considerar implementar un amplio rango de modelos de IA ideales. Sin embargo, es importante que tenga en cuenta que cada modelo de IA tiene su propio nivel de riesgo inherente y que también hay distintos tipos de modelos de IA a considerar.
La mayoría de la tecnología de IA establecida o más ampliamente implementada que tenemos hoy en día corresponde a la IA tradicional o estrecha. Si bien esta se puede adaptar para las necesidades y/o consultas de usuario, solo puede realizar tareas predeterminadas, a menudo, que estén en un solo campo de especialización. Entre los ejemplos de IA estrecha están los bots de chat con base en texto y que se encuentran en los portales de asistencia al cliente, asistentes virtuales como Siri o Google Assistant y software de detección de idioma con capacidades de traducción automática.
Según el equipo de IA y datos de IBM, existen dos categorías funcionales de IA estrecha:
Como sugiere el término, las IA de máquinas reactivas solo pueden utilizar en el momento presente información que previamente le ha suministrado. Pueden interactuar activamente con su entorno y los usuarios, pero, al no poder memorizar lo que recibe, no puede mejorar por sí misma. Las recomendaciones de contenido integradas en las plataformas de redes sociales y transmisión de vídeo utilizan IA de máquinas reactivas como herramientas diseñadas para realizar análisis predictivos de los datos en tiempo real.
La IA de memoria limitada utiliza los datos disponibles tanto en el presente como en el pasado para ayudarle mejor. La distinción de «limitada» se refiere a que no es capaz de mantener los datos que le proporciona de forma indefinida, sino que fundamentalmente se basa en la memoria a corto plazo. Sin embargo, los datos a los que puede acceder se aprovechan para ayudar a optimizar continuamente su rendimiento y capacidades. En otras palabras, su entorno y los datos que usted introduce ayudan a entrenarla y así obtener una mejor respuesta. En esta categoría entran los asistentes virtuales, entre otros ejemplos.
Mientras que la IA estrecha se utiliza en diversas implementaciones, los modelos de IA de frontera, comúnmente conocidos como GenAI (o IA generativa), también están recibiendo mucha atención e inversión. Estos modelos son incluso más avanzados, experimentales y orientados al futuro por naturaleza. Tal y como lo sugiere el término, GenAI está diseñada para generar contenido, ya sea en forma de entradas inmediatas como de acceso a los datos ya existentes. Entre los ejemplos más destacados se encuentran GPT-4 y Google Gemini Ultra.
El «Artificial Intelligence Index Report 2024» de la Universidad de Standford estima que los costes de entrenamiento de la IA de frontera alcanzaron «niveles sin precedentes», en los que solo Google Gemini Ultra cuesta 191 millones de dólares estadounidenses. Además, comenta que la industria es un importante impulsor de la investigación de la IA de frontera que ha llevado a la creación de 51 modelos destacados de machine learning en 2023 en comparación con 15 modelos del mundo académico. Aun así, a la misma vez, 21 de esos modelos surgieron de colaboraciones entre el ámbito académico y la industria. El informe también destaca que, a pesar de la disminución de la inversión privada en 2022, la financiación de GenAI se ha disparado en 25 200 millones de dólares estadounidenses, y que «las mayores y principales empresas [...] notificaron sustanciales rondas de recaudación de fondos».
«La IA tradicional se distingue por el reconocimiento de patrones, mientras que la IA generativa lo hace en la creación de patrones. La IA tradicional pueden analizar datos y decirle lo que ve, pero la IA generativa puede utilizar los mismos datos para crear algo completamente nuevo», comenta Bernard Marr en el artículo «The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone» (Forbes). «Tanto la IA generativa como la IA tradicional desempeñan roles importantes en la configuración del futuro y cada una de ellas desbloquea posibilidades únicas. Adoptar estas tecnologías avanzadas será la clave para empresas y particulares que busquen estar por delante de la curva en nuestro panorama digital de rápida evolución».
Un conjunto de instrucciones detalladas diseñadas para solucionar un problema o realizar una tarea. Define una secuencia de operaciones que un ordenador puede ejecutar.
Un subconjunto de machine learning donde los algoritmos, inspirados por la estructura y el funcionamiento de las redes neurales del cerebro humano, aprenden de grandes cantidades de datos. «Profundo» se refiere al gran número de capas en las que se organizan estas neuronas artificiales. El aprendizaje profundo destaca en tareas como reconocimiento de habla e imágenes, procesamiento del lenguaje natural y reconocimiento de patrones más complejos.
Un sistema diseñado para percibir su entorno y realizar acciones para maximizar sus posibilidades de alcanzar objetivos específicos. Utiliza sensores para recopilar información y algoritmos para tomar decisiones, realizar acciones y evaluar el efecto, a menudo aprendiendo y adaptándose con el tiempo.
Esto es contenido producido o manipulado que utiliza técnicas de IA, como aprendizaje profundo. Incluye imágenes, vídeos y audio que simulan convincentemente elementos del mundo real, difuminando la línea entre algo auténtico y simulado.
El LLM se refiere a modelos de IA con miles de millones de parámetros, como GPT-4, que son entrenados en ingentes conjuntos de datos para manipular y generar texto como humanos. Esto permite diversas aplicaciones y tareas relacionadas con el lenguaje. Los transformadores son actualmente la arquitectura dominante para los LLM.
Este consiste habitualmente en un modelo de aprendizaje profundo entrenado en un amplio conjunto de datos, el cual se puede volver a reutilizar para numerosas y distintas tareas. Los LLM son ejemplos de modelos fundacionales, capaces de estar especializados en lenguaje, códigos, imágenes, audio, una combinación de modalidades, o pueden ser multimodales. Los modelos fundacionales también se pueden perfeccionar para aplicaciones especializadas, como los bots de chats.
Investigaciones relacionadas
Artículos relacionados