L’intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines d'imiter les capacités humaines comme l'apprentissage, la compréhension, la résolution de problèmes, la prise de décisions, la créativité et l’action indépendante.
Les organisations utilisent l’IA pour favoriser l’innovation, autonomiser leurs équipes et simplifier les opérations de différentes façons. Selon la manière dont l’IA est implémentée, ses fonctionnalités sont souvent soutenues par le traitement analytique prédictif, l’apprentissage automatique (ML) et d'autres fonctionnalités. Les cas d'utilisation de l’IA comprennent les suivants, entre autres :
Le matériel que nous utilisons pour favoriser l’innovation, simplifier les processus et gérer les opérations du quotidien évolue. Les architectures avancées telles que les machines Reduced Instruction Set Computing (RISC), généralement nommées développement ARM, et les architectures Complex Instruction Set Computing (CISC), comme x86, jouent des rôles essentiels dans le secteur de l’informatique. Face aux investissements importants d’Apple, Microsoft, Broadcom, Intel et d'autres entreprises dans les technologies d’optimisation de l’IA, nous sommes entrés dans l’ère des PC dotés de l’IA. Ces systèmes sont optimisés pour gérer un large éventail de tâches optimisées par l’IA, avec notamment la reconnaissance vocale, le traitement du langage naturel et l'apprentissage automatique. Le matériel spécifique à l’IA accélère un grand nombre de ces tâches sur l'appareil, permettant une inférence de l’IA puissante et même un entraînement sur les machines du quotidien.
Pour alimenter l'apprentissage profond et entraîner les modèles d’IA, les organisations utilisent les performances et le débit important offerts par les data centers dotés de l'IA. Ces installations contiennent de grandes quantités de matériel, notamment des GPU (processeurs graphiques) et des systèmes d'accélération de l'IA. Comme le note un article récent de Forbes qui se penche sur leurs capacités, ils offrent « une puissance de calcul importante," et consomment collectivement une grande quantité d'alimentation, nécessitant même des solutions de refroidissement de pointe.
Les centres des opérations de sécurité (SOC) peuvent utiliser l’IA pour attribuer les ressources et limiter les risques plus efficacement. Grâce à l’apprentissage profond, à l'automatisation et à d'autres fonctionnalités, ils peuvent accélérer leurs mesures de réponse et d’identification des risques, en particulier s’ils utilisent une plateforme de cybersécurité qui regroupe les solutions et intègre l’IA pour simplifier davantage leurs opérations.
Des outils comme ChatGPT, OpenAI et Microsoft Copilot étant facilement accessibles, les acteurs malveillants essaient sans cesse d'accéder à des données sensibles. Dans certains cas, leur but est de cibler des outils d’IA pour manipuler leur comportement et les pousser à fonctionner d'une manière contraire à l'usage prévu. Les principaux risques pour la sécurité liés à l’IA comprennent l’IA malveillante, l'automatisation des fraudes et la gouvernance insuffisante des données.
Les organisations doivent non seulement suivre le rythme, mais aussi prendre une longueur d'avance sur les cybercriminels, en assurant l'adoption de la technologie d’IA. Dans le cadre de cette stratégie, il est essentiel d'acquérir une compréhension plus approfondie des risques pour la sécurité liés à l’IA.
Une politique qui tient compte des risques et qui fournit des conseils sur la bonne utilisation de l’IA est un point de référence important pour les employés. Assurez-vous qu’elle est respectée et maintenue à jour afin de minimiser les risques qui menacent votre organisation. Il est essentiel de mettre en place les politiques et procédures adaptées pour assurer la conformité et maintenir une sécurité efficace des données. Vous pouvez explorer des exemples d’organismes de réglementation fédéraux et du secteur et travailler avec des pairs pour créer l'ébauche de votre propre politique d’IA.
Les deepfakes deviennent de plus en plus convaincants à mesure que la technologie d’IA générative (GenAI) continue d'évoluer. Ils constituent un grand risque pour la sécurité des données, car les acteurs malveillants s’en servent pour manipuler des individus ou des groupes, en les poussant à croire que l’image, la vidéo ou le texte généré est authentique et fiable. Quel que soit le rôle de l’IA, l’intention des cybercriminels dans ces approches (tromper, voler et/ou frauder) reste la même.
Le fait de comprendre le fonctionnement des implémentations d’IA, y compris la façon dont elles utilisent et conservent potentiellement les données, permet d’alimenter une réponse de cybersécurité efficace. Pendant que les organisations continuent d’imaginer et d’innover avec l’IA, les acteurs malveillants s'adaptent pour profiter des vulnérabilités. Le paysage des menaces évoluant constamment en parallèle de l’IA, les organisations doivent s’efforcer de sécuriser leurs implémentations d’IA de manière proactive.
En outre, si vous développez vos propres systèmes d’IA et que vous entraîniez ou non vos propres modèles, les recommandations OWASP sont les suivantes :
Lisez la présentation sur la sécurité avec l’IA OWASP pour plus de détails et d’informations techniques.
De nouveaux risques font leur apparition, car la GenAI utilise les capacités du ML pour l'analyse des données et la création. « La sécurité des données de l’apprentissage automatique doit également tenir compte de l’intégrité des données en transit et pendant le traitement », selon un article de la Global Cybersecurity Alliance (GCA) sur la sécurité des données avec le ML. « La compromission de l’intégrité des données peut fausser les résultats des modèles. Cela peut mener à des décisions inexactes ou biaisées, avec des conséquences potentiellement désastreuses. »
Cet article explore des étapes proactives de manière détaillée :
Les modèles d’IA sont des structures composées d'une architecture et de valeurs de paramètre, qui permettent au système d’effectuer des tâches telles que la réalisation de prédictions ou la génération de contenu, ou inférence. Ces tâches peuvent aller de la réponse à des questions à la détection de schémas dans les données, en passant par la reconnaissance de comportements, et bien plus encore. En général, les modèles d’IA suivent un entraînement afin d'apprendre les meilleures valeurs de paramètre pour une inférence efficace.
Selon les besoins, les objectifs, les exigences de conformité et le budget de votre organisation, entre autres facteurs, vous pouvez envisager l’implémentation d’un large éventail de modèles d’IA. Cependant, il est important de noter que chaque modèle d’IA possède son propre niveau de risque inhérent. Il existe également différents types de modèles d’IA à prendre en compte.
Une grande partie des technologies d’IA les plus largement implémentées et établies, que nous connaissons actuellement, sont désignées sous le nom d’IA faible (narrow) ou traditionnelle. Elle peut s'adapter aux requêtes et/ou aux besoins des utilisateurs, mais ne peut effectuer que des tâches prédéterminées, souvent dans un domaine d’expertise précis. Des exemples d’IA faible comprennent les chatbots textuels sur les portails d'assistance client, les assistants virtuels comme Siri ou l’Assistant Google, et les logiciels de détection de langue dotés de fonctionnalités de traduction automatique.
Selon l’équipe Données et IA d’IBM, il existe deux catégories fonctionnelles d’IA faible :
Comme son nom l'indique, l’IA de machine réactive ne peut utiliser que les informations que vous lui fournissez sur le moment même. Elle peut interagir activement avec son environnement et ses utilisateurs, mais ne peut pas s'améliorer ni mémoriser ce qu’elle reçoit. Les recommandations de contenu intégrées aux plateformes de streaming et de réseaux sociaux utilisent l’IA de machine réactive, tout comme les outils conçus pour effectuer l’analyse prédictive des données en temps réel.
L’IA à mémoire limitée utilise les données anciennes et actuelles disponibles pour mieux vous aider. Le terme « limité » est lié au fait qu’elle ne peut pas conserver les données que vous fournissez de manière indéterminée, et qu’elle repose donc essentiellement sur la mémoire à court terme. En revanche, elle utilise les données auxquelles elle peut accéder pour optimiser ses performances et ses capacités en continu. En d'autres termes, son environnement et vos informations permettent de l’entraîner à donner la meilleure réponse. Les assistants virtuels, par exemple, sont classés dans cette catégorie.
L’IA faible est utilisée dans différentes implémentations, tandis que les modèles d’IA frontière, plus souvent appelée IA générative, font l’objet d'une attention et d’investissements importants. Ces modèles d’IA sont encore plus avancés, expérimentaux et orientés vers l’avenir, dès leur conception. Comme son nom l’indique, l’IA générative est conçue pour générer du contenu, via des invites ou en accédant à des données existantes. GPT-4 et Google Gemini Ultra en sont des exemples.
Le rapport Artificial Intelligence Index Report 2024 de l’université Stanford estime que les coûts d’entraînement de l’IA frontière ont atteint des « niveaux sans précédent »; à lui seul, Google Gemini Ultra coûte 191 millions USD. En outre, le rapport précise que le secteur est un moteur important de recherche en IA frontière et qu’il a produit 51 « modèles d'apprentissage automatique notables » en 2023, contre 15 dans l'académie. Cependant, en parallèles, 21 modèles de ce genre ont émergé de collaborations entre le secteur et l'académie. Le rapport note également que, malgré un déclin des investissements privés en 2022, les fonds dédiés à l’IA générative ont atteint 25,2 milliards USD, et « tous les grands acteurs […] ont fait état de collectes de fonds très importantes. »
« L’IA traditionnelle excelle dans la reconnaissance de schémas, tandis que l’IA générative excelle dans la création de schémas. L’IA traditionnelle peut analyser les données et vous dire ce qu’elle voit, mais l’IA générative peut utiliser ces mêmes données pour créer quelque chose d’entièrement nouveau », résumé l'auteur Bernard Marr dans The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes). « L’IA générative et l’IA traditionnelle ont toutes deux un rôle important à jouer pour façonner notre avenir, et chacune va offrir des possibilités uniques. L'adoption de ces technologies avancées sera essentielle pour les entreprises et les particuliers qui souhaitent garder une longueur d'avance dans notre paysage numérique en évolution rapide. »
Un ensemble d’instructions étape par étape conçues pour résoudre un problème ou effectuer une tâche. Il définit une séquence d’opérations qui peuvent être exécutées par un ordinateur.
Un sous-ensemble de l'apprentissage automatique dans lequel les algorithmes, inspirés par la structure et le fonctionnement du réseau neuronal du cerveau humain, apprennent avec de grandes quantités de données. Le terme « profond » fait référence au grand nombre de couches dans lequel ces neurones artificiels sont organisés. L'apprentissage profond excelle dans les tâches comme la reconnaissance d’image et de parole, le traitement du langage naturel et la reconnaissance de schémas plus complexes.
Système conçu pour percevoir son environnement et agir afin d’optimiser ses chances d'atteindre des objectifs spécifiques. Il s'appuie sur des capteurs pour rassembler des informations et des algorithmes afin de prendre des décisions, d'agir et d’évaluer les effets, et apprend et s'adapte souvent au fil du temps.
Il s'agit de contenu produit ou manipulé grâce à des techniques d’IA, comme l'apprentissage profond. Il inclut des images, des vidéos et de l’audio générés qui simulent de manièrent convaincante des éléments du monde réel, floutant les frontières entre authenticité et simulation.
Les LLM désignent des modèles d’IA dotés de milliards de paramètres, comme GPT-4, qui sont entraînés avec de vastes jeux de données pour manipuler et générer du texte de type humain. Ils permettent de réaliser différentes tâches et applications liées au langage. Les transformateurs sont actuellement l’architecture dominante pour les LLM.
Il s'agit généralement d'un modèle d'apprentissage profond entraîné avec un jeu de données étendu, qui peut ensuite être réaffecté pour de nombreuses tâches différentes. Les LLM sont des exemples de modèles de fondation, capables d’être multimodaux ou spécialisés pour la langue, le code, les images, l’audio ou un ensemble de modalités. Les modèles de base peuvent également être affinés pour des applications spécialisées, comme les chatbots.
Recherches associées
Articles associés