La capacité de résolution de problèmes et de prise de décision des ordinateurs, des machines, des programmes et du code source pour simuler l’esprit humain et ses aptitudes comprend deux approches principales : l’approche humaine et l’approche idéale.
L’intelligence artificielle en tant que concept défini date de 1950, avec l’article écrit par Alan Turing, Computing Machinery and Intelligence. Découlant de cet article, le "Test de Turing" (initialement appelé le Jeu d’imitation de Turing) a pour but de déterminer si un ordinateur peut penser comme un être humain. En tant que concept dans les connaissances humaines actuelles, il est possible de dire que cette idée remonte à 1939 avec le Magicien d’Oz et l’homme en fer blanc en manque de cœur.
Passer de l’idée de Turing à la réalité a été, et continue d’être, un défi. À l’époque de Turing, le problème était la capacité d’une machine à stocker ou mémoriser ses décisions. Elle pouvait calculer, mais elle ne disposait pas de la capacité de stocker ces informations, ce qui est fondamentalement requis pour parvenir à l’IA et obtenir un ordinateur qui pense comme un être humain.
Bien plus tard, Stuart Russell et Peter Norvig ont publié leur ouvrage Artificial Intelligence: A Modern Approach en 1995, qui en est désormais à sa 4ème édition datée de 2020. Russell et Norvig se sont efforcés de clarifier le terme d’intelligence artificielle. Vu qu’il existe de nombreuses définitions, ils ont décomposé l’IA dans la logique de la rationalité et de la pensée par rapport à l’action.
La première définition dans le cadre de l’IA englobe les systèmes qui peuvent penser comme un être humain. Si des systèmes peuvent apprendre et résoudre des problèmes comme un être humain, ils appartiennent à cette catégorie. Haugeland les a définis en 1985 comme des "machines dotées d’un esprit." En 1978, Hellman a déclaré que cette catégorie est l’automatisation des "activités que nous associons à la pensée humaine."
Séparément, certains systèmes peuvent agir comme les êtres humains ; il s’agit de la catégorie de systèmes qui réussissent le Test de Turing. Si un système peut agir comme un être humain, communiquer avec succès en français, comprendre ce qu’on lui dit, répondre, évoluer et élaborer de nouvelles conclusions, il appartient à cette catégorie. Kurzweil a défini cette catégorie comme "l’art de créer des machines qui exécutent des fonctions nécessitant une intelligence lorsqu'elles sont exécutées par des personnes."
Le deuxième ensemble de catégories pour les systèmes d’IA les mesure en fonction de la capacité à agir de manière rationnelle ; ceci est différent du comportement humain car les personnes ne sont parfois pas rationnelles. À nouveau, il existe 2 façons d’aborder l’IA ici : les systèmes peuvent penser de manière rationnelle ou agir de manière rationnelle.
Charniak et McDermott ont décrit un système qui peut penser de manière rationnelle en 1985 comme "l’étude des aptitudes mentales via l’utilisation de modèles de calcul." Ceci est considéré comme l’approche des « lois de la pensée ».
Aristote a été le premier à expliquer ce qu’il appelait la « pensée juste », ou les processus de raisonnement irréfutables. L’exemple donné par Russell et Norvig est "Socrate est un homme, tous les hommes sont mortels ; donc Socrate est mortel."
Il est également possible pour un système d’agir de manière rationnelle, démontrant des compétences basées sur le Test de Turning. Poole a décrit ce qui doit être fait pour créer un système d’IA qui peut agir de manière rationnelle comme "l’intelligence computationnelle en tant qu’étude de la conception d’agents intelligents."
Les termes Faible et Forte sont une autre façon de distinguer les types de systèmes d’IA. L’IA faible est appelée de manière probablement plus appropriée l’IA restreinte ou l’intelligence artificielle restreinte. L’IA se concentre sur l’exécution de tâches spécifiques, comme Siri d'Apple, Alexa d’Amazon ou une voiture autonome Google.
L’IA forte comprend 2 types d’IA : L’intelligence générale artificielle (AGI) et la superintelligence artificielle (ASI). AGI est un système conscient de lui-même et doté d’une conscience. Il peut résoudre des problèmes et même planifier l’avenir. ASI est un système qui surpasse les capacités humaines. Un exemple d’ASI n’existe pas encore, sauf si vous regardez les films. 2001: l'Odyssée de l'espace comportait un système informatique nommé HAL. Si vous vous en souvenez, vous avez une bonne idée d’un système ASI.