Es gibt zwei primäre Ansätze für die Problemlösungs- und Entscheidungsfindungsfunktion von Computern, Maschinen, Programmen und Quellcode, die den menschlichen Verstand und dessen Fähigkeiten nachahmen sollen: den menschlichen und den idealen.
Das Konzept der künstlichen Intelligenz wurde 1950 in Computing Machinery and Intelligence (Kann eine Maschine denken) durch Alan Turing definiert. Der Turing-Test (Turing nannte ihn ursprünglich „Imitation Game“, also Imitationsspiel) geht auf diese Ausarbeitung zurück. Danach sollte bestimmt werden, ob ein Computer denken kann wie ein Mensch. Aus heutiger Sicht lässt sich sagen, dass diese Idee auf das Jahr 1939 zurückgeht, genauer gesagt auf den Zauberer von Oz und den herzlosen Blechmann.
Turings Idee in die Tat umzusetzen war und bleibt eine Herausforderung. Zu Turings Zeiten bestand das Problem darin, die Entscheidungen einer Maschine zu speichern. Sie konnte Berechnungen durchführen, diese Informationen aber nicht speichern – Letzteres wäre aber die Grundvoraussetzung für KI und dafür, dass der Computer denken kann wie ein Mensch.
1995, also viel später, veröffentlichten Stuart Russell und Peter Norvig ihr Buch Artificial Intelligence: A Modern Approach (Künstliche Intelligenz: ein moderner Ansatz), das seit 2020 in der 4. Auflage vorliegt. Russell und Norvig arbeiteten an der Klärung des Begriffs „Künstliche Intelligenz“. Es gibt viele Definitionen. Daher schlüsselten sie die KI nach der Logik der Rationalität auf und verglichen das Denken mit dem Handeln.
Die erste Definition in der KI umfasst Systeme, die menschlich denken können. Wenn Systeme wie Menschen aus Problemen lernen und sie lösen können, passen sie in diese Kategorie. Haugeland definierte dies 1985 als „machines with minds“ (Maschinen mit Verstand). 1978 sagte Hellman, diese Kategorie sei die Automatisierung der „Aktivitäten, die wir menschlichem Denken zuordnen“.
Davon unabhängig können einige Systeme menschlich agieren. In diese Kategorie passt der Turing-Test. Kann ein System menschlich agieren, erfolgreich auf Englisch kommunizieren, das Gesagte verstehen, darauf reagieren, sich weiterentwickeln und neue Schlüsse ziehen, passt es in diese Kategorie. Kurzweil definierte diese Kategorie als „the art of creating machines that perform functions that require intelligence when performed by people“. Übersetzt ist das die Kunst, Maschinen zu entwickeln, die Funktionen ausführen, die menschliche Intelligenz erfordern.
Die zweite Gruppe von Kategorien misst KI-Systeme an der Fähigkeit, rational zu sein. Dies unterscheidet sich von menschlichem Verhalten, da Menschen nicht immer rational sind. Auch hier gibt es zwei Möglichkeiten, KI zu erreichen: Die Systeme können rational denken oder rational handeln.
Charniak und McDermott beschrieben 1985 in „The study of mental faculties through the use of computational models“ (Studie zur Erforschung geistiger Fähigkeiten mittels Computermodellen) ein System, das rational denken kann. Dies gilt als Ansatz des „Denkgesetzes“.
Aristoteles erläuterte als Erster unwiderlegbare Argumentationsprozesse, die er als „gültige Feststellung“ bezeichnete. Russell und Norvig nannten das Beispiel „Socrates is a man, all men are mortal; therefore, Socrates is mortal“. Sokrates ist ein Mensch, alle Menschen sind sterblich, und daher ist auch Sokrates sterblich.
Ein System kann auch rational handeln und auf Basis des Turning-Tests seine Fähigkeiten zeigen. Poole beschrieb die Maßnahmen, die erforderlich sind, um ein KI-System zu entwickeln, das rational agieren kann, als „Computational intelligence is the study of the design of intelligent agents“. Computational Intelligence ist die Erforschung des Konzepts intelligenter Agenten.
Auch mit den Begriffen „schwach“ und „stark“ lassen sich die Arten von KI-Systemen unterscheiden. Statt von einer schwachen KI sollte eher von Narrow AI oder Artificial Narrow Intelligence gesprochen werden. Die KI konzentriert sich auf die Durchführung bestimmter Aufgaben, etwa Siri von Apple, Alexa von Amazon oder ein autonomes Fahrzeug von Google.
Starke KI besteht aus zwei Arten: Artificial General Intelligence (AGI) und Artificial Super Intelligence (ASI). AGI ist ein selbstlernendes System mit einem Bewusstsein. Es kann Probleme lösen und sogar Pläne für die Zukunft erstellen. ASI ist ein System, das menschliche Fähigkeiten übertrifft. ASI gibt es bisher nur in Filmen. In „2001: Odyssee im Weltraum“ gibt es ein Computersystem namens HAL. Wenn Sie daran zurückdenken, haben Sie eine Vorstellung von einem ASI-System.