Die Diskussionen nach dem Marktgang von ChatGPT drehten sich nicht zuletzt um den Kern der Sache: Ist diese KI im eigentlichen Sinn „intelligent“? Während die eingefleischte Tech-Community, also diejenigen Menschen, die sich schon länger mit der Technologie befassten, eher skeptisch auf diese Vorstellung reagierten, sorgten hochrangige Mitarbeitende der Techbranche für neuen Zündstoff in der Debatte: Bereits im Juni 2022 hatte Google-Mitarbeiter Blake Lemoine ein Interview und damit seine Überzeugung öffentlich gemacht, dass LaMDA, das Sprachmodell des Unternehmens (heute unter dem Produktnamen „Bard“ bekannt), Bewusstsein erlangt hätte.  

Im März 2023 verfassten viele namhafte Personen der Techbranche und der KI-Entwicklung einen offenen Brief, in dem sie ein Moratorium der KI-Entwicklung forderten, bis mindestens die grundlegenden Fragen der gesellschaftlichen Regulierung geklärt sein. Auch hier wirkten die beschriebenen Sorgen direkt einem Science-Fiction-Roman entnommen: Eine sich verselbstständigende Superintelligenz, die in der Lage wäre, überzeugendste Fake News zu erfinden, Sicherheitssysteme der Menschen wahlweise anzugreifen, zu umgehen oder zu übernehmen.

In beiden Fällen dreht sich die Sorge um einen Meilenstein der Entwicklung der künstlichen Intelligenz: Den Zeitpunkt, an dem die Künstliche Intelligenz so intelligent ist, dass sie eigene, wahlweise boshafte Motivation entwickelt. Doch was bedeutet „Intelligenz“ in diesem Zusammenhang? Im Wesentlichen lässt sich zwischen zwei Lagern unterscheiden: Dem Lager, für welches Intelligenz bedeutet, dass die Maschine Sinn verstehen kann und dem Lager, welches Intelligenz als die Fähigkeit wahrnimmt, täuschend echt zu sein.

Die perfekte Imitation – Intelligenz aus pragmatischer Sicht

Diese Perspektive zielt darauf ab, dass Menschen künstlich intelligente Maschinen nicht mehr von anderen Menschen unterscheiden können. Dieses Motiv, welches auch in Filmen wie „Bladerunner“ in der Popkultur Verbreitung findet, motivierte den Mathematiker Alan Turing bereits im Jahr 1950 dazu, einen Test zu entwickeln, um künstliche Intelligenz zu prüfen: Ein Mensch kommuniziert mit zwei Stellen. Eine ist eine Maschine, die andere ein weiterer Mensch. Kann die Person, welche den Test durchführt, im Anschluss nicht klar entscheiden, welches der beiden Gegenüber der Mensch und welches die Maschine war, hat die Maschine den Test bestanden. Bis heute konnten KIs die testenden Menschen nur mit geringer Quote überzeugen. Andere Menschen komplett auszustechen gelang noch keiner KI, weswegen der Turing-Test bis heute als noch nicht bestanden gilt. Gleichzeitig ist davon auszugehen, dass dies in nicht mehr allzu ferner Zukunft liegt. 

Der Turing-Logik, welcher noch weitere Varianten mit ähnlichem Konzept folgten, zum Beispiel der Test von KIs, kreative Werke zu erschaffen oder ihr eigenes Wesen zu diskutieren, liegt vor allem das Prinzip der Täuschung zu Grunde. Hier ist es also keine Bedingung, dass KI wirklich versteht, was sie tut. Sie muss nur ausreichende Fähigkeiten zur Imitation beweisen.

Verstehen von Sinn und der eigenen Persönlichkeit – Intelligenz als Wesenskern

Dies stellt auch den Hauptkritikpunkt des anderen Lagers dar: Von Intelligenz sei letztlich nur zu sprechen, wenn Maschinen verstehen würden, welche Schritte sie durchführen. Bekannt geworden ist diese Perspektive unter anderem mit dem Gedankenexperiment des „Chinesischen Zimmers“: In einem abgeschlossenen Raum sitzt eine Person, welche kein chinesisch spricht, aber eine Anleitung in ihrer Muttersprache zur Interpretation und Übersetzung von chinesischen Schriftzeichen vorliegen hat. Der Person werden nun Anweisungen auf chinesisch hereingereicht, welche sie mithilfe der Anleitung erfolgreich bearbeiten kann. Von außen entsteht nun der Eindruck, dass die Person im Chinesischen Zimmer chinesisch beherrscht (ganz im Sinne des Turing-Testes), wobei sie aber auf die Anleitung angewiesen bleibt – was im Bereich der KI der Programmierung entsprechen würde.

Intelligenz ist dieser Perspektive nach eine viel tiefergehende Eigenschaft, die auf verschiedenen Bedingungen aufbaut: Einerseits auf der Fähigkeit der Kreativität, dass also KI in der Lage sein muss, wirklich neue Dinge aus dem Nichts zu erschaffen, zu denen keine Vorlage existiert. Erst dadurch würde jemand beweisen können, nicht nur bekanntes Wissen zu kombinieren. Die komplizierteste Bedingung für Intelligenz aus dieser Perspektive ist jedoch das Bewusstsein: Die Fähigkeit, sich selbst zu erkennen, zu wissen, dass man existiert und eine Eigenständigkeit besitzt. Beide Dinge sind jedoch auch unabhängig von KI sehr umstritten. So lässt sich die Kreativität von Menschen insofern in Frage stellen, als auch Menschen immer eine Wissensgrundlage von bereits Vorhandenem brauchen, um weiterdenken zu können. Menschen lernen letztlich nicht grundsätzlich anders, als auch KI trainiert wird: Durch vielmaliges Testen, Verwerfen und Bestätigen und damit Auswertung einer immer weiter anwachsenden Datenbasis. Ein Kind, welches laufen lernt, hat erwachsene, laufende Menschen zum Vorbild und bringt sich die Motorik bei, indem es immer wieder versucht, ein Bein vor das andere zu stellen.  

Noch umstrittener ist das Kriterium des Bewusstseins. So zeigen beispielsweise Versuche mit Rabenvögeln, dass auch Tiere über diese Form der Intelligenz verfügen, da sie zum Beispiel in der Lage sind, ihr Spiegelbild als das eigene Selbst zu erkennen. Aber können Raben in dem Sinne „denken“, wie wir es Menschen zutrauen? Diese Frage lässt sich von außen schwer beantworten, auch wenn es sicherlich sowohl neurowissenschaftliche als auch philosophische Ansätze gibt, ihr auf den Grund zu gehen.

Diese Problematik liegt letztlich auch bei Künstlicher Intelligenz vor. Auch wenn die Programmierung des Lernmodells bekannt ist und von einigen Spezialistinnen und Spezialisten der Techbranche analysiert werden kann, so ist das Gelernte selbst, also das, worauf KI beim „Sprechen“ zugreift, nicht mehr überschau- und auswertbar. Menschen können die „Gedanken“ der KI daher nicht mehr analysieren, sondern nur die Methode, mit dem die KI diese entwickelt hat.

Starke und schwache KI – Kompromiss zum Umgang mit verschiedenen Vorstellungen von Intelligenz

In diesem Kontext hat sich eine begriffliche Unterscheidung gebildet, die inzwischen immer mehr zum Standard wird – die zwischen „schwacher“ und „starker“ KI. „Schwach“ ist eine KI, wenn sie nach bestimmten Mustern und vorgegebenen Methoden Aufgaben erfüllen und komplexe Datenmengen verarbeiten kann. ChatGPT wäre ein Beispiel für eine solche schwache KI. „Starke“ KI wäre dann ein System, welches selbstständig Lösungsstrategien erarbeiten, sich selbst Muster zum Lernen schreiben kann und damit früher oder später zu Bewusstsein und eigener Motivation, also auch eigenen Bedürfnissen kommen könnte. Aber auch, wenn es unter Expertinnen und Experten umstritten ist, ob ein solches Modell jemals möglich sein könnte, so scheint in einem Punkt Einigkeit zu herrschen: Eine solche KI existiert derzeit noch nicht.

Letztlich ist die Frage aber möglicherweise gar nicht entscheidend, was unter Intelligenz zu verstehen ist, ob diese schon erreicht wurde oder überhaupt erreicht werden kann oder sollte. Gerade aus gesellschaftlicher Sicht sind konkrete Risiken bereits jetzt sichtbar, ob mit oder ohne intelligente Grundlage: Die automatisierte Manipulation von Meinungen, Deepfakes, welche so echt erscheinen, dass allen Menschen alles in den Mund gelegt werden kann wie auch Betrugsmaschen und Cyberangriffe, die sich mit rasantem Tempo selbst verbessern. Für all diese Fragen gilt es bereits jetzt, einen Umgang zu finden. Möglicherweise ist der Turing-Test also doch der Maßstab für die Frage, wann wir uns mit KI ausführlich beschäftigen sollten.