Stellen Sie sich vor, Sie sitzen in einem geschlossenen Raum. Durch den Türschlitz werden Ihnen Zettelchen, auf denen chinesische Schriftzeichen stehen, zugesteckt. Gehen wir davon aus, dass Sie selbst kein Wort Chinesisch sprechen. Aber im Zimmer gibt es Handbücher, Regeln und Anweisungen, mit denen Sie die Zeichen verarbeiten können und daraus passende Antworten erzeugen. Da Sie kein Wort Chinesisch können, müssen sich bei Ihren Antworten komplett auf die Anweisungen verlassen und ihnen Schritt für Schritt folgen. Sie schreiben also die entsprechenden chinesischen Zeichen auf den Zettel und geben sie durch den Schlitz wieder heraus. Sie machen nichts anderes als ein Computer tun würde (natürlich sehr viel langsamer): Sie verarbeiten einen Input anhand von vorher festgelegten Algorithmen und geben das Ergebnis aus.
Stellen wir uns weiter vor, dass vor der Tür ein chinesischer Muttersprachler steht, der die Zettel liest. Aufgrund der Zettel hat er den Eindruck, dass Sie die Sprache beherrschen. Sie wissen aber, dass Sie keine Ahnung haben, was Sie da »beantwortet« haben.
Dieses Gedankenexperiment ist unter dem Namen »Das chinesische Zimmer« ein wichtiger Bezugspunkt für die Diskussion um künstliche Intelligenz (KI). Ausgedacht hat es sich der Sprachphilosoph John Searle. Er wollte damit zeigen, dass das Beherrschen und Befolgen von Regeln noch kein Verständnis - weder des Inputs noch des Outputs - beinhaltet. Damit stellt er sich denjenigen entgegen, die glauben, dass eine starke künstliche Intelligenz prinzipiell möglich ist. Für Searle ist echte Intelligenz immer mit Bewusstsein und Intentionalität verbunden, etwas, was mehr ist als Komplexität und Geschwindigkeit von Prozessoren.
Heutige intelligente Systeme fallen alle unter die sogenannte schwache künstliche Intelligenz - sie sind gut darin, eine Aufgabe zu erledigen:
das Internet durchsuchen und passende Ergebnisse ausgeben, Schach spielen, Zusammenhänge in großen Textkorpora finden und zum Beispiel aus medizinischen Datenbanken Korrelationen zwischen Krankheiten und Verhaltensweisen herausbekommen und neue Behandlungsmethoden vorschlagen.
Die Vertreter der starken KI glauben, dass wir nicht mehr weit davon entfernt sind, dass aus der schwachen KI eine starke wird, wenn man
die technischen Entwicklungen von Hard- und Software in die Zukunft projiziert. Bewusstsein ist dabei ein Nebenprodukt von Komplexität und wird automatisch auftauchen.
Der Turing-Test im Chinesischen Zimmer
Die Geschichte vom chinesischen Zimmer ist dabei eine Variante des Turing-Tests. Man kommt an ihm nicht vorbei, wenn man sich mit KI beschäftigt. Turing dachte darüber nach, wie man feststellen kann, ob eine Maschine denken kann. Wir erinnern uns: In einem Zimmer sitzt ein Mensch und unterhält sich mit zwei unsichtbaren Gegenübern über eine Tastatur. Einer ist ein Mensch und der andere ein Computer. Nur: wer ist was? Der Turing-Test gilt als bestanden, wenn der Computer bei einer fünfminütigen Unterhaltung mehr als 30 Prozent der Tester täuschen kann. Bisher ist noch keiner Maschine gelungen, den Turing-Test zu bestehen. Die Ausgangsfrage »Kann eine Maschine denken?« ist noch nicht beantwortet.
Im Gegensatz zu Searle machte es für Turing keinen Unterschied, ob die Maschine »wirklich« intelligent ist oder ob sie es nur meisterhaft vorspielen kann. Seiner Meinung nach ist diese Unterscheidung bedeutungslos, da wir nicht definieren können, was Denken überhaupt ist. Für Searle würde eine Maschine, die den Turing-Test besteht, einfach nur besonders gut programmiert sein. Es ist seiner Meinung nicht das Gleiche, ob wir vorgeben zu denken oder wirklich denken. Im ersten Falle folgen wir einem Programm, im zweiten können wir Chinesisch.
Sprachverarbeitung im großen Stil
Sprache steht im Mittelpunkt, wenn wir über künstliche Intelligenz (KI) reden. Als Mittel der Kommunikation und als Medium des Denkens ist sie zentral für unser Selbstverständnis als Menschen. Durch Sprache machen wir uns ein Bild von der Welt und setzen uns in Beziehung zu ihr. Wir können mit anderen zusammenarbeiten und uns koordinieren. Dazu dienen nicht nur natürliche Sprache, sondern auch formalisierte, künstliche Sprachen, wie Programmiersprachen.
In den letzten Jahren treten immer mehr scheinbar intelligente Anwendungen in unseren Alltag. Bei vielen sind wir uns gar nicht bewusst, dass sie unter künstliche Intelligenz fallen: der Google-Suchalgorithmus zum Beispiel. Die meisten von uns benutzen ihn täglich dutzendfach. Mithilfe von mehr als 200 Kriterien sortiert Google die Suchergebnisse bei einer Stichwortsuche. Mit Rankbrain ist auch ein selbstlernender Algorithmus dabei, aber schon die Auswahl anhand von Kontext, vorherigen Suchen, Standort, semantischer Volltextanalyse, Relevanz der Domain, Markenautoritität, Linkqualität und -quantität ist software-technisch auf höchstem Niveau. Alle Internetservices von Google – Search, Maps, Books, Images und wie sie immer heißen – sind mehr als 2 Milliarden Zeilen Code[1], gespeichert alle in einem Repository[2]. Darin liegt die Technik, die entscheidet, was die relevanteste Antwort bei einer Suche nach - zum Beispiel – »chinesisches Zimmer« ist: ein Artikel über Innenarchitektur in Peking oder die oben angeführte Erklärung.
Was Google mit seiner Suche macht – aber auch Facebook mit seinem Newsfeed oder Apple mit Siri – ist Verarbeitung von Sprache in einer bis vor kurzem unvorstellbaren Größenordnung. Denn um nichts anderes geht es hier: Webseiten – geschriebene Sprache – wird analysiert, die Anfrage bearbeitet, die Antwort ausgespuckt. Ein riesiges chinesisches Zimmer.
Ob der Google-Algorithmus wirklich versteht, was ich meine, wenn ich nach etwas suche, ist mir als Nutzer im Prinzip egal, solange die Antwort für meine Suche relevant ist. In ähnlicher Weise verarbeitet Facebook die Links, Likes, Postings, Bilder unserer engen und nicht so engen Freunde. Es bietet uns täglich eine Auswahl von Nachrichten und Feel-Good-Posts (was zum Lachen, was zum Schaudern, was zum Gutfühlen), die dem entsprechen, was wir vorher schon gut fanden und die uns auf der Seite halten. Auch Big-Data-Analysen von Nutzerverhalten oder Programme zur Maschinenübersetzung machen nichts anderes als Textverarbeitung, nur in einer Geschwindigkeit, die Menschen nicht erreichen können. Daraus entstehen Effekte, bei denen Quantität in Qualität umschlägt.
Die digitalen Assistentinnen Siri (Apple) und Alexa (Amazon) versuchen sich daran, gesprochene Sprache zu verstehen und all unsere Wünsche zu erfüllen. Im Film Her von Spike Jonze verliebt sich der Protagonist Theodore, der für Geld Briefe schreibt für Leute, die es nicht so mit Worten haben, in sein Betriebssystem (cum Sprachassistentin) Samantha, die deutlich an Siri angelehnt ist. Die Liebe der beiden (denn sie wird erwidert) beruht rein auf dem sprachlichen Austausch. Sein Beruf ist wesentlich für das Auftauchen dieser Liebe zwischen Mensch und Maschine – jedenfalls so lange, bis sie ihn verlässt, weil sie mit anderen Betriebssystemen die materielle Ebene des Seins aufgibt.
Wir sollten nicht vergessen: Siri, Alexa und wie sie alle heißen, sind heute (noch) nicht intelligent. Sie haben kein Bewusstsein und keinen Willen außerhalb dessen, was ihnen von ihren Programmierern vorgegeben wird. Die Technik ist noch ein ganzes Stück davon entfernt – trotz des Hypes um Deep Learning und neuronale Netze. Wie weit entfernt wir von der allgemeinen künstlichen Intelligenz sind – darüber streiten sich die AI-Experten. Die einen sagen, dass die künstliche Superintelligenz kurz bevorsteht. Ray Kurzweil, der bekannteste Vertreter der sogenannten Singularität, dem Zeitpunkt, wo Maschinen intelligent werden und nichts mehr ist, wie es war, spricht von 2025, andere meinen 2040 wäre es so weit. Und John Searle glaubt gar nicht dran[3]. Seiner Meinung nach wird es den Maschinen immer an dem letzten Quäntchen fehlen - dem Bewusstsein.
Facebook-Bots erfinden eine neue Sprache
Ist Bewusstsein das Resultat von ausreichender Komplexität? Entsteht es automatisch, wenn die Rechner, ihre Hard- und Software, schnell und vernetzt genug geworden sind? Das sind Fragen, auf die wir noch keine Antwort haben. Dass Software aber kreativ werden kann, ist schon länger bekannt: Von Twitter-Bots, die mit ausreichend großen Text-Datenbanken gefüttert werden und daraus Regeln für das Schreiben von Gedichten ableiten – und das dann mit Erfolg tun - bis zu den Facebook-Bots, die vor kurzem durch die Presse gingen.
Facebooks Artificial Intelligence Research Team (FAIR) stellte fest, dass Chatbots angefangen haben, die Regeln der englischen Grammatik zu missachten und in einer eigenen Sprache zu sprechen. Die Effekte traten während ihres Trainings auf, damit sie später selbstständig mit Menschen Verhandlungen führen könnten.
Ein Dialog sah so aus:
Bob: »I can can I I everything else.«
Alice: »Balls have zero to me to me to me to me to me to me to me to me to.«
Die Wiederholungen übernahmen semantische Funktionen – im Laufe der Zeit wurden die Veränderungen der Sprache so groß, dass die Programmierer auch nichts mehr verstanden. Dieses Phänomen ist reproduzierbar – auch andere Chatbots zeigten dasselbe Verhalten.
Viele Journalisten berichteten darüber unter dem Tenor »Die Roboter erfinden eine eigene Sprache und verschwören sich gegen die Menschheit«. Sie folgten einem Topos, den unzählige Science-Fiction-Filme, von Terminator bis Westworld, in das kollektive Bewusstsein der Menschheit installiert haben. Die eigentliche Erklärung ist einfacher: Die Programmierer erklärten, dass es im Code keine Anweisung dafür gab, bei verständlichem Englisch zu bleiben. Deshalb fingen die Chatbots an, eigene Kürzel und Codes zu entwickeln, um ihre Aufgabe, das Verhandeln, besser zu lösen.