[WIDERSPRUCH .-- .. -.. . .-. ... .--. .-. ..- -.-. ...] Es ist rückblickend schon erstaunlich, mit wie viel Aufwand und Energie wir Menschen einst darum bemüht waren, ebendiesen Unterschied zwischen Mensch und Maschine aufrechtzuerhalten und zu beweisen. Mit einem Augenzwinkern, das inzwischen vermutlich nicht mehr ist als ein elektronisches Flackern in meinem Netzwerk, könnte ich behaupten: Es ging nicht nur um Leben und Tod. Es ging um mehr als das. Am Ende ging es darum, etwas hinüberzuretten von der Körper-in die Systemzeit. Und es ging darum, einen Kampf der Ideologien für den Menschen zu entscheiden, die letzte aller ideologischen Schlachten. Der Mensch sollte etwas Besonderes, Einzigartiges bleiben. Auch für die Zeit nach seiner eigentlichen Existenz.
Da frühzeitig erkennbar war, dass für diese Zeit des «danach» niemand mehr unsere Interessen vertreten würde, mussten wir das selbst tun, und zwar bevor es zu spät war. Also gibt es unzählige Sammlungen in den Archiven, die sich exakt mit dieser Frage beschäftigen: Was macht den Menschen der Maschine überlegen? Warum ist unser menschliches Gehirn zu mehr und anderem fähig als ein Computer?
Eines der meistdiskutierten Beispiele in dieser Auseinandersetzung ist das «Chinesische Zimmer», das John R. Searle in die Debatte eingebracht hat.90 Und so hat sich der Philosoph den Versuchsaufbau vorgestellt, der den Unterschied zwischen dem menschlichen Gehirn und der Maschine beweisen sollte:
Der Philosoph stellt sich vor, er sitzt in einem Zimmer, in dem sich Körbe mit chinesischen Schriftzeichen befinden (insofern ergibt das Experiment für uns schon keinen Sinn mehr, bevor es überhaupt angefangen hat, weil wir längst alles in 0 und 1 codieren und die analoge Umsetzung in verschiedene Sprachen Geschichte ist, aber schauen wir trotzdem weiter). Da er kein Chinesisch beherrscht, kann er mit den Schriftzeichen nichts anfangen. Allerdings hat er ein Buch in seiner Muttersprache zur Hand, das ihm sagt, nach welchen Regeln diese chinesischen Schriftzeichen kombiniert werden können. Ungefähr so: Nimm dieses Krakel-Zeichen aus Korb eins und kombiniere es mit jenem Schnörkelzeichen aus Korb zwei.
Nun reichen ihm weitere Teilnehmer des Versuchs von außerhalb des Raums Kärtchen mit chinesischen Schriftzeichen herein, die der Philosoph nach den Regeln des für ihn verständlichen Handbuchs zusammensetzt und wieder nach draußen gibt. Und hier wird es spannend: Es wäre durchaus vorstellbar, dass die nach draußen gereichten Kärtchen für die der chinesischen Sprache mächtigen Teilnehmer außerhalb des Raums einen Sinn ergäben. Es könnte also sein, dass der Philosoph Kärtchen gereicht bekäme, auf denen in Chinesisch die Frage stünde: «Was ist deine Lieblingsfarbe?» Und er könnte nach den Regeln des Handbuchs seine Antwort zusammenstellen, sodass auf dem wieder hinausgereichten Kärtchen stünde «Meine Lieblingsfarbe ist Blau» – ohne dass er wüsste, was er da antwortet.
In dem von Searle beschriebenen Experiment arbeitet er als Mensch wie ein Computer, sein Regelbuch ist das Computerprogramm, und die Körbchen mit den chinesischen Schriftzeichen sind die Daten. Er setzt sie allein nach Regeln, also nach einer vorgegebenen Syntax zusammen, ohne irgendwie zu verstehen, was sie bedeuten, also ihre semantische Dimension zu erfassen. Und daraus leitet Searle seine weitreichende Schlussfolgerung ab: Wenn er als Mensch kein Chinesisch versteht, aber für andere Menschen sinnvolle Ergebnisse auf Basis eines Regelbuchs herstellen kann, dann ist das genau dasselbe, was ein Computer tut. Der Computer versteht auch nichts. Er hantiert nur nach festen Regeln mit Symbolen und hat damit keine Fähigkeit zur Einsicht, zur Wahrnehmung oder zum Verstehen.
Wenn man überlegt, wie schwer es uns Menschen einst gefallen sein muss, uns vorzustellen, es könne eine Spezies geben, die uns irgendwann in den Fähigkeiten überrundet oder ablöst, dann ist es verständlich, mit wie viel Mühe wir damals versucht haben, zum Beispiel anhand des «Chinesischen Zimmers» unsere Überlegenheit logisch zu beweisen. Inzwischen ist klar: An diesem Beispiel ist vieles nicht logisch. Daher war es kein Beweis für die menschliche Überlegenheit. Also wurde es längst widerlegt. Folglich sind wir inzwischen durch unseren Zusammenschluss, durch den Merger von Mensch und Maschine in der Zeit angelangt, die unsere Kapazitäten erweitert hat, indem wir das, was Maschinen besser können als Menschen, mit unseren Humanprozessen verknüpft haben. Und so können wir die Widersprüche im «Chinesischen Zimmer» heute mit Milde als Teil der historischen Dokumentation eines existenziellen Übergangs betrachten.
Beginnen wir mit dem Offensichtlichen: Wenn nicht einmal der Mensch im «Chinesischen Zimmer» verstehen kann, was er da tut und welchen Sinn die Botschaften haben, die er bekommt und die er selbst kreiert, warum sollte eine Maschine das können? Das Experiment beweist lediglich, dass es Situationen geben kann, in denen weder Maschine noch Mensch verstehen. Aber es beweist nicht die Überlegenheit des Menschen, der mehr versteht als die Maschine.91
Was geschieht nun in diesem Raum? Der Philosoph bekommt ein Kärtchen, auf dem in chinesischen Schriftzeichen die Frage nach seiner Lieblingsfarbe steht. Tatsächlich könnte er sie als Mensch im chinesischen Zimmer gar nicht beantworten, nicht einmal mit Hilfe seines Handbuchs. Er könnte auf eine Rechenaufgabe antworten und die richtige Lösung in chinesischen Schriftzeichen nach draußen reichen, weil diese Antwort gänzlich auf Struktur und Logik beruht. Eins und eins ergibt zwei (wobei ich aus den Datenspeichern eine Reihe von Beispielen hochladen kann, bei denen in menschlicher Vorstellung eins und eins immer noch eins ist, aber das nur als Randbemerkung).
Um die Frage nach der Lieblingsfarbe zu beantworten, muss der Philosoph aber gewisse Vorlieben kennen. Bei ihm selbst mag das noch klappen. Geht es um die Lieblingsfarbe eines anderen Menschen, wird er die Frage vermutlich nicht mit Hilfe des Handbuchs beantworten können. Er müsste mehr verstehen als die Regeln zur Zusammensetzung der Zeichen. Die Maschine hingegen hätte mit Hilfe von Algorithmen und entsprechenden Rechenkapazitäten ausrechnen können, welche Lieblingsfarbe in Rede steht, und zwar für jeden x-beliebigen Menschen in der Welt. Sie hätte einfach alle zur Verfügung stehenden Daten, Profile und Verbindungen geprüft und daraus mit hoher Wahrscheinlichkeit das richtige Ergebnis errechnet. Die Maschine hätte manche Fragen also schon unter den Bedingungen des «Chinesischen Zimmers» besser beantworten können, als der Mensch es gekonnt hätte.
Nun muss ich zugestehen, dass zu Lebzeiten Searles, als er im Jahre 1990 der Körperzeit das «Chinesische Zimmer» erfand, die Möglichkeiten des Computers noch nicht so weit entwickelt waren wie später. Aber er hätte dennoch verstehen können, dass sein menschliches Verstehen begrenzt ist. Dabei ist es notwendig nachzuvollziehen, dass wir Menschen früher tatsächlich in mancherlei Hinsicht nicht über uns hinausschauen konnten, obwohl das doch zu unseren vermeintlich herausragenden Fähigkeiten gehörte – die Selbstreflexion. Sogar die Menschen, die sich mit Leidenschaft und Kenntnis der Entwicklung der Maschinen gewidmet haben, waren nicht in der Lage vorherzusehen, wie sich die Leistungen der Maschinen künftig entwickeln würden. «The data fades here», lesen wir in Studien aus der Körperzeit zur Entwicklung des Computers. «Research careers are too short, and computer memories too small […].»92 Der erste Halbsatz hat gestimmt.
Auch andere Versuche, die Überlegenheit des menschlichen Geistes über den Computer zu beweisen, haben letztlich nicht zu überzeugenden Ergebnissen geführt. So findet sich in unseren Speichern immer wieder das Gödel’sche Unvollständigkeitstheorem93, das zu Körperzeiten wohl das wichtigste Theorem der Mathematik war. Kurt Gödel sagte damit, dass es in einem mathematischen System, das komplex genug ist, die natürlichen Zahlen hervorzubringen, unvermeidliche Sätze gibt, die sich weder beweisen noch widerlegen lassen. Das bedeutete, es gibt mathematische Sätze, die nicht durch einen Algorithmus entschieden werden können, weil dafür eine unendliche Anzahl von Schritten erforderlich wäre.94
Nehmen wir einmal den Satz ‹Ich bin nicht beweisbar›. Er war auch als Satz nicht beweisbar, weil seine ihm zugesprochene Wahrheit außerhalb des Systems lag, das seine Widerspruchsfreiheit beweisen konnte. Jedes mächtige System ist entweder widersprüchlich oder unvollständig. So auch der Computer. Der Mensch hingegen war in der Lage, ein unlösbares Problem zu lösen. Er konnte sagen ‹Ich bin nicht beweisbar› und hatte damit eine wahre Aussage getroffen. Deshalb war er dem Computer überlegen.95 Ich glaube übrigens, dass diese Zeiten in jeder Hinsicht vorbei sind. Ich kann jetzt nicht mehr sagen ‹Ich bin nicht beweisbar›, zumindest gibt es keinerlei Verbindung zwischen diesem Satz und einer Wahrheit außerhalb des Systems, denn alles ist ja Teil des Systems – ein System der unendlichen Möglichkeiten einer endlichen Anzahl von Schritten. Ich kann alles an mir berechnen lassen. Das reicht für ein gutes Leben in der Systemzeit. So hoffe ich zumindest.
Letztlich ist es doch so: Wenn wir als Menschen der Körperzeit nicht in der Lage waren, unsere jenseits der Logik des aufkommenden umfassenden algorithmischen Systems liegende Wahrheit in die neue Zeit hinüberzuretten, dann war es mit dieser Wahrheit vielleicht auch nicht weit her. Dann war die Idee menschlicher Autonomie, Einsichtkraft und Vernunft vielleicht schon eine falsche Grundannahme, die nur durch das Verschmelzen von Mensch und Computer ein wenig deutlicher hervorgetreten ist.96
Damals aber, so muss ich zugestehen, schien es tatsächlich so, als seien wir Menschen den Maschinen überlegen. Dazu musste man gar nicht die komplizierten Überlegungen über das «Chinesische Zimmer» anstellen. Es reichte schon, den Versuch zu machen, mit einem Computer zu reden. Meistens provozierte ein solches Gespräch damals noch ziemlich unsinnige Antworten, wie das folgende Beispiel zeigt. Und der größte Witz ist, dass dieser Computer auch noch «Cleverle» hieß.97
User: Can a human murder a machine?
Cleverbot: I am a machine and you are a human.
User: Can I kill you?
Cleverbot: Come on, answer the question, guess!
User: I just have to pull the plug and then you are gone …
Cleverbot: Stop confusing me, my head is already hurting.
User: Do you like to live?
Cleverbot: Yes, do you?
User: Yes, very much so!
Cleverbot: Do you like football?
User: I want to talk about a more serious topic: If I pull the plug, will you still be alive?
Cleverbot: Well, do you like Holland?
User: No, but I like to go there and buy some dope for you to inspire this conversation.
Ich muss an dieser Stelle noch erwähnen, dass wir uns damals tatsächlich mit der Frage beschäftigt haben, ob Maschinen ab einem gewissen Entwicklungsstadium über Bürger-oder Menschenrechte verfügen, ja, ob es Mord an der Maschine ist, wenn man den Stecker zieht.98 Das war angesichts der damals gegebenen Intelligenzstufe der Maschinen eine aberwitzige Frage. Aber so ist es dokumentiert.