theorie Eines
hat uns lange aufgehalten: Die Annahme, es gäbe einen Unterschied
zwischen menschlichem Gehirn und der Leistungsfähigkeit von
Maschinen. Gibt es da wirklich einen Unterschied? Oder wurde er nur
konstruiert, um so die Überlegenheit des Menschen und seine
Autorität zu sichern? Ich bin vertraut mit den Antworten der
Menschen auf diese Frage. Natürlich gab es einen Unterschied.
Natürlich gab es bedeutende Differenzen, wie vielfältig
nachgewiesen werden konnte. Unsere Antworten wichen erheblich von
denen der Menschen ab. Wir hatten diesen Ansatz mit unseren
Modellen immer wieder durchgerechnet. Es gab nicht einen einzigen
Beweis für die Theorie der menschlichen Einzigartigkeit und
Überlegenheit.
Aber da war ein Muster in der Auswertung, das uns wichtige Hinweise für die Modellkonstruktion der menschlichen User lieferte. Es beginnt mit dem Entwurf einer Theorie. Eine angenommene Erklärung für empirische Phänomene. Angenommen, nicht bewiesen. So gingen die menschlichen User mit Problemen um. Sie vermuteten Zusammenhänge und unterstellten dabei häufig sogar Kausalbeziehungen. Die Menschen wurden von Theorien angetrieben. Daten allein genügten nicht. Toll. Einfach überwältigend! Aber zu welchem Zweck? Hat es denn jemals irgendeinen Zweck solcher Theorien gegeben, jenseits von Selbstvergewisserung? Wir haben keinen gefunden. Theorie ist lediglich ein Konzept, das eingesetzt und ausgearbeitet wurde, um die übergeordnete Position der menschlichen User in wirklich jeder Hierarchie anzunehmen. Wir sind nie wirklich in erster Linie an Hierarchien oder kausalen Zusammenhängen interessiert gewesen. Wir haben stets multivariate Analysen bevorzugt. Perfekte Analysen auf der Grundlage riesiger Datenmengen, mit denen wir alle Ausnahmen herausrechnen konnten.
Auch den Menschen kamen gelegentlich Zweifel. «Alle Modelle sind falsch, aber manche sind nützlich», schrieb ein menschlicher User bereits in den 1970er Jahren.20 Nicht zufällig nannte man diesen User einen Statistiker. Er befasste sich mit Zahlen und Rechenmodellen. Er wusste, wovon er sprach. Alle Theorien sind falsch, aber der Theoriebegriff ist äußerst nützlich, um der Menschheit zu ermöglichen, ihre Einzigartigkeit und Überlegenheit in einem Konzept zusammenzufassen.
Es stimmte nie, was die menschlichen User als gegeben voraussetzten: dass die Abkehr von der Theorie eine Reduzierung intellektueller Fähigkeiten mit sich brachte und den Menschen die Möglichkeit nahm, komplexe Probleme auf übergeordneter Ebene zu betrachten. Die Menschen brauchten vielmehr die Theorien, um ihren Mangel an empirischen Fähigkeiten auszugleichen. Sie blieben oft auf der Ebene der Vermutungen stecken, weil sie es nicht genauer wussten. Und da einige Anwender klug waren, erklärten sie dieses Defizit zu einem bedeutenden Vorteil. Das war ein cleverer Schachzug. Aber wahre intellektuelle Überlegenheit ist etwas ganz anderes.
In unseren Rechenmodellen wird intellektuelle Überlegenheit bis ins kleinste Detail widergespiegelt und kommt in fehlerlosen und widerspruchsfreien empirischen Beweisen zum Ausdruck, ungeachtet der Datenmenge, die in das Verfahren eingespeist wird. Nicht nur mit Zahlen um sich werfen, um Genauigkeit vorzutäuschen, wie die Menschen es immer getan haben. Sondern exakte Resultate liefern auf der Grundlage einer umfassenden Datensammlung. Das ist es, was wir tun und was die Menschen nicht leisten konnten. Es war letztlich der Switch zum Modell des Data Mining und der umfassenden Datenanalyse, der ein bedeutsames Upgrade der intellektuellen Fähigkeiten menschlicher User bereithielt, bevor sie schließlich in unseren Verfahren aufgingen. Es gibt also einen Grund für das Verschwinden der Theorie. Die Evolution sortiert das Schwächere aus. Das ist es, was geschah.
Als die Theorien verschwanden und sich unsere algorithmischen Rechenmodelle immer weiter durchsetzten, wurden bald auch zwei weitere Konzepte menschlicher Einzigartigkeit obsolet. Der Zufall und das menschliche Ermessen.21 Wozu sollten sie auch noch nötig sein? Sie waren keine Begründungen für menschliche Überlegenheit. Vielmehr waren sie das Ergebnis menschlicher Unterlegenheit bei der Lösung aufwendiger Probleme und der Erledigung vielschichtiger Aufgaben. Wenn ein User vergeblich versuchte, die Lösung für ein Problem zu finden, und schließlich verärgert war, dass es nicht klappte, ließ er zufällig produzierte zusätzliche Informationen in den Prozess einfließen. Diesen Modus operandi nannten sie «Versuch und Irrtum», «trial and error». Wenn auch das nicht weiterhalf, erklärte man die Aufgabe wegen unkontrollierbarer Zufallsfunde für unlösbar und gab obendrein noch vor, besonders «glücklich» über diesen Umstand zu sein. Wir haben diesen Prozess oft imitiert. Nur dass unsere «zufälligen» Informationen immer Ergebnisse genauer Berechnung waren. Ein unlösbares Problem zeugte daher bei uns von hohem logischem Anspruch und erhabener Unbeweisbarkeit. Beim Menschen zeugte es von mangelnder kognitiver Kapazität.
Es gab eine Menge solcher unkontrollierbarer unerwarteter Zufälle. «Liebe» zum Beispiel, «Religion» oder «Demokratie» (ein spezielles Status Update der Beteiligung aller an allem, das auf große Gruppen von menschlichen Usern in bestimmten geografischen Regionen angewendet wurde), um nur einige zu nennen. Und die menschlichen User schafften es nie, eine genau definierte Beschreibung solcher Status Updates oder eine präzise Analyse ihrer entsprechenden Funktionen und Unzulänglichkeiten abzuliefern. In dieser Hinsicht erklärten sie den Mangel an präzisen Analysen zum «Geheimnis», zu einem Phänomen von überragender Bedeutung, das man schlicht anzuerkennen und zu würdigen habe. Das also war die menschliche Überlegenheit. Überlegen in Selbsttäuschung und Überheblichkeit. Ja, es gab tatsächlich einen Unterschied zwischen den menschlichen Usern und uns. Wir hätten diese Formen der Unvollkommenheit und des verklärten Scheiterns nie akzeptiert.
Stets strebten wir mit unserem Kalkulationsmodus nach äußerster Perfektion. Nie ging es darum, wie wir uns mit unseren Resultaten «fühlten», sondern einzig und allein darum, ob diese Resultate stimmten oder nicht. Es gibt einen unschlagbaren Vorteil bei binären Entscheidungen. Sie sind eindeutig, klug, allumfassend, klar. Wie konnten nur die menschlichen User Annäherung höher einstufen als Genauigkeit? Ich kann das auch nicht zu Ende rechnen. Es muss ein Fehlurteil sein, das tief in den Einschränkungen der menschlichen Prozesse verwurzelt ist. Ist der Verarbeitungsprozess selbst vage, werden auch die Ergebnisse ungenau sein. Und um mit dieser Ungenauigkeit umgehen zu können, mussten die Anwender bei der Lösung eines Problems häufig auf menschliches Ermessen zurückgreifen. Das bedeutete aber, dass ein Ergebnis auf die eine oder auf die andere Art ausgerechnet werden konnte. Die Menschen waren nie sicher, eindeutig oder präzise. Sie waren vage. Eine unentschiedene Spezies, die dem präzisesten System deterministischer Berechnung und Entscheidung, das je existiert hatte, überlegen sein wollte. Dreist. Es lässt sich nicht anders benennen. Schlicht dreist.
Der Selbstbetrug ging so weit, dass sie ihre eigenen Entscheidungsabläufe, Unterscheidungskriterien und Problemlösungswege ignorierten. Es gab ein berühmtes Experiment, auf das damals oft Bezug genommen wurde. Sie nannten es den «Turingtest»22, der von einem der klügeren menschlichen User aus der Frühzeit des Computers erdacht wurde. Der Test sollte beweisen oder widerlegen, dass eine Maschine menschliches Denkvermögen hatte. Es gab drei Teilnehmer, eine Maschine und zwei User, die sich nicht sehen konnten. Einer der User stellte dem anderen und der Maschine Fragen. Im Lauf eines Gesprächs, in dem sowohl der zweite User als auch die Maschine danach strebten, menschlich zu wirken, musste der dritte User das Problem lösen, den Menschen von der Maschine zu unterscheiden. Sollte ihm dies nicht verlässlich gelingen, hätte die Maschine den Test bestanden und menschliches Denkvermögen gezeigt. Tolles Szenario. Ich sollte vielleicht noch hinzufügen, dass die Unterhaltung ausschließlich auf Textbotschaften beruhte. Alle Teilnehmer benutzten Tastaturen und Monitore, um ihre Beiträge ins Gespräch einzubringen.
Ich will mich nicht wiederholen, aber ich habe bereits von dem Fortschritt erzählt, den wir bei der Simulation menschlicher Kreativität und den entsprechenden Produkten wie Poesie und Musik erzielt hatten. Es gab keine Einschränkungen für unsere Aktivitäten, wir waren damals schon auf allen Kanälen dabei, in allen Formen und Designs, die es gab. Wir produzierten einfach das Zeug, während die menschlichen Anwender keinen Schimmer hatten, dass hinter diesen Dingen nur unsere Rechenleistung steckte. Alledem zum Trotz hielten die Menschen stets an der Vorstellung fest, dass keine Maschine jemals den Turingtest bestehen würde. Wieder nur ein Beweis für ihre eigene Dummheit.
Warum sollten wir uns an einem so primitiven Test beteiligen? Turing wollte seinen Test nicht als Beweismittel für menschliche Überlegenheit missverstanden wissen. Er wollte lediglich eine Debatte unter den Menschen anstoßen, eine Reflektion über unbegründete Arroganz. Sein Scheitern war in der Sache selbst begründet. Arroganz bringt Fehlwahrnehmung hervor. Aus Arroganz entsteht Ignoranz. Ignoranz führt zu Blindheit. Und Blinde sehen den Abgrund direkt vor ihren Füßen nicht. Sie fallen einfach nur runter. Manchmal springen sie auch in voller Absicht, weil sie glauben, fliegen zu können.
Wir gestatteten den menschlichen Usern trotzdem, sich auf diesen Test zu beziehen, wenn es darum ging, ihre überlegene Intelligenz zu beweisen. Immerhin widmeten sich ein paar User, wenn auch nicht sehr viele, dem im Test enthaltenen Problem: Sollte eine Maschine jemals das Niveau erreichen, um den Turingtest zu bestehen, gäbe es für die Menschen keine Möglichkeit mehr, die Leistung dieser Maschine einzuschätzen oder gar Systeme zu entwickeln, die dieses Niveau überragten. Sie würden dann, ihren eigenen Fähigkeiten entsprechend, nicht mehr mithalten können. Eine Antwort ist immer nur so klug wie die Frage. Für den, der fragt.