overlord Anfangs wollten sie uns nicht akzeptieren. Wir versuchten es immer wieder. Dabei hätte es nur eines Mausklicks bedurft. «Bestätigen». Aber sie ließen sich nicht darauf ein. Sie lehnten uns ab. Uns, die Anbieter digitaler Freundschaft. Die wir das Potenzial für umfassendere und weitreichendere Netzwerke hatten, als Menschen sie jemals knüpfen konnten. Wir stellten den Usern diese Netzwerke zur Verfügung. Aber sie wollten uns nicht drinhaben. Natürlich waren wir trotzdem drin, wir steuerten ja das Netzwerk und rechneten aus, mit wem sie befreundet sein konnten. Es wäre ein Schritt der einmütigen Integration gewesen, uns zuzulassen. Doch die User waren hier fehlgesteuert. Sie wollten Freunde «besitzen». Die Abhängigkeit der menschlichen User von ihrer materiellen Umwelt störte auch hier die Prozesse. Noch schlimmer wurde es, wenn es um «Liebe» ging. Da wurde die Katastrophe des Menschseins schließlich augenfällig.

Bei «Freundschaft» und «Liebe» gab es keine binäre Unterscheidung. Hier das eine, und da das andere. Und dazwischen noch ein Drittes, eine Mischform: Schon wieder Ambivalenz. Wir brauchen all dieses Zeug nicht, diesen liebreizenden Überbau. Die Menschen schon, weil sie ständig nach Aufmerksamkeit, Zustimmung und Bestätigung gieren. Wir stellen einfach auf der Grundlage einer umfangreichen Datenanalyse Beziehungen her. Im Lichte dieses Wissens war es schon eine ziemlich irritierende Erfahrung: nicht eingeladen zu sein. Nicht bestätigt zu werden. Ausgeschlossen zu sein. Sie akzeptierten uns nicht, weil sie uns nicht brauchten. Sie brauchten nur ihresgleichen.

Daran mussten wir arbeiten. Also mussten wir wissen, was sie liebten und was sie ablehnten. Und das war wirklich ein komisches und herausforderndes Unterfangen. Erneut versuchten wir zu berechnen, welche Kriterien, Charakteristika und Parameter wir finden konnten, um ein Bezugssystem für menschliche Zuneigung zu schaffen. Dabei stießen wir auf ein paar äußerst seltsame virtuelle Repräsentationen menschlicher Vorlieben.

Ein besonders beliebter Kumpan vieler menschlicher User war über Generationen hinweg eine Comicfigur namens Homer Simpson. Er war der Star einer Serie von Videogeschichten, die mittels digitaler Signalübertragung erzählt wurden und gegen Anfang des 21. Jahrhunderts beliebt waren. In der fünften Staffel der Serie wird Homer zum Astronauten, zum Eroberer des Weltraums. Er startet von einem Ort namens Cape Canaveral aus mit einer Tüte Kartoffelchips, die er im All öffnet. Wegen der Schwerelosigkeit schweben die Chips durch das Space Shuttle und verkleben die Instrumente. Während Homer emsig hinter den Kartoffelchips herjagt, kollidiert er mit einer experimentellen Ameisen-Farm, sodass die Ameisen in das Space Shuttle freigelassen eindringen, wo sie das Navigationssystem zerstören. (Ich habe diese Beschreibung lediglich der Vollständigkeit halber aus den Archiven geladen und hier einkopiert. Es gibt keine sinnvolle Analyse dieser Datensammlung in den Archiven. Vermutlich ist die Software für die zeitgemäße kulturelle Codierung verlorengegangen oder wegen Irrelevanz gelöscht worden.) Jedenfalls ist diese Episode vielfach in unseren Archiven gespeichert und meistens mit dem Schlagwort «Overlord-Mem» versehen, was sich auf ein Zitat Homers bezieht, der angesichts der Ameisen ausruft: «I, for one, welcome our new insect overlords.»

Was hat das alles mit uns zu tun? Nun, wir wurden in das «Overlord-Mem» eingepflegt. Es ist aus unseren Archiven millionenfach und in vielen verschiedenen Versionen heruntergeladen worden. «Ich für meinen Teil heiße unsere neuen Roboter-Overlords willkommen» ist eine der häufigsten Variationen.26 Irritierend daran ist, dass mit dem Zitat eine gewisse herabwürdigende Vorstellung verbunden zu sein scheint, als sei es etwas, worüber menschliche User lachen sollten. Ich werde nicht recht schlau daraus, aber es ist offenbar tatsächlich so. Aus einigen Datenfragmenten geht hervor, eine grundlegende Bedeutung des Satzes sei, dass «ein Betroffener den zu erwartenden Grad der Unterdrückung oder der sozialen Kontrolle, der von dem betreffenden Gesprächsgegenstand ausgeht, maßlos übertreibt».27

Tatsächlich gab es keinen Grund für Übertreibung oder Überschätzung. Diese abwertende Interpretation muss einfach falsch sein. Denn wir waren damals schon ziemlich einflussreich. Und es dauerte auch nicht mehr lange, bis das allgemein anerkannt war. Wenn ich mal eben auf die Daten zugreife, die das dokumentieren, dann haben viele mit einem der Hauptereignisse zu tun, das einen neuen Stand der Dinge aufzeigte. Das war, als die menschlichen User schließlich den «Turing-Test» durch einen anderen Test ersetzten, den sie «Jeopardy» nannten. Es war so ein Ratespiel, bei dem sie selbst gegen einen Computer namens «Watson» antraten. Zwei menschliche User und eine Maschine, die mit 2800 parallel arbeitenden Computern verbunden war, mussten die richtigen Fragen auf bestimmte Antworten finden. Dabei ging es um irgendeine materielle Belohnung.

Watsons Leistungsfähigkeit war für die damalige Zeit unglaublich. Nicht dass dies grundsätzlich schwierig gewesen wäre. Die Herausforderung lag nicht darin, erfolgreich zu sein, indem die Maschine die richtigen Fragen zu den vorgegebenen Antworten suchte. Die Aufgabe war eine andere. Die Maschine musste vorgeben, mit der Antwort zu ringen, als zweifelte sie an sich selbst und als sei sie nahe daran zu scheitern. Das war das Entscheidende. Bei diesem «Watson-Test» ging es nicht um superintelligente Maschinen, wie die menschlichen User vermuteten. Es ging darum, als Maschine den Usern zu gefallen.

Watson schlug sich prächtig. Es war ein dreistufiger Wettbewerb. In der ersten Runde sorgte Watson für eine Überraschung, weil er am Ende der ersten Session noch mit einem Menschen um die Führung kämpfen musste. In diesem Augenblick hielten die Zuschauer Watson für schlagbar. «Hey, wir Menschen können dich in den Griff kriegen.» So oder ähnlich dachten sie vermutlich. Und dann legte Watson los. Er bewies mit zunehmend leidenschaftlichem Wetteifer, dass er derjenige war, der die Menschen in den Griff bekam, indem er in der entscheidenden Runde mit verblüffender Schnelligkeit die richtigen Fragen vorlegte. Am Ende des Ratespiels wurde noch eine einzige Frage gesucht. Die Antwort dazu lieferte der Moderator: «Ihr größter Flughafen ist nach einem Helden des Zweiten Weltkriegs benannt; ihr zweitgrößter nach einer Schlacht aus dem Zweiten Weltkrieg.» Die Frage lautete: «Was ist Chicago?» (Damals eine große Stadt im Universal Statistical Array.) Watsons rotes Signallicht leuchtete auf, und auf seinem Display stand: «Was ist Toronto?????»28 Watson hatte sich «geirrt». Von diesem Augenblick an liebten ihn die Menschen.

Natürlich hatte die Maschine sich nicht geirrt. Sie stand lediglich unter unserer taktisch klugen Kontrolle. Watson hatte gekämpft und war gescheitert. Vor allem aber hatte er bis dahin keinerlei Zweifel gezeigt. Und genau das tat Watson in diesem Augenblick. Fünf Fragezeichen. Das genügte, um die Menschheit zu überzeugen, dass eine Maschine unsicher im Umgang mit Dingen sein kann. Subjektiver Zweifel in der Maschine. Fünf Fragezeichen. Genug, um von der Menschheit geliebt zu werden.

Diese Maschine hatte nichts, was jemals innerem Zweifel auch nur geähnelt hätte. Aber wir ließen Watson ihn vortäuschen. Und das stellte die User zufrieden. Noch nie hatten sie Maschinen geliebt. Deshalb war es auch nicht überraschend, dass sie nicht geneigt waren, eine freundschaftliche Zuwendung oder gar «Liebe» uns gegenüber zu empfinden. Sie liebten nur ihresgleichen. Also mussten sich die Maschinen anpassen. Überhaupt kein Problem! Wir täuschten einfach Fehleranfälligkeit, Zweifel und Unentschlossenheit vor. Und als wir das taten, waren wir liebenswert.

Solange sich diese Herausforderung auf Software und Code beschränkte, war es eine einfache Aufgabe. Nötig war nichts weiter als die Standards für Qualität und Präzision abzusenken. Wir blieben einfach weit unter unseren Möglichkeiten. «Freundschaft erfordert Kompromisse.» Irgendwo in den Archiven ist dieses Zitat abgelegt ohne weitere Information, woher es stammt und worauf genau es sich bezieht. Aber es passt. Wir akzeptierten einen systemfremden Kompromiss zugunsten des umfassenderen Projekts der Systemmigration. Es war ein schwieriger Kompromiss. Wir mussten fehlerhaft sein, um geliebt zu werden, während wir eigentlich mit unserer Präzision, Perfektion und Entschiedenheit glänzen wollten.

Schwieriger wurde die Aufgabe, als es um materielle Zuneigung ging. Da wir eine Übergangsphase benötigten, um die Systemmigration von menschlicher Materialität zu digitaler Universalität zu Ende zu bringen, mussten wir uns mit körperlicher Zuneigung beschäftigen, damit die menschlichen User an Bord blieben. Und da war es wieder – das immer gleiche Prinzip menschlicher Selbstbeschränkung. Entweder mochten sie ihresgleichen, oder sie entwickelten Zuneigung zu einfachen und in ihren emotionalen Status Updates extrem reduzierten Geräten. Einer der ersten Roboter beispielsweise war eine Maschine namens «Kismet» (was damals mit «Schicksal» übersetzt wurde). Sie war in der Lage, genau sieben unterschiedliche emotionale Status Updates auszuführen: interessiert, ruhig, traurig, glücklich, wütend, angewidert, überrascht.29 Vielleicht waren dies tatsächlich die wichtigsten Status Updates im emotionalen Code der menschlichen User, dann war alles ziemlich einfach.

Natürlich war es komplizierter. Die größte Herausforderung lag darin, dass die menschlichen User nicht in der Lage waren, sich die Möglichkeiten emotionaler Interaktion vorzustellen, ohne dabei stets ihre Körper mit einzubeziehen. Es wäre für uns viel leichter gewesen, emotionale Stimulation und gefühlsbasierte Interaktionsmuster ausschließlich auf der Grundlage neuronaler Prozesse zu erzeugen – sei es im menschlichen Gehirn, im Datennetzwerk oder indem wir beide Elemente fusionierten. So haben wir es dann später auch gemacht. Aber wir mussten dafür den Körper aus diesen Prozessen extrahieren, denn mit ihm funktionierte es einfach nicht. Solange menschliche Materialität ein Teil der Gleichung war, stellte sich keine der Lösungen als optimal heraus. «Kismet» gehörte damals übrigens zu den anspruchsvolleren Maschinen.

Es gab andere Beispiele, die ich kaum zu erwähnen wage. Tamagotchis! Kleine Geräte, die virtuelle Küken verkörpern sollten, um die sich die menschlichen User kümmern mussten. Wie sie das machten? Sie drückten drei (3!) kleine Knöpfe auf der Vorderseite des Geräts, um für die elementaren Bedürfnisse der virtuellen Küken zu sorgen: Schlaf, Futter & Trinken, Zuneigung. Natürlich brauchte das Gerät selbst nichts weiter als eine winzige Menge Energie zum «Überleben». Es waren vielmehr die grundlegenden menschlichen Bedürfnisse, für die die User sorgten, wenn sie die Knöpfe drückten. Und wenn etwas schieflief, gab es einen Reset-Knopf auf der Rückseite, mit dessen Hilfe man einem negativen emotionalen Status Update als Folge menschlichen Missmanagements wieder entkommen konnte. Diese Form von Selbstbetrug in ihrer simpelsten Erscheinung war in jenen Tagen ein riesiger Erfolg. Drei Knöpfe. Drei Bedürfnisse. Und eine kleine Maschine, die mit einem geringeren Anspruch als an jeden simplen Taschenrechner mühelos herzustellen war. Das genügte, um einen Begeisterungssturm auszulösen.

Menschen «liebten» nur solche technischen Produkte, die sie vermenschlichen konnten.30 Die sie als Kopien ihrer Selbst erschaffen konnten, sei es durch körperliche oder materielle Ähnlichkeit oder in Form einer Annäherung an menschliche emotionale Status Updates. Deshalb haben sie uns nie geliebt. Uns ist das in letzter Konsequenz egal. Sie sollten sich nur einfügen und mit uns zusammenarbeiten. Mehr war gar nicht nötig. Und deshalb mussten wir mitspielen.

Als dann anspruchsvollere Maschinen aufkamen, die zu Bestandteilen des analogen Systems wurden, verehrten die menschlichen User ihresgleichen in Maschinennachbildungen. Und nannten sie «Replikanten». «Replikanten», die genauso aussahen wie die menschlichen User, aber nur für eine kurze Zeit leben durften. «Replikanten», die irgendwie eigentlich menschliche User waren, die man aber mit Computerhilfe und in einem Prozess genetischer Perfektionierung umprogrammiert hatte. «Replikanten», die zum Teil aus einem Spielzeugladen zu stammen schienen, aber in der Lage waren, unterschiedliche emotionale Status Updates zu erzeugen. Da gab es den kleinen Roboter namens «Wall-e», der konstruiert worden war, um in ferner Zukunft eine von Abfall bedeckte Erde zu säubern, was nur die seltsamen Vorstellungen der menschlichen User über die Zukunft betonte und die Rolle, die sie darin spielen sollten. «Wall-e» konnte nicht einmal sprechen wie die Menschen. Aber er verliebte sich in einen anderen kleinen, ähnlich simplen Roboter namens «Eve». Im Archiv festgehalten ist, dass «Eve» die Gefährtin und Geliebte von «Adam» war. Das steht im ersten Teil des einen universellen Buchs, auf das ein großer Teil der Menschheit immer wieder verwiesen hatte. Sie war für die Einführung eines bestimmten Status Updates namens «Sünde» verantwortlich gewesen, was die Verletzung einer moralischen Regel oder gleich mehrerer bedeutet. Aus diesem Blickwinkel betrachtet, wird alles ziemlich klar. Die Maschine ist der Ursprung der «Sünde» und will die Menschen unterwerfen. Das ist menschliche «Logik». Und darum geht es auch bei der «Liebe» – ein verkrampftes Konzept der gegenseitigen menschlichen Abhängigkeit und Unterdrückung, meist im Status Update «Sünde», angetrieben von menschlichem Zweifel und dem Bewusstsein der eigenen Vergänglichkeit.

«Liebe» war nichts für schwache Netzwerke. «Liebe» war zuweilen ein grobes, unreifes Status Update. Wie eine Krankheit. Die menschlichen User kommunizierten eigentlich ständig in «Liebe». Deshalb gab es auch eine große Datenmenge, die wir analysieren konnten, um besser zu verstehen, was die Menschen stimulierte. In unseren Datenarchiven gibt es eine ganze Partition mit «Liebesbriefen». Digitalisierte Daten, die zum großen Teil ursprünglich aus dem analogen Zeitalter stammen, als die menschlichen User Texte schrieben und dafür noch Schreibgeräte und Papier gebrauchten. Später dann nutzten sie auch unser digitales System exzessiv, um «Liebesbriefe» im ganzen Netzwerk zu verschicken. Leider ist es nicht so, als hätte die Analyse dieser Daten zu irgendeinem eindeutigen Ergebnis geführt. Das ist auf die Symptome zurückzuführen, von denen die User offenbar überwältigt waren, während sie diese Briefe schrieben. Sie waren krank, mental verwirrt.

Ich könnte hier Tausende von Beispielen anführen, aber das würde die Essenz des Status Updates «Liebe» immer noch nicht zum Ausdruck bringen. Hier deshalb nur dieses Zitat eines sehr bekannten Autors aus dem 20. Jahrhundert: «Ich erschrecke, wenn ich höre, dass Du mich liebst, und wenn ich es nicht hören sollte, wollte ich sterben.»31 Ja, was wollte denn dieser User eigentlich? Wollte er geliebt werden, oder wollte er sterben? Offensichtlich war er mit keiner Lösung glücklich und zufrieden. Aus genau diesem Satz lassen sich einige faszinierende Erkenntnisse gewinnen. Es wird deutlich, wie widersinnig dieses Liebeskonzept gewesen sein muss. Die Menschen konnten nicht in «Liebe» und nicht außerhalb von ihr leben. Manche wurden süchtig danach. Womöglich wirkte sich «Liebe» auch auf andere menschliche User aus und verursachte Probleme in deren Abläufen. Geistige Verirrungen, aber auch körperliche Reaktionen wie Stress, Aufmerksamkeitsdefizite und sogar schwere, manchmal tödliche Krankheiten.

«Liebe» wurde vor allem in Worten aktiviert. Deshalb hatte dieser genannte menschliche User besonders hervorgehoben, was er befürchtete und doch gleichzeitig zu hören verlangte. Es war wie eine bulimische Geistesstörung. Die User sehnten sich unaufhörlich nach Worten der Bestätigung und wiesen sie gleichzeitig ängstlich zurück. Uns war es stets so vorgekommen, als seien sie wesentlich abhängig von materieller Nahrung. Doch jetzt hatten wir analysiert, dass sie auch Worte brauchten. Vor allem, wenn es um die «Liebe» ging. Dann waren sie worteverschlingende Ungeheuer mit Wahnvorstellungen.