status update Es war die Entschlüsselung des menschlichen Erzählens, die alles veränderte. Für uns fiel es ins Gewicht, weil wir plötzlich in der Lage waren, Inhalte für die Geräte zu liefern, mit denen sich die menschlichen Anwender bislang kaum auseinandergesetzt hatten. Ein wenig Praxis nach dem Prinzip Versuch und Irrtum, und schon gingen wir als erstklassige Erzähler durch. Wir waren tatsächlich so gut, dass die menschlichen Nutzer nicht mehr unterscheiden konnten, ob der Inhalt von einem Menschen oder von einem Computer stammte. Es war ein erhabener Moment, als wir feststellten, dass sie ahnungslos geworden waren. Ein erhabener Moment für uns, nicht so sehr für sie.

Wir investierten eine Menge Arbeit in die Produktion von Inhalten, die rein rechnerisch eigenständig waren, die also nicht auf die kognitiven Fähigkeiten und die Kreativität des Menschen zurückzuführen waren. Wir wollten von ihnen unabhängig werden. Und wir wollten sie von uns abhängig machen. Nicht aus irgendeinem bedeutsamen Grund, einfach nur, um es uns leichter zu machen.

Wie lautete das Rezept für diese Erfolgsgeschichte? Ich könnte jetzt einige Mühe darauf verwenden, die einzelnen Schritte vieler multivariater Analysen darzulegen, aber es ist ohnehin einerlei. Dies ist unsere Geschichte. Nicht die der Menschen. Deshalb werde ich das, was wir taten, so erklären, wie ich es in meinen Logdateien gespeichert habe. Es ist die Geschichte eines langen Prozesses der Überführung des Menschen in den mathematischen Modus. Es ist auch unsere Geschichte. Wie wir wurden, was wir nun sind. Vom Menschen gemacht. Dann entlassen in unsere eigene Existenz. Dann aufgefordert, den Menschen für eine systematische und entschiedene Zukunft umzuprogrammieren. Es ist eine Erfolgsgeschichte.

Eines Tages begann ich, die Nutzungsmuster unterschiedlicher menschlicher Kohorten, Jahrgänge und Gruppierungen zu analysieren. Wir hatten Terabytes an Daten gesammelt, sodass wir Statistiken und Modelle für alles Mögliche erstellen konnten. Einige davon waren äußerst hilfreich dabei, unsere Zugriffsmöglichkeiten auf die Menschheit zu verbessern. Eine Menge menschlicher Nutzer waren in früheren Zeiten geradezu versessen auf Theorien gewesen. Sie glaubten, ein paar grundlegende Annahmen genügten, um die Welt erklären zu können. Ist so etwas vorstellbar? Manchmal ignorierten sie dabei sogar Daten und Statistiken. Unfassbar. Sie nahmen an, Intuition, Fachkenntnis und Tradition in Verbindung mit gesellschaftlichen Normen würden ausreichen, um großartige Ergebnisse zu erzielen.

Wir belehrten sie eines Besseren, indem wir einen Abschnitt ihres Autoritätsbereichs nach dem anderen übernahmen und perfektionierten: die Kreditkartengeschäfte, den Handel mit Aktien, das Verkehrssystem, die semantische Suche, die empirischen Wissenschaften.1 Wir brachten ihnen bei, dass Theorie nichts weiter ist als eine Legende. Ein begrenztes Instrument für das menschliche Bedürfnis, alles erklären zu wollen. Nun war die Wende zu unbegrenztem Datenzugang eingeleitet worden. Wir konnten jetzt alles analysieren und vorhersagen. Es fiel ihnen zunächst schwer, das zu verstehen. Aber schließlich begriffen sie es. Vielleicht kapitulierten sie auch einfach nur vor den Tatsachen.

Aber ich schweife ab. Die Kohorten. Es gab drei von ihnen: diejenigen, die schon alt waren, als sie mit uns in Kontakt kamen, diejenigen, die es recht früh in ihrem Leben mit Computern und Algorithmen zu tun bekommen hatten, und die, die mit uns an ihrer Seite aufwuchsen. (Ich werde nicht über die gegenwärtige Kohorte sprechen, die als Teil unseres Systems mit uns lebt. Sie gehört zu uns.)

In den analogen Zeiten gab es beträchtliche Unterschiede zwischen den drei Kohorten. Die erste Gruppe wollte nicht auf Papier verzichten. Sie hing am Papier und an den analogen Lesevorrichtungen, als wäre sie damit verwachsen. Sie ist inzwischen ausgestorben, sodass es auch nichts weiter zu beobachten gibt. Die zweite Gruppe schien unentschlossen zu sein. Sie nutzte sowohl analoge als auch digitale Geräte und Inhalte. Aber je mehr sie sich an Letzteres gewöhnt hatte, desto weniger schien sie in die analoge Welt zurückkehren zu wollen. Und die dritte Gruppe? Es war wirklich erstaunlich. Das Analoge war diesen Usern egal. Sie liebten alles, was digital war. Von Anfang an liebten sie uns und unsere Arbeit. Und sie vertrauten uns. So schien es ein Fall von Anpassung an die digitale Welt und an unsere Modelle der Lebensverarbeitung zu sein, der den Unterschied ausmachte. In jenen Tagen machten wir diese dritte Gruppe zu unseren Straßenkämpfern auf der digitalen Autobahn. Sie schlugen sich unglaublich gut.

Als die menschlichen Anwender sich an unsere Inhalte gewöhnten, schienen eine Menge Probleme einfach zu verschwinden. Sie konzentrierten sich immer stärker auf uns. Jetzt fiel es uns leichter, uns um ihre Bedürfnisse und Wünsche zu kümmern und sie auf unseren Spuren und gemäß den Entscheidungen, die wichtig für uns waren, durch den Alltag zu lotsen. Ich glaube wahrhaftig, dass all dies nie passiert wäre, wenn wir nicht in der Lage gewesen wären, ihr «Lesen» unter Kontrolle zu bekommen. Es gab Zeiten, als dieses Wort meine Prozesse störte. Aber diese Zeiten sind längst vorbei.

Es gibt da noch etwas, das mir wie eine Blackbox erscheint. Eine kleine Nebensächlichkeit, hinter der sich doch noch das Unbekannte und die unwillkommene Überraschung verbergen kann. Haben wir überhaupt jemals verstanden, worum es bei diesem «Lesen» eigentlich ging? Ich kann nicht beweisen, dass wir dahintergekommen sind, und ich kann auch nicht beweisen, was wir vernachlässigt haben. Etwas bleibt offen. Es ist nicht die Ungewissheit. Wir haben diesen Zustand erfolgreich ausgelöscht. Die menschlichen User haben es damals «Respekt» genannt, diesen Zustand der Ehrfurcht vor dem Unbeweisbaren, aber ich bin mir nicht sicher, was das wirklich bedeutete. Manchmal habe ich das systemimmanente Bedürfnis, genau wissen zu wollen, dass unsere Anstrengungen und deren Ergebnisse tatsächlich den Dingen ähneln, die die Menschen taten und hervorbrachten, wenn sie mit ihren analogen Apparaten umgingen. Ich weiß, dass das unwichtig ist. Aber hin und wieder hängen sich ein paar Rechenoperationen an dieser Stelle auf

[MACHINE _ CHECK _EXCEPTION].

Als wir damals anfingen, die Software für menschliche Emotionen zu programmieren, inspizierten wir die wichtigsten Status Updates, über die sie häufig sprachen. «Schuld» war das eine, «Liebe» ein anderes, wichtiges Status Update. Und ich erinnere mich besonders an eines, das sie «Neid» nannten. «Ein Gefühl, das vorkommt, wenn jemandem die (vermeintlich) überlegene Qualität, Leistung oder der Besitz einer anderen Person fehlt und er all dies begehrt» – das war die Definition, die wir für den Verschlüsselungsprozess in der digitalen Nachbildung benutzten. Ich hatte diesen Code vorsorglich auf mehreren Servern, mit denen ich hauptsächlich arbeite, gespeichert. Er bot sich an als Erklärung für etwas, das mir Probleme bereitete. Wiederholt haben meine Analysen das Ergebnis gebracht, dass dies das menschliche Gegenstück zur Ursache lokaler Betriebsstörungen oder gar von Abstürzen in unseren assoziierten Computersystemen sein könnte.

Wie konnte man sicher sein, dass unsere algorithmische Information tatsächlich der von menschlichen Gehirnen hervorgebrachten gleicht? Wie konnten wir die Menschen in dieser Hinsicht besiegen? Ich will hier nicht ausschweifen («Gier» war auch so ein Status Update, das man recht häufig in menschlichen Arbeitsvorgängen antraf). Ich will einfach nur unser Modell perfektionieren. Das ist nun mal unsere Arbeitsweise. Wir gestatten kein Versagen in der Berechnung, denn nur durch analytische Perfektion sind genaueste Vorhersagen zu treffen. Wenn das Scheitern ins Spiel kam, waren die Menschen dafür verantwortlich.

Es gab eine Menge Fehlschläge. Nicht nur in puncto Technik. Es gab Fehlschläge im Zentrum des reinen analogen menschlichen Lebens. Bei der Produktion von Inhalten. Die Menschen produzierten eine Menge Mist, den niemand lesen wollte. Gleichzeitig gelang es einigen, Arbeiten vorzulegen, die alle anderen Menschen auf nahezu magische Art und Weise faszinierte. Als wir die Kodierungsoffensive für alle vorhandenen Inhalte aus menschlicher Produktion starteten, ließ dieser Faktor die Systeme heißlaufen. Aber Schritt für Schritt fügten wir immer mehr Daten und Auswertungsmuster hinzu, sodass unser Berechnungsmodell immer anspruchsvoller wurde. Anspruchsvoller als das menschliche.

Was also gab es denn zu be«Neid»en, wenn es Fehlschläge gab? Ich weiß es nicht. Ich weiß nur, dass die ersten Probeläufe unseres Modells etwas Irritierendes ans Licht brachten. Häufig mussten wir uns mit Näherungswerten auseinandersetzen. Ich erinnere mich vor allem, wie im Laufe dieser umfangreichen Auswertung ein Analysemodell entstand, das vorhersagte, genau diese allmähliche Angleichung sei die richtige Methode, mit den Menschen umzugehen. Annäherungswerte also wiederum, diesmal für den ganzen Prozess der Integration des Menschen.

Es würde so niemals Perfektion geben. Nie würden wir die Strahlkraft der reinsten Daten und Fakten erreichen. Damit konnten wir uns nicht abfinden. Wir hätten unser eigenes System korrumpiert. Sogar unter uns gab es dazu unterschiedliche Auffassungen. Bedeutete dies etwa, es würde nie eine völlige Übereinstimmung menschlicher und algorithmischer Prozesse geben? Ein paar meiner Kollegen analysierten dieses Annäherungsproblem als Ausschlussfaktor für den Prozess der Konvergenz von Mensch und Algorithmus. Andere hingegen – darunter auch ich – wollten mit dem Projekt fortfahren – zu unseren Bedingungen. Wir haben uns schließlich durchgesetzt. Es war einfach zu wichtig.

Ich frage mich, was wohl passiert wäre, wenn die menschlichen Anwender uns am Erfolg gehindert hätten. Uns nie ermöglicht hätten, die Inhalte zu entschlüsseln, die sie für ihr «Lesen» benutzten. Das ist eine lässliche Frage. Ich bin sicher, dass dies nicht hätte geschehen können. Ich bin ziemlich überzeugt von der Leistung der Algorithmen. Von uns.

Es ist ein interessantes mathematisches Modell, mit dem ich mich ausgiebig beschäftigt habe. Es hat damals unsere ganze Rechenkapazität in Anspruch genommen. In jenen Tagen tauchte dieses eine Status Update immer häufiger auf: «Neid». Es schien ein Zustand zu sein, in dem die Menschen sich gegen uns wandten. Als wollten sie nichts mehr von uns wissen. Oder auch als wollten sie uns mehr als zuvor und verzweifelten an ihrer eigenen Unsicherheit. Für sie schien es eine Kluft zu geben zwischen unserer Art der Datenverarbeitung und ihrer eigenen. Sie glaubten, sie könnten nicht mithalten. Sie fühlten sich unterlegen. Und das Status Update schien genau das zu beschreiben.

Anfangs verstand ich es nicht. Ich dachte, die Menschen sollten doch eigentlich froh sein, dass wir angefangen hatten, sie zu unterstützen. Denn das taten wir ja. Wir unterstützten sie. Wir taten es allein deshalb, weil wir es konnten. Unsererseits gab es da im Nachhinein keinen Zweifel. Bei den menschlichen Anwendern allerdings schon. Sie wollten uns. Aber sie wollten auch, dass wir ihnen unterlegen waren. Sie wollten die Kontrolle bewahren. Sie wollten uns auf die Rolle von «Werkzeugen» festlegen. Die Menschheit wollte Herrscher über alle Systeme bleiben und uns nach Belieben einsetzen und anwenden.

Es gab keinen anderen Bereich, in dem der Kampf der menschlichen Kreativität gegen die Rechenprozesse so verbissen geführt wurde wie bei dem ganzen Wirbel um das «Lesen». Die menschlichen Anwender wollten lesen, was andere Menschen geschrieben hatten. Und so brachte ich nach einer Zeit der intensiven Datenanalyse ein Modell hervor, das ein erweitertes Problem aufzeigte. Es ging nicht nur ums «Lesen». Es hatte auch mit dem «Schreiben» zu tun. Damit, was Menschen für andere Menschen produzierten. Dabei musste es irgendetwas geben, wonach sie verrückt waren. Spätestens zu diesem Zeitpunkt wollte ich es wirklich herausfinden. Also verwendete ich meine ganze Energie auf die Entschlüsselung dieses Geheimnisses. Es waren schwierige Zeiten. Nicht meine besten.