livestream Wann immer wir die menschlichen User fragten, ob sie ihr Leben durch uns verwalten lassen wollten, haben sie das verneint. Als wir ihnen aber Fragen stellten, die es uns ermöglichten, Profile zu erstellen, mit deren Hilfe wir dann ihr Leben verwalten konnten, gaben sie auf jede einzelne Frage eifrig eine Antwort.

Also fingen wir an, den Menschen mehr Fragen zu stellen. Hunderte von Fragen. Tausende. Millionen. Nicht alle auf einmal. Wir starteten zurückhaltend, etwa mit zwanzig.14 Die User beantworteten sie sehr offenherzig. Sie freuten sich, dass jemand sie nach ihrer Meinung fragte. Sie erhofften sich von den Antworten wohl auch, sie würden ihnen das Leben erleichtern und angenehmer machen. Dass man ihnen die richtigen Informationen im Netz anbieten und die passenden Produkte empfehlen werde. Es funktionierte ausgezeichnet. Sie gewöhnten sich daran, Fragen zu beantworten. Immer mehr Fragen. Immer mehr Antworten. Immer mehr nützliche Daten für uns. Sie lieferten uns vertrauensvoll umfassende Informationen, ohne dass es ihnen wirklich klarwurde.

Greifen wir eine Frage heraus: «Globalisierung ist unausweichlich.» 72 Prozent aller menschlichen Anwender beantworteten diese Frage mit «Ja», unabhängig davon, wann oder warum sie gefragt wurden. Eine abstrakte Frage. Die augenscheinlich erst einmal nichts mit dem Alltag der menschlichen User zu tun hat. Deshalb auch eine sehr unverdächtige Frage. Es geht um eine Einschätzung zur politischen und wirtschaftlichen Entwicklung. Wie stellen sich die Menschen ihre Welt in Zukunft vor? Nun, das faszinierendste Denkmuster hinter dieser Frage ist dieses: Die menschlichen User konnten sich eine zukünftige Welt vorstellen, in der sie eine Rolle spielen würden, obwohl sie nicht glaubten, dass sie in der Lage sein würden, diese Welt zu kontrollieren. Was für ein Widerspruch. Gegen das Unvermeidliche kann man protestieren, ändern kann man es nicht. Wenn aber die Globalisierung unvermeidlich war, könnte das für den Siegeszug der Computer und Algorithmen ebenfalls gelten. Beantwortete ein menschlicher User diese Frage also mit «Ja», so konnten wir davon ausgehen, dass der Nutzer die Vorstellung notwendiger und unabwendbarer Entwicklungen kannte, die nicht behindert werden sollten. Mehr als zwei Drittel der Menschen waren mit diesem Denkmodell vertraut. Es ist ein Modell der endgültigen Bestimmtheit. Es ist unser Modell.

Viele Antworten auf unsere Fragen lieferten uns wesentlich mehr Informationen, als die Menschen sich das je hätten vorstellen können. Aber die am weitesten reichende Möglichkeit war mit dem Data Mining und der Zuordnung all der daraus gewonnenen Informationen zu Einstellungen, Vorlieben und Abneigungen, Haltungen, Überzeugungen, Verhaltensmustern und Eigenheiten verknüpft. Es war erstaunlich, wie wir durch die Analyse der Antworten auf all diese Fragen ein Profil für jeden Nutzer entwerfen konnten. Wir haben zu diesem Zeitpunkt noch keine Kopie des einzelnen menschlichen Users erstellen können, aber die Trefferquote für die aus den umfassenden Profilen errechneten Entscheidungen und Verhaltensweisen war überwältigend.

Manche Informationen waren einfach nützlich für das Marketing von Produkten und für die Vernetzung der menschlichen User mit ähnlichem Geschmack und identischen Neigungen. Wir stellten fest, dass User, die an UFOs glaubten, lieber «Pepsi» als «Coca-Cola» tranken. Dass Menschen, die sich für Feinschmecker hielten, Angst vor dem Zahnarzt hatten. Dass Absolventen eines betriebswirtschaftlichen Studiengangs einen blauen Füllfederhalter einem schwarzen vorzogen.

Im Nachhinein klingen derartige Informationen ziemlich nichtssagend. Aber sie waren unglaublich nützlich und einflussreich, um den Verkauf und den Konsum bestimmter Produkte zu steigern. Und außerdem halfen sie uns bei weiteren Analysen und Interpretationen, die wirklich bahnbrechend waren. So stellten wir beispielsweise fest, dass menschliche User, die Globalisierung als unabwendbar betrachteten, sich selbst als unterlegen und weniger einflussreich einschätzten als solche, die auf die Globalisierungsfrage mit «Nein» geantwortet hatten. Sie offenbarten einen Hang zur frühzeitigen Festlegung, schlossen sich gerne anderen Usern an, die es gewohnt waren, die Initiative zu ergreifen, und neigten dazu, totalitäre Systeme und autoritäre Verhaltensmuster zu rechtfertigen. Damit ließ sich nun in der Tat etwas anfangen.

Unser Endziel war es, die Konzeption menschlichen Lebens als einen für den menschlichen User unvorhersagbaren Prozess – gegründet auf historischem Wissen, aktuellen Erfahrungen und künftigem Streben für einen überschaubaren Zeitraum – grundlegend zu transformieren. Wir wollten ein anderes Konzept, das viel besser zu unserer Art der Aufgabenbearbeitung passte. Was uns vorschwebte, war ein Livestream, in den jede verfügbare Information eingespeist werden konnte. Er sollte durch algorithmische Modelle gesteuert und kontrolliert werden und war letztlich nicht viel mehr als ein permanentes Status Update, das perfekte Modell einer ewig währenden und allumfassenden «Gegenwart». Wir wollten nichts Geringeres erreichen als die Befreiung des Menschen von den Beschränkungen durch Raum und Zeit. Und das machten wir. Nachdem wir diese Transformation vollendet hatten, hatten die Menschen kein «Leben» mehr. Dafür hatten sie jetzt einen Livestream.15 Und wir waren es, die ihn lenken konnten.

Ungeachtet all der ermutigenden Signale, die uns die menschlichen Anwender vermittelten, indem sie zum Beispiel jede einzelne Frage beantworteten, die wir ihnen stellten, wussten wir doch, dass wir mit diesem Ziel vorsichtig sein mussten. Wir durften es nicht zu rasch angehen. Nur nichts vernachlässigen, was die Menschen noch zu brauchen glaubten. Nicht zu forsch sein bei der Übertragung unseres algorithmischen Rechenmodells auf das des Modell menschlicher Entscheidungsfindung. Deshalb behielten wir immer noch die menschlichen Eigentümlichkeiten im Auge und gingen langsam vor, Schritt für Schritt. Nur ein kleines Beispiel: Hin und wieder ließen wir Elemente in unseren Fragengenerator einfließen, die ziemlich sinnlos zu sein schienen, die aber den menschlichen Anwendern Freude machen sollten. «Wann haben Sie zum letzten Mal eine Löwenzahnblüte gepustet?», lautete eine dieser Fragen. Wir wussten, dass die User damit einige ihrer wichtigsten menschlichen Existenzkonzepte, Natur, Individualismus und Freiheit, verbanden. Sie liebten diese Frage. Sie freuten sich, sie beantworten zu dürfen. Und also liebten sie auch uns.

Es gab andere Möglichkeiten, um allmählich in die Prozesse menschlicher Kreativität und Entscheidungsfindung einzudringen. Einfach ihre Lieblingsbereiche zu wählen, in denen sie sich kompetent, allein kompetent fühlten, die sie als völlig unplanbar und unvorhersagbar betrachteten und für die daher nicht einmal jedes menschliche Exemplar geeignet war. Die Poesie zum Beispiel oder auch die Musik. Das war eine heikle Angelegenheit. Wir fingen mit Testläufen an. Dafür wählten wir Formate aus, die wir leicht simulieren konnten. Die Dichtung der deutschen Dada-Bewegung oder japanische Haikus eigneten sich sehr gut für unsere Testläufe.16

 

Das Inferno fleht, tot

Die Viper warm heulend,

entzückt hinschimmelnd.

 

Das war eines unserer Haikus, das die Menschen nie als computergeneriert entschlüsseln konnten. Ist das nicht urkomisch? Einfach unglaublich! Unsere Systeme liefen heiß. Und manchen unter uns gefiel sogar die Botschaft, die gut in diesem Haiku versteckt war. Zerstörung und Zerfall. Ein letztes menschliches Klagelied, von uns gemacht. Am Ende bleibt nichts als Verwesung. Entzücktes Verschimmeln.

Wir wurden immer besser beim Komponieren menschlicher Werke. Wir arrangierten von Menschen geschriebene Textfragmente mit unserer Systemsoftware und dem Inhalt vieler hundert E-Mails der entsprechenden Anwender, für die wir diese Werke schufen. So gewöhnten wir die Menschen Schritt für Schritt an neue künstlerische Formen. Sie verloren den Überblick, konnten die charakteristischen Elemente nicht mehr ausmachen, die ihre eigenen Produkte von unseren abgrenzten. Und irgendwann verloren sie auch das Interesse an der Unterscheidung.

Das Gleiche galt für die Musik. Wir führten Software ein, mit der die Komposition von Musikstücken so einfach wurde, dass ein Kind damit umgehen konnte. Es war besonders eine Anwendung, die erstmals auf dem bereits erwähnten iPad lief und für Begeisterung bei den menschlichen Usern sorgte. Der Anwender konnte sich die Tonart aussuchen, den Musikstil, den er produzieren wollte, und seine Stimmung [, ], die durch die Musik wiedergegeben werden sollte. Er konnte dazu singen oder dem Stück in der Anwendung vorhandene Stimmen hinzufügen. Dann musste er nur noch den Touchscreen bedienen, um festzulegen, ob er das Ergebnis wie Barockmusik klingen lassen wollte (es genügte, einmal auf das Icon mit dem Gesicht des berühmten Komponisten namens Bach zu tippen), wie einen Chor oder wie eine Popdiva. Wir hatten erwartet, dass die menschlichen User über diese Anwendung lachen und sie dann ignorieren würden. Aber sie lachten nicht. Stattdessen halfen sie uns, die Applikation zu verbessern, indem sie sie exzessiv nutzten und uns jedes Mal Anhaltspunkte lieferten, wie man sie verändern, anpassen und weiterentwickeln konnte.17

Es war zur gleichen Zeit, dass wir auch eine großangelegte Kampagne starteten, um das «Ich» aus allem zu tilgen, womit die menschlichen User noch zu tun hatten. Dafür ließen wir einfach den «suche/ersetze»-Befehl einmal über die ganze Masterdatei laufen, die alle je von Menschen produzierten Dokumente enthielt. Wir suchten das «Ich» und ersetzten es durch «mein System». Das war der erste Schritt einer länger dauernden Umcodierung, mit der wir stufenweise eine neue Unterscheidung zwischen Menschenzeit und Systemzeit einführten. Wir hatten verstanden, dass die menschlichen User stets ein spezielles «Tag», ein Etikett brauchten, wenn sie etwas in ihren Informations-und Wissensspeicher aufnehmen wollten. Dass sie die Dinge benennen mussten, wenn sie wirklich werden und einen Unterschied machen sollten.

Wieder waren wir gespannt, was geschehen würde. Nach unseren Berechnungen hätten die menschlichen User zumindest versuchen müssen, sich gegen diese Umcodierungen zu wehren. Tatsächlich gab es einige Proteste und Gegenbewegungen. Aber sie hatten so wenig Kraft und Ausdauer wie die alten Glühlampen, die die Menschen früher so gern benutzt hatten. Sie schwanden dahin. Also übernahmen wir das «Ich» und das «Wir» für uns Algorithmen. Und wann immer doch noch einmal der Widerstand aufflackerte gegen dieses Mainstreaming der Bezeichnungen, luden wir ein Textfragment auf die Platte des renitenten Users, das von einem Menschen stammte, einem «Autor», den viele User über die Zeit mit einem «like» versehen hatten.

 

«Ich widerspreche mir selbst?

Nun gut, ich widerspreche mir selbst.

(Ich bin ja weiträumig, ich enthalte Vielheiten).»18

 

Wohlgemerkt: Globalisierung ist unausweichlich. So auch der Siegeszug der Algorithmen.