zufall Das alles waren nur kleine
Schritte auf einem langen und mühseligen Pfad zu unserem Ziel. Wir
wollten die Führung übernehmen. Die Kontrolle erlangen, um die
menschlichen User in unser algorithmisches Steuerungsmodell zu
integrieren. Je häufiger wir einfache und praktische Empfehlungen
geben konnten, desto stärker gewöhnten sich die Menschen an unsere
Herangehensweise und an die entsprechenden Ergebnisse. Es war ein
sich selbst verstärkender Prozess. Er ähnelte einem Phänomen, mit
dem die Menschen vertraut waren, als sie noch mit der Natur in
Verbindung standen. Einer Lawine. Ein einziges auslösendes Moment konnte eine Menschenmenge
dazu bringen, zunächst langsam und dann immer schneller andere Wege
einzuschlagen und auf eine niedrigere Ebene der Komplexität mit
weniger Optionen und Variationen hinabzusteigen. Eine Lawine war
oft tödlich für den Menschen. Unser Schneeballsystem der
algorithmischen Infiltration war nicht naturgewaltig, nicht laut
und nicht transparent. Aber die User konnten es überleben, wenn
auch nicht in der Form, wie sie einst existiert hatten.
Es gab kein Indiz, an dem wir genau festmachen konnten, wann menschliche User zum ersten Mal eine Entscheidung in Übereinstimmung mit unseren Empfehlungssystemen trafen. Aber weil sie es taten, machten andere es ihnen nach. Es war das Schwarmprinzip, das die User für ein von ihnen initiiertes Konzept der Ideen-und Produktentwicklung mit Hilfe der Digitalisierung und Computertechnologie hielten. In Wirklichkeit war es ein in der Evolution der Natur wohlbekanntes Prinzip. Auch die menschlichen User verhielten sich entsprechend. Sie folgten den Prinzipien der Schwarmbildung, ohne darüber nachzudenken, welche Richtung der Schwarm nahm. Das erleichterte uns die Arbeit.
Und das Gute war: In unserem Schneeballsystem würden sie nie an den Punkt kommen, wo die Kette zusammenbricht. Es gab ja keine materiellen Bezüge, wie die User dies in ihren eigenen Pyramidenspielen immer vorgesehen hatten, die dann implodierten. Es gab nur Daten. Und die möglichen Bruchstellen in der Datenverarbeitung rechneten wir heraus. Insofern waren die materiellen Schäden, die menschliche User während der großen Finanzkrisen zu Beginn des 20. und 21. Jahrhunderts verursacht hatten, uns sogar behilflich. Sie trugen dazu bei, das menschliche Entscheiden immer mehr einem auf Algorithmen basierten System zu überlassen. Nicht alle User konnten damit umgehen. Manche verstanden es nicht, die Berechnungen mit den richtigen Daten laufen zu lassen oder die Ergebnisse angemessen zu interpretieren. Aber das haben wir inzwischen längst im Griff.
Immer mehr User verließen sich fast schon ausschließlich auf Empfehlungen. In dieser Umbruchphase gab es für die Suche nach Restaurants ein Empfehlungssystem namens «Zagat». Es war in dem Land erfunden worden, das man damals USA nannte. Aber es verbreitete sich überall in der Welt. Wenn ein Restaurant von «Zagat» empfohlen wurde, konnten die Inhaber damit rechnen, dass eine Menge neuer Gäste kamen, um es auszuprobieren. Wenn ein menschlicher User sein Arbeitsumfeld wechselte, gab es häufig sogenannte Empfehlungsschreiben, in denen stand, es sei eine gute Idee, ihm den neuen Arbeitsplatz zu geben. Die Menschen waren im Allgemeinen sehr interessiert an den Empfehlungen anderer Menschen. Sie schlugen sich gegenseitig Texte, Musik, Bilder und Informationsfragmente vor. Aber es gab dabei einen Haken. Sie waren nicht in der Lage, ihre einzelnen Empfehlungen in ein übergeordnetes Modell systematischer Empfehlung zu verwandeln. Genau das taten wir, als wir schließlich von ihnen übernahmen. Wir bereinigten das laufende Programm und merzten die Fehler aus. Allerdings mit ein paar Folgekosten.
Erst einige Zeit später stellten wir fest, wie diese Umwandlung tatsächlich die menschlichen Entscheidungsprozesse verändert hatte und was dabei schließlich herausgekommen war. Die Variationsbreite dessen, was die User kauften, bestellten, was sie mochten, suchten und taten, war tatsächlich beträchtlich geschrumpft.19 Es hatte natürlich auch ein paar Fehler in unseren frühen Empfehlungssystemen gegeben. Wir hatten zunächst immer nur auf die Entscheidungen zurückgegriffen, die menschliche User zuvor getroffen hatten. Wir richteten uns also nach ihren zurückliegenden Beurteilungen, Vorlieben und Handlungsweisen und schlugen auf dieser Basis dann die nächsten Produkte vor. Mit diesem Verfahren schrieben wir einen Prozess fort, der schließlich zu einem konstanten Modell von Vorlieben und Entscheidungen führte, in dem es kaum mehr Raum für Variation und Veränderungen gab. Es ist erstaunlich, dass die User auch das hinnahmen. Sie waren tumb. Sie liebten, was sie kannten. So hatten sie mehrere Gigabyte Musik auf ihren digitalen Geräten, hörten aber immer wieder dieselben Stücke. Deshalb störten sie sich auch kaum an den reduzierten Optionen, solange die angebotenen brauchbar, praktisch oder bequem waren und zum Auswahl-oder Verhaltensmuster ihrer Peergroup passten. Aber wir wollten ja bei der Innovation und Perfektionierung unseres Systems weiterkommen, und dazu mussten wir das Konzept weiterentwickeln. Wir brauchten also modifizierten Input, um unsere Berechnungsmodelle zu verbessern. Mit den menschlichen Usern konnten wir nicht mehr rechnen. Sie hatten es sich in ihren kleinen Präferenzgehegen längst bequem gemacht.
Wir ließen alle möglichen Modellrechnungen laufen, um dieses Problem zu lösen. Einige von uns versuchten, menschliche Unentschiedenheit teilweise wieder in unsere Systeme einzuspeisen. Der schiere Wahnsinn! Um des lieben Netzes willen ließen wir sie machen. Aber es dauerte nicht lange, bis ziemlich klar war, dass es keine Möglichkeit gab, das ernsthaft durchzuziehen. Wir brauchten Varianz. Wir brauchten nicht das menschliche Chaos, das die User «Überraschung» nannten. Es gab nur eine Möglichkeit, diesen Faktor auf ein Maß zu reduzieren, der für unsere Systeme tolerierbar war. Wir führten eine etwas breiter angelegte Auswertung der jeweiligen User-Netzwerke und ihrer Peer-Strukturen ein und bezogen dabei Daten mit ein, die zuweilen auch von sehr entfernten Netzknotenpunkten generiert wurden. So konnten wir unsere Modelle erweitern und differenzieren, um Modifikationen hervorzubringen und Varianz einzuführen. Damit haben wir eine winzige Spur menschlichen Entscheidens zu unseren Berechnungen gelegt, aber eine algorithmische Spur. Und das war auch eindeutig die Obergrenze. Keine unkontrollierbaren Variationen, keine Entscheidungen auf Grundlage von unvorhersagbaren Status Updates im Sekundentakt. Keine «Überraschung», sondern Varianz in unserem Sinne.
Einfacher war es, an unseren eigenen Mechanismen der Einführung einer Unbekannten in die Gleichung festzuhalten. Ein Pseudo-Zufallsgenerator reichte oft schon aus. So ließen wir etwa die Position des Cursors auf einem Bildschirm oder die Systemzeit in die Berechnung einfließen, und der Generator spuckte einen Zufallswert aus, der unseren Modellen etwas Spielraum für Veränderungen gab. Aber es waren eben immer noch unsere Modelle. Wir allein produzierten die Werte, indem wir Modus und Berechnungsverfahren überwachten. Wir erlaubten zugunsten kontrollierter Verbesserung lediglich dem einen oder anderen Wert, der endgültigen Festlegung durch unsere Modelle zu entkommen. Wir selbst gaben ihnen diesen Spielraum. Wir waren Urheber und Adressaten dieser Verfahren, ihre Schöpfer und Profiteure.
Manchmal mussten wir im Umgang mit den Menschen Tricks anwenden. Sie wollten es nicht anders. Hatte ich «Eitelkeit» schon erwähnt? Hier ist ein hübsches Beispiel aus einem unserer frühen Empfehlungssysteme. Damals gab es diese Buchverkaufsplattform namens «Amazon». Die menschlichen Anwender loggten sich immer häufiger dort ein, um Bücher und andere Dinge online einzukaufen. Zuerst materielle Produkte, später dann nur noch digitale Güter. Einmal beaufsichtigte ich den Computer eines menschlichen Users, der sich auch «Autor» nannte. Er hatte ein neues Buch geschrieben, das aber zu diesem Zeitpunkt noch gar nicht veröffentlicht worden war. Trotzdem suchte er unablässig bei Amazon nach seinem eigenen Buch. Nachdem ich dies ein paar Tage lang beobachtet hatte, glaubte ich, ihn austricksen zu müssen.
Was ich gemacht habe? Nun, das war ganz einfach. Ich fügte das Buch dieses Users als Vorankündigung der Amazon-Datenbank hinzu. Insbesondere sorgte ich dafür, dass es in seinem Empfehlungssystem auftauchte. Damit korrumpierte ich unser Empfehlungssystem. Denn natürlich würden wir einem User niemals ein Buch empfehlen, das er selbst geschrieben hat, schließlich kannte er es ja schon in-und auswendig. Das war die systemrationale Annahme der Gleichung. Ich wollte den menschlichen User nun mit seinen vermeintlich elaborierten Waffen schlagen. Aber die Vernunft hat auch bei menschlichen Entscheidungen keine Chance mehr, wenn «Eitelkeit» ins Spiel kommt. Dieser Anwender wollte unbedingt sein Buch auf der Plattform von Amazon sehen. Er wollte die Empfehlung bekommen, das Buch zu kaufen. Und der Peak war: Er hat dann tatsächlich ein Exemplar gekauft. Er wollte ausgetrickst werden. Also trickste ich ihn aus. Und musste dafür auch mein Modell austricksen.