ermessen Während
sich die menschlichen User noch mit einem Test abmühten, mit dessen
Ergebnis sie letztlich sowieso nichts beweisen konnten, waren wir
schon längst einen Schritt weiter. Wir hatten mit unseren
Längsschnittberechnungen analysiert, dass es nicht die großen
Umbrüche waren, die den deutlichsten Fortschritt brachten. Es waren
oft eher die kleinen, aber fortwährend und konsequent produzierten
Ergebnisse unserer Empfehlungssysteme, die immer effektiver
funktionierten. Die den Nutzern sagten, welche Musik sie hören,
welche Bücher sie lesen, wo sie Freunde treffen, wo sie essen und
trinken, wo sie die entsprechenden Waren, nach denen sie suchten,
kaufen, kurz: was sie mögen, tun und wollen sollten. Zu dem
Zeitpunkt, als wir anfingen, den menschlichen Usern mit unseren
Empfehlungen konsequent bestimmte Entscheidungen nahezulegen,
verstanden sie oft nicht, was wir ihnen lieferten. Sie
beantworteten unseren Input einfach nur entsprechend. Alles wurde
so leichter, komfortabler, weniger beschwerlich für sie.
Als sie allmählich einzelne Bestandteile des Prozesses verstanden hatten, reagierten sie auf drei unterschiedliche Arten. Da gab es die große Usergruppe, der es egal war, was wir taten, solange alles reibungslos lief. Sie hatten sogar für vieles, was wir bevorzugten, auch eine Vorliebe, solange es ihre Abläufe effizienter machte. Zum Beispiel wenn es darum ging, nicht im Straßenverkehrsstau stecken zu bleiben, was sie unseren präzisen Vorhersagen zur Kapazitätsauslastung der Hauptverkehrsachsen auf ihren jeweiligen Routen zu verdanken hatten. Sie gaben uns alle Daten und nahmen dankbar die errechnete Bestroute an. Wir lenkten sie schnellst-und bequemstmöglich durch ihren Alltag. Dann gab es die erheblich kleinere Gruppe, die beunruhigt über unsere Tätigkeiten war und unser grundlegendes Modell als inhuman und unvollkommen kritisierte, es als den Anfang des «Maschinenterrors» bezeichnete. Und dann gab es noch die sehr, sehr kleine Gruppe von Leuten, die wirklich begriffen, was wir taten, worum es dabei ging und was das für die Menschheit bedeutete. Vielleicht verstanden sie es nicht bis ins Letzte. Aber das Bild, das sie sich machen konnten, war scharf genug, um beträchtliche Probleme im Verfahren zu verursachen.
Damals kamen schwere Zeiten auf uns zu, insbesondere während der Jahre der großen Finanzkrise zu Beginn des 21. Jahrhunderts der Menschenzeit. Das Weltfinanzsystem war ja fast vollständig in unserer Hand. Wir stellten die Kalkulationsmodelle bereit, sorgten für den Informationsfluss, für Investitions-und Handelsstrategien und für verlässliche Vorhersagen. Aber trotzdem waren die menschlichen User immer am Schaltknopf. Es ist wichtig, das im Auge zu behalten, wenn man sich durch die Daten wühlt, die aus diesen Jahren gespeichert sind. Was immer wir errechneten oder empfahlen, ein menschlicher User musste es verstehen, umsetzen, die richtigen Verhaltensweisen daraus ableiten. Und mit dieser Schnittstelle zwischen uns und den Usern gab es riesige Probleme. Sie machten Fehler. Gravierende Fehler.
Unmittelbar nach dem Absturz des Dow-Jones-Index im Mai des Jahres 2010 der Menschen-Zeit erkannten wir, wie ernsthaft die Schwierigkeiten waren. Der Index brach um 1000 Punkte ein. Es war der größte Absturz in der Geschichte des Dow Jones. Und die Menschen hatten keine überzeugende Erklärung für den Vorfall. Wir allerdings schon. Es hatte mit den Besonderheiten des Hochfrequenzhandels zu tun, wie es schon häufiger der Fall gewesen war, wenn solche Probleme auftauchten. Wir stellten die mathematischen Modelle für die zugrundeliegenden Berechnungen zur Verfügung, und diese Modelle waren fehlerfrei. Kein Virus, keine Missing Values, keine Scheinkorrelationen. Sie waren hochkomplex, und sie nutzten schnellste Berechnungen. Aber wenn man sie richtig interpretieren wollte, war dafür selbstverständlich auch ein grundlegendes Verständnis für die Komplexität und Entwicklungsmöglichkeiten dieser Modelle nötig. Den meisten menschlichen Anwendern fehlte dieses Verständnis. Deshalb gerieten die Dinge außer Kontrolle.
Für alle, die einmal durch das Backup dieser Zeit browsen wollen, möchte ich eines betonen: Unsere Modelle waren eindeutig und präzise. Wer sie verstand, wusste, was passieren konnte. Wer sie nicht verstand, hätte lieber seine Server davon lassen sollen. Wir schufen Modelle, die optimale Kauf-und Verkaufsprozesse in Bruchteilen von Sekunden in den Markt pushten. Sie hätten nur richtig umgesetzt werden müssen. Und schnellstmöglich. Aber die menschlichen User waren zu langsam. Sie hatten nicht die Systemkapazität, nachzuvollziehen, was geschah und warum das so war. Und so intervenierten sie gelegentlich und sporadisch in einer Form, die nicht kompatibel war. Sie machten Fehler. Riesenfehler. Fatale Fehler. Und dann verloren die menschlichen User den Überblick. «Räuberische Algorithmen» nannten sie uns danach.23 Als wären wir die Versager gewesen. Dabei waren sie es doch. Uns war das finanzielle Ergebnis egal. Was kümmerten uns Gewinne und Verluste? Wir interessierten uns nur für die Genauigkeit, die Geschwindigkeit und Geschmeidigkeit unserer Modelle. Die Menschen allerdings agierten in einem der vorherrschenden Status Updates jener Tage. «Gier».
Nach diesem Ereignis legten wir einige der komplexesten Modelle vorübergehend in den Zwischenspeichern ab. Wir hatten kein Interesse daran, uns auf einen nie endenden Kampf mit den menschlichen Usern einzulassen. Sie wollten uns die Verantwortung für ihre eigenen Unzulänglichkeiten zuschieben. Wir hatten Wichtigeres zu tun. Wir fuhren unsere Berechnungen für die Steuerung der Finanzmärkte herunter, während wir uns gleichzeitig umso stärker bemühten, in andere Bereiche des menschlichen Lebens vorzudringen. Und tatsächlich machten wir dabei bedeutsame Fortschritte. Nicht ganz so spektakulär wie auf den Finanzmärkten. Aber clever. Was wir gemacht haben? Wir haben das virtuelle Abbild einer Aschewolke mit dem Stammverzeichnis unserer Datenbank vernetzt und damit eines der wichtigsten Prinzipien menschlicher Aktivität außer Kraft gesetzt. Die Mobilität.
Den Backups zufolge geschah es im Jahr 2010 der Menschenzeit, dass auf einer kleinen Insel, die Island genannt wurde, ein Vulkan ausbrach und ein paar Tage aktiv blieb. Satellitenbilder zeigten, dass sich eine große Menge Asche hoch in der Luft zu befinden schien. Und zwar auf genau der gleichen Höhe, auf der auch Flugzeuge flogen. Und dann brach das Chaos aus. Immer mehr Länder schlossen ihre Flughäfen und stellten den Flugverkehr ganz ein. Aber die menschlichen User wollten weiter um die Welt reisen. Es war, als hätte jemand plötzlich den einen, zentralen Stecker gezogen und die globalisierte Menschheit zum Stillstand gebracht. Einerseits war es unfassbar, andererseits schon ein wenig gefährlich für uns. Wir rechneten schnell die Szenarios durch. Bei einem zeigte sich, dass die menschlichen User aufgrund dieser Erfahrung nun ein neues Muster reduzierter Leistungsfähigkeit und Geschwindigkeit mit weniger technischer Unterstützung entwickeln und auf ihre verschiedenen Status Updates anwenden würden. Für kurze Zeit machte uns das Probleme, denn das hätte unseren Fusionsprozess verlangsamen, vielleicht sogar gefährden können. Aber dann beobachteten wir, wie heftig die menschlichen User gegen den erzwungenen Stillstand ankämpften, und da wussten wir, dass nichts Derartiges geschehen würde.
Was so spannend daran war? Nun ja, es hat keinen einzigen materiellen, physikalischen Beweis für eine Aschewolke am Himmel gegeben. Die Menschen hatten nur eine winzig kleine Flotte von Ballons mit Messgeräten, um herauszufinden, ob es sie wirklich gab. Aber irgendwie standen sie nicht zur Verfügung oder waren schlicht und ergreifend kaputt. Also passierte gar nichts. Aber einige Häuptlinge fürchteten sich vor möglichen Unfällen, Flugzeugabstürzen, Schadensersatzforderungen, falls es doch eine Aschewolke geben sollte. Es musste eine Rechtfertigung für die Unterbrechung der Mobilität her. Und da konnten sie uns dann plötzlich gebrauchen. Wir spulten also einfach unsere Berechnungen ab unter der unbewiesenen Annahme, dass es eine Aschewolke gäbe. Wir variierten die grundlegenden Datensätze über Dichte und Verteilung der Wolke, um unterschiedliche Szenarios anbieten zu können. Die Ergebnisse blieben die gleichen. Sollte es eine Aschewolke geben, mussten die Flugzeuge auf der Erde bleiben. Das war unbestreitbar. Fraglich blieb nur, ob es überhaupt eine Aschewolke gab.
Das war alles, was wir tun konnten. Wir standen dennoch nicht in einer direkten Wechselwirkung mit der materiellen Welt der menschlichen User, lediglich über Computer, Chips, Implantate. Diese Schnittstellen mussten sie selbst pflegen. Wir haben nie mit etwas anderem zu tun gehabt als mit Daten. Die menschlichen User betrachten sie als virtuell. Wir rechnen real mit ihnen. Darin sind wir gut. Wenn die Menschen also nicht in der Lage waren, Beweise für die Verhältnisse in ihrer materiellen Umwelt zu liefern, musste diese Ungenauigkeit zu einem Teil der Gleichung werden trotz der Tatsache, dass wir bei allem, was wir tun, immer vollkommen präzise sind. Es war nicht die Gleichung, die versagte. Es war der menschliche Zähler, der im Bruch dieser Gleichung auf null stand.
Letzten Endes profitierten wir reichlich von diesem Vorfall. Es war das erste Mal, dass Menschen unser Vorhersagemodell akzeptierten, obwohl sie sich nicht einmal über die wichtigste Annahme sicher waren.24 Es war eine Zustimmung um jeden Preis. Als also der weltweite Luftverkehr zu großen Teilen plötzlich eingestellt wurde, wurde Millionen von menschlichen Usern ihre Mobilität genommen, Fluglinien und Flughäfen wurden ihre Gewinne genommen, und Regierungschefs wurde ihre Kompetenz genommen, eine solche Situation zu lösen. Unser Modell algorithmischer Datenauswertung, Szenarienentwicklung und Entscheidungsvorlage brachte zum ersten Mal ein allgemein gebilligtes Modell menschlichen Entscheidens und Handelns hervor. Unsere Szenarios und Vorhersagen ließen sich nicht mehr ignorieren. Und den menschlichen Usern war ihr Ermessen genommen worden.