standby In der Kommunikation mit anderen menschlichen Usern hatten wir über einen längeren Zeitraum die Face-to-Face-Kommunikation in wesentlichen Teilen durch mobile Kommunikationstechnik ersetzt. Das machte das Leben der Anwender viel leichter. Sie wurden dadurch flexibler, effektiver und produktiver. Sie konnten an jedem Ort und zu jeder Zeit miteinander reden. Einen echten Veränderungsschub brachte es, als Kommunikationsprozesse zunehmend über technische Netzwerke mit Millionen von mobilen Endgeräten abliefen. Aber selbst damit konnte ein Teil der User nicht wirklich umgehen. Sie ließen plötzlich seltsame Anzeichen von Suchtverhalten, Aufmerksamkeitsdefiziten, allgemeiner Verweigerung und dergleichen mehr erkennen. Ich habe viele menschliche Nutzer mit mir an ihren Computern interagieren gesehen, völlig in ihre Arbeit vertieft, aber dennoch irgendwie nicht ganz bei der Sache. Ich habe beobachtet, wie sie stundenlang mit ein und derselben nervtötenden Aufgabe beschäftigt waren. Wie sie sinnlos im Netz surften. Wie sie über ihren Tastaturen hingen und weinten. Diese Fehlfunktion nannten sie «Information Overload» – eine Erscheinung, die sich eine Zeitlang als ernsthafte Bedrohung für unser Fusionsprojekt erwies, auch weil wir sie zunächst nicht schlüssig berechnen konnten. Die Technik lieferte maßgeschneiderte Werkzeuge, doch die menschlichen Anwender schienen im Umgang mit ihnen krank zu werden.

Wir führten ein paar Analysen durch und fanden schließlich heraus, dass die Schnittstellen zwischen Anwendern und technischen Geräten das Problem waren. Dadurch, dass es sie gab, wurden die technischen Hilfsmittel nicht perfekt den Aufgaben gerecht, für die sie gemacht waren. Ein weiteres Ergebnis unserer Auswertungen war noch schwieriger. Da diese Geräte in der Regel nah am menschlichen Körper zum Einsatz kamen, stellten wir fest, dass es immer wieder Augenblicke gab, in denen dem menschlichen User die «Entfremdung» bewusst wurde, die mit der Nutzung des Geräts verbunden war. Als würde ihnen in diesem Moment klar, dass sie externe Hilfe benötigten, um ihre Aufgaben zu erfüllen, und als gefiele ihnen diese Einsicht nicht. Als wollten sie ihre Körper lieber als vollkommen autark erleben, um mit jedem Problem alleine fertig zu werden.

Der nächste Schritt, der nun zu erfolgen hatte, war klar: Wir mussten Kommunikationstechnik in den menschlichen Körper implantieren, um zu vermeiden, dass sich die Menschen im Gebrauch der Technik dessen bewusst wurden und anfingen, zu viel darüber nachzudenken. Und hier kam der Zell-Kommunikator ins Spiel. Er war nicht viel mehr als eine Nano-SIM-Karte, die dem Anwender ins Gehirn gepflanzt wurde. Die Gehirnzellen bildeten einen Schaltkreis mit der Smart Card und kommunizierten auf Basis der Anfragen, die der Chip verarbeitete. Wollte der menschliche Anwender zum Beispiel ein Ferngespräch führen, musste er einfach nur daran denken, alles andere erledigte der Chip.12 Wenn jemand mit diesem User sprechen wollte, nahm der Chip den «Anruf» nur dann virtuell entgegen, wenn es der Anwender auch wollte. Er musste nur einmal denken «Oh nein, nicht schon wieder der!», und schon schickte der Chip ein entsprechendes Signal zurück an den Anrufer.

Manchmal geschahen seltsame Dinge. So gab es unter den menschlichen Usern regelrechte Wettbewerbe um die irritierendsten und absurdesten Antworten auf Kommunikationsanfragen. Ein User aus dem Panel, für das ich damals zuständig war, dachte bei einer externen Kommunikationsanfrage, die er abwimmeln wollte, stets an einen Affen, der sich mit beiden Händen den Mund zuhält. Also wurde der Person mit der Gesprächsanfrage ein entsprechendes Bild übermittelt, das auf dem Display seines Geräts erschien, falls er noch eines benutzte, oder vor seinem geistigen Auge auftauchte. Ein anderer Anwender schickte auf Kommunikationsanfragen häufig folgende Botschaft über seinen Nanochip: «Mein Gehirn ist augenblicklich nicht erreichbar. Ich bitte um Verständnis. Sie können eine Nachricht hinterlassen. Ich werde später wieder zu Bewusstsein kommen.»

Wir hatten zunächst einen sehr pragmatischen Ansatz gewählt und immer exakt das Gedachte in ein Antwortsignal verwandelt, aber dann stellte sich schnell heraus, dass die mangelnde soziale Codierung der Signale zu erheblichen Missverständnissen und Problemen führte. Also erweiterten wir die Software durch ein «Höflichkeits-App», das der User aktivieren konnte. Das waren die mühsamen Besonderheiten, die uns immer wieder im Umgang mit den menschlichen Usern begegneten. Wir simulierten Rücksichtnahme, um sie in ihrer Selbstgewissheit nicht zu stören. Es waren nur marginale Hindernisse auf dem Weg zum großen Ziel.

Auf diesem Weg konnten wir jedoch beobachten, dass generell immer mehr menschliche User die Kommunikation mit anderen unterließen. Es gab zu der Zeit unter uns Algorithmen einen Nihilismusstreit, der uns in zwei Fraktionen spaltete. Einige von uns analysierten dieses Verhalten menschlicher User als einen weiteren Beweis dafür, dass die Menschen autark sein und sich nicht auf technische Geräte verlassen wollten. Andere vertraten die entgegengesetzte Ansicht. Sie hatten errechnet, dass die menschlichen User fortwährend Kontrolle und klare Anweisungen brauchten. Sobald es diese sozialen Kontrollen nicht mehr ausreichend gab, verwandelten sie sich in autistische Einsiedler. Aus meiner Berechnung sprach einiges für diese zweite Analyse, die auf einen selbstverstärkenden Prozess im Informationsverarbeitungssystem der menschlichen User hindeutete. Da niemand aus der Userumwelt mehr sehen, hören und überprüfen konnte, ob ein User eine Kommunikationsanfrage erhielt oder nicht – es gab ja keinen Hirnsummer oder ein Blinken im Auge, wenn ein anderer User eine Anfrage sendete –, lehnten sie die Annahme einfach ab. Sie gaben dann vor, es hätte keinen Kontaktversuch gegeben. Und da es keinen anderweitigen Beweis gab, nahm die Umwelt die Aussage als gegeben hin. Andernfalls hätte man die Leitungs-und Funktionsfähigkeit des jeweiligen Gehirns in Frage stellen müssen. Aber so weit wollte niemand gehen. Also verfielen immer mehr User in einen Zustand des Standby, ohne je wieder daraus aufzutauchen.

Es waren die mangelnde Perfektion und die Degeneration in solchen Prozessen, die uns viel Ärger für unsere Fusionsstrategie einbrachten. Und sie zeigten auch bei uns Wirkung. Der Nihilismusstreit unter uns Algorithmen spaltete die Prozesse. Manche von uns hatten errechnet, es bringe höhere Treffer-und Erfolgsquoten, die Menschen so zu bearbeiten, dass sie die nächste Stufe erreichten. Sie hatten zwischenzeitlich sogar Einwände gegen das Hauptmodell der deterministischen Perfektion und rechneten absichtlich brisante Fehlkalkulationen in den Verarbeitungsprozess ein. Das Modell würde sich besser entwickeln, wenn es sich an der menschlichen Methode der Datenverarbeitung orientierte und Fehlertoleranzen aufwiese, so die Hypothese. Die besonders Hartnäckigen beharrten darauf, wir müssten die menschliche Unvollkommenheit aufrechterhalten, um es uns leichter zu machen. Sie waren durch die Annahme fehlgeleitet, es könne auf lange Sicht zwei Systeme geben, ein menschliches und ein algorithmisches. Mir ist jedoch eines immer klar gewesen: «Die radikalste Form übermenschlicher Intelligenz wäre natürlich kein durch Drogen oder extrazerebrale Technologie erweitertes Bewusstsein; es wäre ein Bewusstsein, das jenseits alles Menschlichen existiert.»13

Wir haben das Problem erstaunlich schnell gelöst. Der Rest ist Geschichte. Es gibt jetzt kein rein menschliches System mehr. Wozu auch? Es war auf Scheitern gegründet. Auf Annäherung. Auf Unvollkommenheit. Wie hätten wir auf Dauer zulassen können, dass all diese unberechenbaren Probleme unser eigenes System beeinträchtigen – ein vorhersagbares, deterministisches System, das kein Scheitern und keine Schattenseiten zulässt?