DER DIGITALE TAYLORISMUS

IMAGE alsche Informationen und Diagnosen vererben sich also selbst in so entscheidenden Dokumenten wie Krankenakten wie eine Mutation bei einer fehlerhaften DNA von einem Dokument zum nächsten, ohne dass sie bemerkt werden, weil kein menschliches Hirn die ewigen Ketten der Kopien prüft. Und selbst wenn es sie prüft, die Fehler womöglich gar nicht mehr erkennt.

Das zeigte sich bereits 2005 auf eher komische Weise, als eine Gruppe von Studenten den von ihnen sogenannten SCIgen-Forschungsgenerator programmierte. Die Software ist in der Lage, beliebige, angeblich computerwissenschaftliche Texte selbstständig zu generieren. Natürlich sind es letztlich völlig sinnlose Aufsätze, die mit einer Vielzahl mathematischer Formeln und durch ihren Gebrauch wissenschaftlicher Begriffe allerdings logisch und irgendwie plausibel klingen. Jedenfalls wurden mehrere dieser Nonsens-Texte von wissenschaftlichen Zeitschriften zur Veröffentlichung angenommen und auf Kongressen vorgetragen.29

Die neuen Technologien verfügen über Möglichkeiten kollektiver, von Menschen ausgeführter Korrekturen, und Wikipedia ist dafür in vielen Fällen ein glänzendes Beispiel. Aber diese Möglichkeit der Korrektur ist auch der Grund, warum Menschen sich immer häufiger damit beruhigen, dass jedem Fehler sofort widersprochen wird. Aber nicht nur sind Krankenakten kein Wikipedia-Eintrag, sondern schon bei den fundamentalsten Textkorrekturen produziert das Vertrauen in die Computer erstaunliche Fehler. Journalisten wissen, dass in vielen Zeitungen versucht wurde, die Artikel vollständig von Maschinen korrigieren zu lassen. Es gibt zwei häufige Arten von Wortfehlern. Bei der einen Art entsteht ein Wort, das nicht existiert, Sanne statt Sonne, Mont statt Mond. Menschen können solche Fehler mit neunzigprozentiger Zuverlässigkeit erkennen, Computer sind zu hundert Prozent zuverlässig. Anders sieht es bei Wortfehlern aus, die wirklich etwas bedeuten: Sahne statt Sonne oder Mund statt Mond. Solche Fehler werden, wie Ray Panko von der Universität Hawaii errechnet hat, von Menschen zu 75 Prozent erkannt, von Maschinen überhaupt nicht.

Das heißt, so Panko, »Korrekturprogramme finden genau die Fehler nicht, die auch Menschen nur mühsam finden«.30 Bei sinnlosen Sätzen, in denen der Mund auf- und die Sahne untergeht, wird selbst in der gedankenlos kopierten Information die Wahrscheinlichkeit sehr groß sein, dass der Nonsens jemandem auffällt. Das ist bei komplexeren Systemen schon sehr viel fraglicher, und bei hochkomplexen, wie die Bankenkrise zeigte, fast unmöglich. Abgesehen von simplen Programmierfehlern in Tabellenprogrammen, die zuweilen einen Unterschied von mehreren Millionen ausmachten, liegt ein Hauptgrund in der kognitiven Überforderung auf der menschlichen Seite. Durch falsche Eingaben potenzieren sich Fehler, die das Programm selbst nicht erkennen kann und die der Mensch übersieht oder nicht mehr begreift - zu den dokumentierten Fällen zählen Fehlschätzungen, die einen Unterschied von mehreren Hundert Millionen Dollar ausmachten.31

Auch die Finanzkrise hat gezeigt, dass die entscheidenden Fehler im System nicht erkannt werden. Denn mit den Informa-tionen, die der technische Apparat speichert, wächst das Vergessen unserer biologischen Gedächtniszentren. Aufmerksamkeitsverlust und Blackouts kennt mittlerweile jeder. Die nächste Verschärfungsstufe ist der Erinnerungsverlust.

John von Neumanns erster Computer, mit dem in gewisser Weise die Geschichte der modernen Rechner beginnt, hatte in den fünfziger Jahren ein Gedächtnis von 5 Kilobyte. Die Entwicklung der Computer seither war immer eine Geschichte neuer Prozessorgeschwindigkeiten und neuer Speicherrekorde, die Evolution eines immer besser werdenden Gedächtnisses.

Der Intel-Chef Gordon Moore hatte 1965 die berühmte These aufgestellt, dass sich die Geschwindigkeit der Computer mit jeder neuen Version integrierter Schaltkreise verdoppelt. Mit unausweichlichen Konsequenzen für den Benutzer: Man kaufte sich ein neues Gerät, weil neue Software neue Leistung benötigte, und während man mit immer besseren Wortverarbeitungsprogrammen, Internetapplikationen und Computerspielen beschäftigt war, warteten bis in die späten neunziger Jahre Informatiker und Cyberpropheten darauf, dass irgendwann die Maschinen die Schallmauer zur menschlichen Intelligenz durchstoßen würden.

Stattdessen geschieht seit dem Triumph des von menschlicher Intelligenz gespeisten Internets etwas Unerwartetes: Plötzlich geht es nicht mehr um die Aufrüstung der Computer, sondern um die Aufrüstung des Menschen, nicht um die Mikroprozessoren, sondern um das Gehirn, nicht um die Speicher, sondern um die Erinnerung. Es geht nicht darum, ob die Computer-Intelligenz menschlicher, sondern ob die menschliche Intelligenz synthetischer werden würde. Und es geht darum, ob es ein Moore'sches Gesetz gibt, das berechnet, um wie viel langsamer das menschliche Auffassungs- und Denkvermögen mit jeder weiteren technischen Revolution wird.

Es ist noch unklar, ob sich dahinter eine der nächsten großen Kränkungen des Menschen verbirgt oder nur die Kränkung unserer Generation, die schlichtweg überfordert ist. Jedenfalls wimmelt es seither überall von Sudoku, Gehirnjogging-Trainern und Neurotests, die Hirnforschung findet bereits in der Yellow Press statt, es gibt Reiseführer fürs Gehirn und Gebrauchsanleitungen, Publikationen zur Gedächtnis- und allgemeinen kognitiven Leistungssteigerung stürmen die Bestsellerlisten, und es entstehen ganze Wissenschaftszweige, die sich mit der Zerstreutheit wie mit einer Krankheit befassen, während gleichzeitig eine ganze kulturkritische Industrie die Verdummung der Gesellschaft durch die Massenmedien beklagt.

Wann immer eine neue Technologie - Fernsehen, Kino, Radio oder der Telegraf - geboren wurde, standen die Klageweiber an der Wiege und beweinten den absehbaren Tod von Vernunft und Gefühl. Wir haben diese neuen Technologien nicht nur alle überlebt, sondern sind, statistisch gesehen, über die Jahre immer noch klüger geworden.32

Aber jetzt ist die Lage eine ganz andere. Die modernen Technologien, die im Internet kulminieren, sind nicht einfach nur Anbauten in unserem schönen Haus, nicht einfach nur »neue Medien«. Und die pädagogische Ermahnung der sechziger Jahre »Schau nicht so viel Fernsehen!« kann man auf diese Technologien nicht anwenden. Sie sind inzwischen Einwohnermeldeamt und Telefonauskunft, sie werden bald beurkundete Dokumente versenden dürfen und zu Kommunikationsplattformen zwischen Staat und Bürger werden. Sie werden zu Bestandteilen staatlicher Bürokratie. Wir sind bereits irreversibel abhängig von ihnen.

Das Internet - und mittlerweile auch das Handy - vereinen jede heute existierende Form technischer Kommunikation in einem einzigen Gerät: Über Schrift und Ton bis Bild und Video können sie alles verbreiten und empfangen, sie können mittlerweile zuhören und vorlesen, übersetzen, Gesichter, Gebärden, Pupillen, und, wie wir noch sehen werden, Gedanken lesen. Auch ihre ökonomischen Eigenschaften sind einzigartig. Sie reduzieren die Kosten für alle anderen Medien auf ein absolutes Minimum, nicht nur für Schrift und Sprache, auch für Radio, Funk und Fernsehen. Damit schaffen sie überhaupt erst die Voraussetzung, dass man mit ihnen nicht nur konsumieren, sondern sich in ihnen auch ausdrücken will. Kein Mensch hätte sich vor zehn Jahren ein eigenes Fernsehstudio leisten können, um zum Beispiel die neuesten Kunststücke seines Dackels zu präsentieren, wie es heute tausendfach geschieht.

Doch indem wir uns in und mit ihnen ausdrücken, treten wir, wie geschickt die Softwareingenieure dies auch verbergen wollen, fast immer, wenn wir glauben, mit Menschen zu kommunizieren, in Wahrheit in Wettbewerb mit den Maschinen. Niemals zuvor wären wir auf den Gedanken gekommen, mit einem Fernsehgerät in Wettbewerb um Intelligenz zu treten, niemals hätte es uns Instruktionen gegeben und Befehle ausgeführt, niemals hätten Filme oder Fernseher ohne Zutun des Menschen miteinander kommuniziert, um zu Ergebnissen zu kommen, deren Zustandekommen der Mensch nicht mehr verstehen kann, die er aber für sein Weiterbestehen benötigt. Das alles aber tun Softwareprogramme.

Kein Radio, kein Telegraf hätte mit uns kooperiert, und von keiner dieser Technologien hätte man behaupten können, dass sie wesentliche Vorgänge des menschlichen Denkens imitieren und perfektionieren. Und natürlich hat es auch niemals einen komplexen Verkehr in beiden Richtungen, vom Menschen zur Maschine und umgekehrt, gegeben. Wir sitzen uns gegenüber und gehen ineinander auf.

Eine amerikanische Anzeige für ein Gesundheits-Netzwerk wirbt für ihre Software mit der Schlagzeile: » Medizin, die nicht vergisst.« Sie zeigt einen Landarzt mit einer schwarzen Arzttasche und den Slogan: »Wissen Sie noch, wie es war, als Ärzte alles über ihre Patienten wussten, und alles, was sie brauchten, in ihrer kleinen schwarzen Tasche trugen? Die elektronische Akte ist die kleine schwarze Tasche des modernen Arztes.«

Das »New England Journal of Medicine« bemerkt dazu: »Der Versuch, diese Art der Technologie mit der nostalgischen Erinnerung an den Arzt zu verbinden, der sich viel Zeit für Gespräche nahm, ist ziemlich unpassend. In Wahrheit unterscheidet sich dieses humanistische Abbild extrem von der Wahrnehmung vieler Patienten, die während eines fünfzehnminütigen Arztbesuchs den Doktor auf einen Bildschirm starren sehen. Das ist womöglich der beunruhigendste Effekt der Technologie: Sie verändert Aufmerksamkeit und zieht sie vom Patienten ab. Eine unserer Patientinnen nennt ihren Arzt nur noch ›Doktor Computer‹. ›Er schaut mich nie an‹, sagt sie, ›nur auf den Bildschirm.‹«33 Das ist, auf höherer Ebene, das, was Christina Huffington erlebte, als ihre Mutter ihr zur Verbesserung der zwischenmenschlichen Aufmerksamkeit den Blackberry schenkte.

Fassen wir zusammen: Auch die Ärzte haben kein Mittel gegen kognitive Störungen. Auch bei ihnen haben die Verdrahtungen zu glühen begonnen. Sie sind nicht verantwortungslos, sondern selbst ein Musterbeispiel für Informationsüberflutung. Sie zählen zu jener Berufsgruppe, die in der Informationsflut fast ertrinkt und »auch noch die Wasserhähne aufdreht«.34

Und was raten uns die Neurowissenschaftler, deren Disziplin kaum zufällig in dem Maße an Bedeutung gewonnen hat, wie die kognitiven Störungen des Einzelnen zunahmen?

»Legen Sie ein Nickerchen ein«, »Tempo drosseln«, »Zeitlimits setzen«, »auf ein Abschweifen der Gedanken achten«, »bewusst bei der Sache bleiben«, »eventuell ärztliche Hilfe aufsuchen« und am Ende: »Schalten Sie die Geräte ab«.35

Sehr hilfreich sind diese Rezepte bisher nicht, denn mittlerweile sind fast alle von uns auf Computer und ihre Zugänge zur Welt angewiesen. Vom Rechnen bis zum Korrigieren, von der Fähigkeit, Stadtpläne zu lesen bis zum Auswendiglernen von Telefonnummern - die Computer nehmen uns so viel ab, dass wir im Laufe der Zeit in unseren Gehirnen die entsprechenden Abteilungen verkleinert, geschlossen und die Nervenzellen in Vorruhestand geschickt haben.

Wir können gar nicht mehr so einfach aussteigen, das Tempo drosseln, ein Nickerchen einlegen. Wenn wir aufwachen, beginnt alles wieder von vorn. Wir bleiben Käfer. Vor allem aber: Unsere Laptops, Handys und Computer, unsere Facebook-Accounts und E-Mail-Postfächer haben unterdessen weitergetickt. Ein Nickerchen halten heißt nur, das Versäumte nachholen zu müssen.

Die Informationstechnologie hat die Welt des Frederick W. Taylor zurückgebracht, jenes legendären Arbeitsoptimierers, der das Leben nach der Stoppuhr erfand und auf den viele der inhumanen Effizienzmethoden der industriellen Arbeitswelt zurückgehen. Prinzipien, die, nach den Worten des Ökonomen Peter Drucker, mindestens ebenso einflussreich waren wie die Theorien von Marx und Freud.36 Der »digitale Taylorismus«, auf den zuerst die amerikanische Journalistin Maggie Jackson in ihrem lesenswerten Buch über »Zerstreutheit« hinwies, zerstückelt Leben, Zeit, Gedanken, nur dass wir es diesmal mit einer »personalisierten« Variante dieser Ideologie zu tun haben. Die meisten Menschen unterwerfen sich freiwillig den Befehlen der Mikroprozessoren.

Taylor schuf eine Einteilung, die Arbeitsplätze in kleinste, hocheffiziente Einheiten und Umgebungen verwandelte, in denen jede Bewegung, jeder Schritt des Arbeiters auf seine Wirtschaftlichkeit hin geprüft wird. Worum es aber eigentlich ging, war die Verwandlung des menschlichen Körpers, der den Maschinen angepasst werden musste. Diese Verwandlung zielte darauf, die in den Schmieden auf den Äckern grob gebildeten Muskeln feinmotorisch an die kostbaren Maschinen anzupassen, die Finger sensibler zu machen, die Bewegungsabläufe zu synchronisieren.

Also unterteilte Taylor die menschliche Arbeit in immer kleinere, monotone Einheiten, bestrebt, jede Sekunde selbst des privaten Lebens mit der größtmöglichen Effizienz zu nutzen.

»In der Vergangenheit«, so hatte Taylor einmal gesagt, »kam der Mensch zuerst. In der Zukunft muss das System zuerst kommen.«37

Auch das Hirn ist ein Muskel, wenngleich ein besonderer. Die Kopfschmerzen, die wir empfinden, die Blackouts, unter denen wir leiden, die Nervosität, die uns umgibt, sind Ergebnisse eines epochalen Selbstversuchs, das menschliche Hirn an die Maschinen anzupassen.

Der Angriffspunkt im Zeitalter des heutigen, digitalen Taylorismus ist unser Gehirn.