Was verleiht den Politikern Macht? Zum einen ist es die demokratische Delegation von Vertrauen. Mit dem Kreuz auf dem Wahlzettel wird die Aussage getroffen: »Ich, Wahlberechtigte/r, vertraue dir, der du kandidierst, bzw. ich vertraue deiner Partei, dass du das machst, was ich für gesellschaftlich richtig halte.« Dieses Vertrauen ist nicht grenzenlos, es basiert auf der Annahme, dass Politiker tun, was sie ankündigen, und nach »bestem Wissen und Gewissen« handeln. Natürlich wussten die meisten Wählerinnen und Wählern immer schon, dass Politiker nicht allwissend und auch nicht allmächtig sind. Aber heutzutage stehen ihnen andere Kontrollmöglichkeiten zur Verfügung als früher. Falsche Entscheidungen, mangelnde Kenntnisse kommen sofort auf den öffentlichen digitalen Prüfstand. Nichts wird vergessen oder verschwindet in den Archiven. Gestern getroffene Aussagen können heute ganz rasch wieder hervorgekramt werden. Auch die Politik ist im digitalen Wandel begriffen. Bevor wir uns mit den Folgen befassen, müssen wir uns allerdings erst einmal fragen, was wir als Gesellschaft eigentlich wissen können.
Wer in prähistorischen Zeiten wusste, in welcher Höhle ein Bär wohnt und in welcher man vor Unwettern geschützt ist, der hatte einen Überlebensvorteil, vergleichbar dem körperlicher Überlegenheit. »Was man nicht im Kopf hat, muss man in den Beinen haben«, ist eine Redewendung, die das heute noch sehr bildhaft veranschaulicht. In historischen Zeiten antworteten kluge Pennäler auf den Spruch »Wissen ist Macht« gern mit »Weiß nix, Macht nix«. Es gab Herrschaftswissen, königliches Wissen, Geheimräte, es gab eine Beziehung zwischen Macht und Wissen. Wer mehr wusste als andere, besaß ein besonderes Gut: Er konnte mit diesem Wissen etwas für oder gegen die anderen tun und war dadurch gegenüber seinen Mitmenschen automatisch höher gestellt. Wissen erzeugte Respekt vor der damit verbundenen Macht und führte zu Hierarchien. Gilt das auch heute noch, wo uns doch alles Wissen der Welt zu Füßen beziehungsweise an der Tastatur zu Händen zu liegen scheint?
Bis heute sind Wissen und Bildung eng miteinander verbunden. Wer Wissen erwirbt und gebildet ist, kann weiterkommen. Dazu muss man seinen Wissensstand mit formalisierten Bildungsabschlüssen belegen. Durch diesen Nachweis kann der eigene Status auch mit dem anderer Menschen mit gleichen Bildungsabschlüssen verglichen werden. Es gibt gewisse Grundfertigkeiten, die man zum Wissenserwerb und zur Nutzung dieses Wissens benötigt, Lesen, Schreiben, Rechnen. Menschen haben diese Techniken schon immer unterschiedlich gut beherrscht. Die einen können Texte schnell lesen und erfassen, andere tun sich damit schwer. Einige können abstrakte mathematische Probleme lösen, andere scheitern bereits am Einmaleins.
Aber abgesehen von solchen individuellen Unterschieden zeigt sich bereits am Beispiel von zwei dieser Grundfertigkeiten, wie sich die Welt inzwischen verändert hat. Eine gute Handschrift war früher ein wichtiges Merkmal von Bildung. Heute spielt sie kaum noch eine Rolle, denn es wird kaum noch mit der Hand geschrieben. Auch Kopfrechnen galt früher als relevante Kulturtechnik. Deshalb wurde das Einmaleins gepaukt. Doch im Zeitalter der Taschenrechner, ob als eigenes Gerät, oder am Computer und auf dem Smartphone, spielt das keine große Rolle mehr. Solche Fertigkeiten werden im Alltag kaum noch benötigt. Ganz zu schweigen vom Auswendiglernen von Gedichten oder geschichtlichen Daten. Nicht das Wissen als solches, sondern die Art der Wissenserschließung und die Kompetenz im Umgang mit Wissen sind in das Zentrum der Bildung gerückt. Dem Lesen, Schreiben, Rechnen, dem Kanon der Grundfertigkeiten, ist heute eine vierte Kompetenz zugewachsen: das Methodenwissen, manchmal auch spöttisch Kompetenzkompetenz genannt. Wenn man weiß, wie man sich Wissen erschließen kann, muss man es nicht im Kopf haben.
In manchen »Wissensberufen« – also zum Beispiel im Journalismus – war es schon früher so, dass es nicht darauf ankam, etwas zu wissen, sondern die Telefonnummer der Menschen parat zu haben, die einem schnell und kompakt erklären konnten, worum es ging, d. h. die richtigen Fachleute zu kennen. Ohne Grund- und Fachwissen wird unsere arbeitsteilig organisierte Gesellschaft auch in Zukunft nicht auskommen, so viel steht fest. Aber die Bedeutung des Wissens verändert sich: Neben die Kernkompetenzen und das Kernwissen tritt der richtige Umgang mit dem verfügbaren Wissen. Hier kommt die Rolle der Digitalisierung als Veränderungsfaktor in den Blick.
Wenn es darum geht, welches Wissen und welche Fertigkeiten für die Gesellschaft der Zukunft notwendig sind, dann haben die klassischen Pädagogen keine Auskunft parat. Ihre eigenen Wissenswelten sind nicht auf das ausgerichtet, was heute Realität ist. Kaum ein jüngerer Mensch wird noch im Rahmen einer klassischen, westdeutschen Erwerbsbiografie mit der Abfolge Schule, Ausbildung/Studium, Arbeit, Rente durch das Leben gehen. Der einmal erlernte Beruf ändert sich unter den Händen der Arbeitenden. Wer in den 1970ern Informatik studiert oder am Band bei VW ausgebildet wurde, der findet sich heute in einer völlig umgestalteten Arbeits-Umwelt wieder, ebenso der Paketbote, der Biologe und der Romanautor. Mal ist es die Digitalisierung der Arbeitsmittel wie der programmierbaren CNC-Fräsen, mal der Einzug der Robotik in die Autoindustrie, dann die Vernetzung der wissenschaftlichen Gemeinschaft über den ganzen Globus hinweg oder auch der Einzug der Navigationsgeräte in die Taxen. In den 1990ern konnte ein Taxifahrer noch bei »Wetten, dass …?« antreten, weil er sämtliche Stadtpläne auswendig kannte. Dass er sie so gut intus hatte, war seine persönliche Spezialität. Aber im Grund musste jeder Taxifahrer das für ihn relevante Straßensystem mehr oder weniger im Kopf haben. Im Zeitalter der Navigationssysteme ist das überhaupt nicht mehr wichtig.
Solche Entwicklungen finden an vielen Stellen gleichzeitig statt, aber bisher fehlen noch Antworten auf die Frage: Wie wollen wir als Gesellschaft damit umgehen, dass einmal gelerntes Wissen uns nicht mehr durch das Leben bringt? Unsere gesamten institutionellen Lehr- und Lernstrukturen sind auf die alte Welt ausgerichtet. Jenseits schöner Sonntagsreden vom »lebenslangen Lernen« und der Idee, dass man jedem Kind einen Computer zur Verfügung stellen müsste, ist der Politik bislang wenig eingefallen. Das ist Ausdruck der Hilf- und Konzeptlosigkeit, mit der die Politik auf die digitalen Herausforderungen reagiert. Dort, wo sie tatsächlich unmittelbar etwas tun könnte, um Menschen eine Zukunft in der digitalen Welt zu ermöglichen, versagt sie.
Wir haben bereits zu Beginn des Buches darauf hingewiesen: Noch sind Computernutzung und Internetzugang keineswegs für alle Teile der Gesellschaft so selbstverständlich, wie dies angesichts von Facebook, Handy-Dichte und dem Getöse der digitalen Welt insgesamt erscheint. Es gibt ältere Menschen, die sich mit der Adaption dieser neuen Techniken in ihre Alltagswelt schwertun, und es gibt sozial Benachteiligte. Eine große Gruppe der deutschen Bevölkerung besteht aus Empfängern von Sozialtransferleistungen, im Volksmund Arbeitslose genannt. Wer seine Arbeit auf Dauer verloren hat oder nach dem Ende der Ausbildung keine Arbeit findet, rutscht in »Hartz IV«: Man erhält etwas Geld und Sachleistungen, um damit über die Runden zu kommen. Es ist nicht viel, aber es soll für das Lebensnotwendige reichen. Darüber, was das Lebensnotwendige ist, lässt sich streiten.
2,28 Euro monatlich, diese Summe war im Jahr 2011 für Empfänger von Hartz IV-Leistungen für die Internetnutzung vorgesehen. Die zugrunde liegende Berechnung ist simpel: So viel kostet es, wenn man in einem Internetcafé Bewerbungen schreibt und diese dann über das Netz verschickt. Das klingt irgendwie plausibel. Aber bei näherem Hinsehen wird man stutzig: Wenn »Hartz IV«, unter dem SPD-Kanzler Gerhard Schröder als »Fordern und Fördern«-Konzept propagiert, doch auch zum Ziel hat, dass die Beschäftigungslosen an den Arbeitsmarkt wieder herangeführt und für die Aufnahme einer beruflichen Tätigkeit fit gemacht werden sollen, wie kann es dann sein, dass man ihnen ausschließlich die Kosten für den Onlinebewerbungsprozess zugesteht? Ist nicht die Nutzung eines Computers und seiner Software und die Nutzung des Internets für viele Berufe inzwischen unabdingbare Voraussetzung? Und wie sieht es aus mit dem Nachwuchs in Hartz-IV-Familien? Wie soll dieser ohne Internetzugang und ohne Möglichkeit der Computernutzung auch jenseits der Schule den Anforderungen einer sich ändernden Lernwelt gerecht werden?
Hier werden die Arbeitslosen von morgen produziert, hier werden Kinder und Jugendliche strukturell benachteiligt. Natürlich wird nicht jedes Kind aus einem Hartz-IV-Haushalt mit seinem Computer ein zweites Google oder Facebook gründen. Aber ohne Computer und Netz sind diese Kinder gegenüber ihren wohlhabenderen Altersgenossen so benachteiligt, werden so weit von den Anforderungen des Arbeitsmarktes ferngehalten, dass die heutige Politikergeneration sich dafür regelrecht schämen muss, diesen Mangel weder rechtzeitig erkannt noch beseitigt zu haben. Dabei wäre gerade die Vernetzung eine große Chance: Im Internet sieht man nicht, wer Hartz-IV-Empfänger ist. Der soziale Status ist hier nachrangig, es macht als egalitäres Medium keinen Unterschied zwischen Jacqueline aus Marzahn und Prof. Dr. Meier aus Schwabing. Wenn in Sonntagsreden davon gesprochen wird, dass »Hartz-IV-Karrieren« vermieden werden sollen, dann muss zumindest auch die Grundvoraussetzung dafür geschaffen werden, dass Kinder und Jugendliche sich neue Umfelder suchen können – unabhängig von den häuslichen Gegebenheiten. Ein im Hartz-IV-Satz enthaltener Internetzugang ist sicherlich nicht die ultimative Lösung des Problems, aber doch ein notwendiger Baustein.
Das Internet ist als Netzwerkverbund an Universitäten entstanden und hat noch immer ein elitäres Image. Das zu ändern ist nicht nur Aufgabe der Politik. Auch die Nutzer vergessen oft, dass die Digitalisierung aufgrund solcher Versäumnisse zur Spaltung der Gesellschaft eher beiträgt, als sie aufzuheben. Politiker und andere Theoretiker der Welt sprechen gerne von den großen ungenutzten Potenzialen des Netzes, statt solche Probleme mit Nachdruck anzugehen.
Auf der anderen Seite des Bevölkerungsspektrums finden ebenfalls nachhaltige Veränderungen statt, wenn auch mit ungleich positiverer Wirkung. Sie werden für die Zukunft ähnlich wichtig sein.
Als die Freie Universität Berlin anfing, ihre Räume mit drahtlosen Internetzugängen auszustatten, war ein neues Phänomen zu beobachten, am Anfang vereinzelt, dann generell. Weiterhin spricht vorne ein Dozent oder Referent. Aber im Hörsaal haben alle Studenten ihren Laptop offen, der inzwischen fast zur Grundausstattung gehört. Was der Dozent sagt, kann so jederzeit gegengeprüft werden. Stimmen die Daten? Ist das Zitat echt, das gerade an die Wand geworfen wurde? Ist der Dozent auf dem aktuellen Stand der Forschung? Oder gibt er nur die Debatte von vor zehn Jahren wieder? Redet er womöglich Unfug? Früher hätte man dafür in Bibliotheken gehen, sich Bücher bestellen und Fachzeitschriften durchblättern müssen. Heute ist eine zumindest oberflächliche Gegenprüfung binnen weniger Sekunden möglich.
Fußnoten sind in der Wissenschaft seit Jahrhunderten das offizielle System für Quellenangaben und andere Referenzen1. Damit soll die Nachprüfbarkeit und auch die Qualität und Vollständigkeit des Fachwissens des Autors belegt werden. Auf Papier gibt es keine andere Möglichkeit, einen direkten Verweis zu platzieren. Man kann keine Links setzen. In der elektronischen Welt ist das anders. Was früher kaum praktisch nachvollzogen werden konnte, erschließt sich heute mit wenigen Klicks. Und das kann durchaus die Grundfesten unseres Bildungssystems erschüttern.
Stellen wir uns vor, wir würden an einer kleinen Hochschule studieren. Die Dozenten das Fachs sind womöglich nicht die besten, die Kommilitonen nicht die Engagiertesten, die Bibliothek ist eher dürftig ausgestattet. Das ist ja häufiger so. Damit musste man sich früher abfinden. Aber wie wäre es, wenn man gar nicht mehr auf die Bibliothek und die Dozenten vor Ort angewiesen wäre? Wenn einem das Niveau der Diskussionen und Vorlesungen egal sein kann?
Es gibt bereits heute eine Vielzahl von Fächern, zu denen im Internet eine unendlich wirkende Materialfülle vorhanden ist, teilweise komplette Vorlesungen oder Mitschriften, Präsentationen von Professoren, Fachartikel und Vorträge. Diese sind oft für die Allgemeinheit frei verfügbar. Apple zum Beispiel hat in seinem iTunes-Onlinestore eine Vielzahl an Podcasts veröffentlicht, also meist Audiostücke, die Universitätsvorlesungen beinhalten. Ob es sich um eine Einführung in die Astrophysik von der berühmten Universität Oxford, einen Kurs der kalifornischen Universität Berkeley zum römischen Imperium oder eine Einführung in die praktische Philosophie handelt, wie sie an der Leibniz Universität Hannover angeboten wird: All das ist online und verfügbar. Das Massachusetts Institute of Technology, das MIT, ist die wohl berühmteste Technische Hochschule der Welt. Sie stellt mit MIT-OpenCourseWare 2000 für jedermann frei zugänglich Kurse ins Netz: Offene Lernressourcen, Open Educational Resources (OER), heißt das Schlagwort hierfür – der freie Zugang zu Wissen, das speziell für Lernzwecke aufbereitet ist und aus dem »Normalbetrieb« stammt. Mit hoher Wahrscheinlichkeit sind derartige Angebote nicht von schlechterer Qualität als die entsprechenden Vorlesungen der Dozenten vor Ort.
Ist es angesichts solcher strukturellen Veränderungen nicht an der Zeit, sich von dem Gedanken zu lösen, dass die körperliche Anwesenheit in Schulen, Seminaren und Vorlesungen darüber mitentscheiden soll, ob jemand für qualifiziert befunden wird? Ist es nicht viel mehr so, dass es heutzutage in erster Linie um den Nachweis einer Fähigkeit, eines Könnens geht, die in Form von Hausarbeiten, Laborpraktika, Klausuren und Prüfungsgesprächen abgefragt werden? Wo ist der Mehrwert der Idee, dass Schüler in der Oberstufe jahrelang jeden Tag in der Schule sitzen müssen, unabhängig davon, ob sie den Stoff bereits beherrschen oder nicht?
Natürlich gibt es Aspekte des Schulbesuchs und des gemeinsamen Lernens und Studierens, die für andere Qualifikationen als das reine Fachwissen relevant sind – beispielsweise für das soziale Miteinander und für den menschlichen Austausch, ebenso wie das Studentenleben darum herum. Auch für die wissenschaftliche Ausbildung sind der Diskurs und die unmittelbare Prüfung der eigenen Argumente im Gespräch sicherlich wertvoll. Aber zum Ende der Schullaufbahn und insbesondere im Studium oder in anderen darauf folgenden Bildungsabschnitten geht es ja nicht vorrangig um ganzheitliche pädagogisch-didaktische Konzepte, sondern um schlichten Kompetenz- und Wissenserwerb, der durch verschiedene Nachweismethoden als mehr oder minder erfolgreich bescheinigt wird. Die räumliche und zeitliche Entkoppelung anstelle von mechanisch getakteten Präsenzveranstaltungen wäre da nur konsequent.
Denkt man dies weiter, kommt man zu einem grundlegenden Umbau des Bildungssystems. Unser heutiges Bildungssystem sorgt zum Beispiel dafür, dass Menschen, die in Geschichte, Sport und Deutsch schlecht sind, aber dafür exzellent in Physik, dieses Fach trotzdem nie werden studieren können, da sie die sogenannte Hochschulzugangsberechtigung, das Abitur, nicht erwerben können. In der digitalen Gesellschaft müsste der Nachweis von Qualifikation, von angeeignetem Wissen und der Fähigkeit, es anzuwenden und zu diskutieren, im Mittelpunkt stehen, unabhängig von formalem Bildungsgrad und vom Ort des Wissenserwerbs. Vielleicht ist ein Klempner durchaus in der Lage, den Anforderungen, die an einen Geschichtsstudenten gestellt werden, gerecht zu werden? Um dies festzustellen, müsste er sich prüfen lassen können, so wie der Student. Und das könnte er unter solchen Umständen jederzeit, nebenbei, dann, wenn es ihm beliebt. Dass dieses Modell grundsätzlich funktionieren kann, zeigen Fernuniversitäten, die auf den Vor-Ort-Betrieb seit Jahren verzichten.
Berufsbildende Schulen und Hochschulen sind heute nicht mehr notwendig für den Wissenserwerb, sondern sollten sich in erster Linie als Angebote zum Diskurs verstehen. Ihre große Stärke ist nicht die Vermittlung von als gesichert geltendem Wissen – was auch immer dies sein mag – als solchem, sondern die Möglichkeit direkter Rückfragen an Experten, bei denen die Überprüfung von Argumenten und Kenntnissen in Rede und Widerrede unmittelbar erfolgen kann, auch wenn sie dadurch eingeschränkt sind, dass hierfür nur die vor Ort verfügbaren Menschen und Ressourcen zur Verfügung stehen. Wenn man den Fachdiskurs über diesen Radius hinaus erweitern will, kann man das dann über das räumlich und zeitlich entkoppelte Internet tun.
Aber dazu muss man ja auch erst mal in der Lage sein bzw. durch die Aneignung nicht nur von Wissen, sondern auch von Grundlagen und von Methoden in die Lage versetzt werden. Man muss lernen, wie man sich den Zugang zu Wissen erschließt, wie man es aufbereitet und sich aneignet. Dafür können Schulen und Hochschulen eine wichtige Hilfestellung bieten. Dafür wäre allerdings auch ein grundlegendes Umdenken vonnöten. Schulen und Hochschulen müssten sich als Vermittler von Generalkompetenzen verstehen und nicht mehr nur als einziger Ort, an dem Lernen möglich ist, und als einziger Ort, an dem Qualifikationsnachweise erworben werden können, wie fragwürdig die Bedingungen auch immer sind. Die Lehrpläne dürften nicht mehrheitlich spezialisierte Teilaspekte des Fachs widerspiegeln. Für die gewissermaßen reine Lehre, die pure Wissensvermittlung, früher elementarer Bestandteil des Betriebs und damit Existenzberechtigung einer Universität, gibt es jedenfalls inzwischen andere Quellen.
Die Fülle von Informationen und Expertenwissen, die über das Internet erschlossen werden kann, ist uferlos. Mit dieser Fülle verfügbarer Information stellt sich aber auch die Frage, was wir eigentlich wirklich wissen. Haben Sie schon einmal von Nupedia (»Newpedia«) gehört? Nein? Nun, das ist wenig verwunderlich. Denn Nupedia war ein Fehlschlag. Im Jahr 1999 schlug ein damals ziemlich unbekannter Mann namens Jimmy Wales dem Philosophen Lawrence Sanger vor, dass man eine frei zugängliche Expertenenzyklopädie im World Wide Web starten sollte. Wales stellte Sanger dafür an, dieses Projekt zu verwirklichen. Nupedia war als komplexes System konzipiert, in dem Menschen auf der ganzen Welt ihr individuelles Wissen teilen und so zusammen mit allen anderen Menschen auf der Welt mit einem Internetzugang davon profitieren sollten.
Larry Sanger konnte sich, wie er später schrieb, nicht vorstellen, dass eine vertrauenswürdige Enzyklopädie ohne eine Überprüfung durch »echte« Experten funktionieren könnte. Doch der komplexe Prozess mit sieben Prüfstufen, dem sich Nupedia selbst unterworfen hatte, wirkte nicht wie eine Einladung zum Mitmachen, sondern abschreckend. Ganze 12 Einträge durchliefen diesen Prozess im Jahr 2000. Wesentlich weniger, als es sich Wales und Sanger erhofft hatten. Also entschieden sie sich dafür, dem Nupedia-Projekt eine kleine Plattform zur Seite zu stellen, deren Software einfach zu bedienen war und weitgehend von Hürden befreit daherkam: Wikipedia.com. Mit drei Klicks konnte jeder Internetnutzer auf der Seite Einträge erstellen, ändern und bald auch auf einer separaten Unterseite zum Eintrag diskutieren.
Seitdem haben Menschen fast vier Millionen Artikel in der englischsprachigen Wikipedia angelegt, fast eine halbe Milliarde Mal wurden Seiten nach dem Start 2001 verändert. In der kanadischen Kinder-Fernsehserie ›Fraggle Rock‹, die auch in Deutschland gesendet wurde (Die Fraggles), gibt es eine »Allwissende Müllhalde« namens Marjorie. In Reminiszenz daran werden die Wikipedia oder auch das ganze Internet oft so genannt. Es ist wirklich erstaunlich, zu was es alles inzwischen Wikipedia-Einträge gibt. Obwohl das zum Mitarbeiten nicht notwendig ist, haben sich an die 15 Millionen Nutzer bei der Wikipedia registriert, um zusätzliche Eigenschaften nutzen zu können. Wikipedia erstaunte die Macher, die Nutzer und die Medien: Menschen fingen an, Wissen zusammenzutragen. Auch hierfür braucht es Regeln. Eine der wichtigsten ist auch bereits ein Erbe der Nupedia: der neutrale Standpunkt. Artikel sollen so neutral wie möglich formuliert sein, ohne Meinung und Wertung auskommen.
Weder Jimmy Wales noch Larry Sanger konnten damals ahnen, dass die Wikipedia irgendwann einmal das Standardnachschlagewerk für oberflächliche Recherchen sein würde. Und was sie noch weniger ahnen konnten: Tatsächlich wird die Wikipedia heute in vielen Fällen als Live-Lexikon benutzt. Im Krieg zwischen Israel und Libanon im Jahr 2006 wurden von den Nutzern alle relevanten Ereignisse, Daten, Geschehnisse fast live mitprotokolliert, sobald eine externe Quelle dafür verfügbar war. Selbstredend prallten dabei die unterschiedlichen Sichtweisen aus Israel, Libanon und von Dritten auch in der Wikipedia kaum gebremst aufeinander. Dennoch ist es in vielen Fällen besser, sich den Artikel und seine letzten Veränderungen anzuschauen, als die deutschen Tageszeitungen zum Thema zu konsultieren. Kaum eine von ihnen hat mehr geleistet als die internationalen Onlinenachrichten zu bringen.
Die große Stärke der Wikipedia und ihrer Artverwandten ist nicht die Auflistung von »Wissen«, sondern, dass dieses Wissen diskutiert werden kann. Wer sich mit dem Entstehen von Wissen beschäftigt hat, kennt das Problem nur zu gut: Was heute als gesichert gilt, ist morgen überholt – und wird an anderer Stelle als falsch, als unwahr oder unvollständig angesehen. Eines der besten Beispiele ist die Geschichtsschreibung. Sie soll festhalten, wie es »eigentlich gewesen ist« mit Ereignissen, Personen und Schauplätzen. Aber die Geschichte der Geschichtsschreibung zeigt, dass es sehr unterschiedliche Ansichten darüber geben kann, was eigentlich gewesen ist. Das beginnt schon bei Kleinigkeiten. Für die meisten Deutschen ist klar, dass die Entdeckerin der Radioaktivität und Chemie-Nobelpreisträgerin des Jahres 1911 Marie Curie heißt. Gibt man den Namen in der polnischen Wikipedia ein, stößt man auf: Maria Skłodowska-Curie. Die Forscherin ist in Polen geboren, und ihre Rezeptionsgeschichte ist in unserer östlichen Nachbarrepublik eine andere als bei uns. Wer hat eigentlich das Telefon erfunden? In den USA lernen die Kinder: Alexander Graham Bell. In Deutschland lernten sie: Johann Philipp Reis. In Ungarn: Tivadar Puskás. In Italien stritt man sich darüber, ob man diese Erfindung eher Antonio Meucci oder Innocenzi Manzetti zuschreiben soll. Das klassische Telefon ist zwar inzwischen funktional am Ende seiner Laufbahn angekommen, doch das Grundproblem für historisches »Wissen« bleibt. Wie heißt es in einem alten Witz: »Die größte historische Leistung der Österreicher? Aus Beethoven einen Österreicher und aus Hitler einen Deutschen gemacht zu haben.« Wie Geschichte interpretiert wird, welche Nationen wen für sich vereinnahmen dürfen oder sollten, welche Leistung wann von wem wie erbracht wurden, kann sehr unterschiedlich eingeschätzt werden, je nach Standort.
Und nie war es leichter als heute, sich einen Überblick über diese Unterschiede zu verschaffen, mit Hilfe des Internets. Im Internet prallen die verschiedenen nationalen Sichtweisen unmittelbar aufeinander und kollidieren. Und wenn es gut läuft, entsteht dabei am Ende dann eine alle Seiten, Argumente und Fakten berücksichtigende Zusammenstellung dessen, was wir mit einiger Sicherheit wissen können. Dann werden sich vielleicht auch deutsche, englische und polnische Wikipedia-Autoren darüber einigen, dass die Leistungen eines Nikołaj Kopernik, Nikolaus Kopernikus, Niklas Koppernigk und Nicolaus Copernicus, seine astronomischen Erforschungen, nicht als Heiligenbild auf dem einen oder anderen Nationalaltar, sondern als solche gewürdigt werden.
Wer ein Interesse daran hat, so etwas wie »Wahrheit« zu finden, muss sich freuen, dass die neue Vielfalt zum Hinterfragen anregt. Kritikfähigkeit in allen Bedeutungen wird eine der Kernkompetenzen sein, mit der wir in der digitalen Gesellschaft ausgestattet sein müssen. Wir müssen in der Lage sein, kritisch zu hinterfragen, was uns als wahr verkauft wird, wir müssen aber genauso in der Lage sein, kritisches Hinterfragen auszuhalten. Denn Wissen ist im Internetzeitalter das, was übrigbleibt, wenn die verschiedenen »Wahrheiten« im Diskurs aufeinander treffen und so auf ihre Stichhaltigkeit überprüft werden, dass man neu nachdenken muss.
Was heute einem Universitätsdozenten passieren kann, dass nämlich sein Vortrag zeitgleich überprüft und mit dem statifizierten, dem verschriftlichten und hinterlegten Wissen im Internet verglichen wird, das gilt potenziell für die ganze Welt der Information. Was in der Zeitung steht, was im Radio gesagt wird, was Lehrer ihren Schülern und Eltern ihren Kindern sagen, all das lässt sich nun einfacher hinterfragen, widerlegen, unterlegen.
Suchmaschinen, die in Wahrheit schon längst eher Findemaschinen sind, grasen das World Wide Web ständig nach Neuigkeiten und Informationen ab. Damit diese Inhalte aufgefunden werden können, müssen sie in eine maschinenlesbare und damit indexierbare, also in eine für den technischen Suchalgorithmus verständliche Form gebracht werden. Aber das ist nur der erste Schritt. Solange eine Information nicht verlinkt, also nicht mit dem Rest der Welt verbunden ist, solange ist sie außer für ihren individuellen Schöpfer, Besitzer und Betrachter in diesem digitalen Universum allerdings weitgehend wertlos. Wenn aber das zur Verfügung stehende Wissen in Kontexte eingeordnet und mit anderem Wissen verknüpft wird, dann hat man mit dem Internet und den darüber zur Verfügung stehenden Möglichkeiten etwas hinzugewonnen, was es vorher so nicht gab.
Heute verwenden wir Google synonym für die Suche von Informationen im Internet. Wir googeln mal schnell was. Was hat diesen Anbieter so erfolgreich gemacht? Am Anfang stand eine Art Telefonbuch, ein »Internetverzeichnis«. Jeder, der einmal etwas gesucht hat, kennt das Problem. Wo soll man eigentlich mit der Suche anfangen? Bevor Suchmaschinen das wurden, was sie heute sind, gab es so etwas wie Kataloge für Internetseiten, in denen sich die Betreiber einer Seite selbst eintragen konnten oder bei denen Redakteure Seiten eintrugen. Dies waren die Startpunkte, von denen Unternehmen wie Yahoo oder Google losliefen, um das Internet zu durchforsten. Inzwischen sind sie für die Arbeit der Suchmaschinen weitgehend irrelevant geworden. Einer der bekanntesten Dienste dieser Art in Deutschland war früher die Seite web.de – die heute viele Deutsche als E-Mail-Dienst nutzen.
Die Suchmaschine verwendet ein kleines Programm, einen sogenannten Spider (zu Deutsch: Spinne). Diese krabbelt die Verknüpfungen im Netz entlang von einer zur nächsten Seite, analysiert diese und speichert relevante Informationen über sie beim Suchmaschinenbetreiber ab: Was ist eine Überschrift und damit potenziell relevanter als der Inhaltstext, was wird häufig aktualisiert, was ist wo verlinkt und damit möglicherweise wichtiger als anderes?
Die Ergebnisse werden in großen Datenbanken gespeichert, die in gewisser Weise ein Spiegel des Netzes sind. Anhand dieser Datenbanken werden dann Resultate ausgeliefert, die sich je nach Nutzer unterscheiden können: Die Sprache des Nutzers wird anhand seiner Einstellungen im Web-Browser – also Internet Explorer, Firefox, Safari, Chrome oder anderen – als Kriterium herangezogen, dann wird anhand der benutzten IP-Adresse geschätzt, wo in etwa ein Mensch sitzt, und bei personalisierter Suche werden auch vorangegangene Suchen herangezogen, um Relevanzkriterien anzuwenden. Zudem speichern manche Suchmaschinen, welche Links häufiger als andere geklickt werden und merken sich dies für die Zukunft: Hier »lernt« ein Algorithmus, also eine programmierte Logik, vom menschlichen Verhalten.
Aber längst nicht alles landet im Index der Suchmaschinen. Große Teile des Internets sind nicht direkt für die kleinen Roboter-Spinnen, die Such-Bots, zu erschließen: Datenbanken, die hinter Eingabefeldern liegen, geschlossene Bereiche, die hinter Login-Masken liegen wie zum Beispiel Bezahlinhalte von Verlagen oder nur nach Passworteingabe zugängliche Seiten. Und der Betreiber einer Seite kann den Bots Anweisungen geben, welche Dinge zu durchsuchen sind und welche nicht.
»If it’s not on Google, it doesn’t exist«, heißt ein beliebtes Netzsprichwort – »Wenn es nicht bei Google ist, existiert es auch nicht.« Gemeint ist damit: Was nicht im Index der Suchmaschine ist, versuchen wir heute oft gar nicht mehr zu finden. Wir verlassen uns auf die bemerkenswerte Leistungsfähigkeit der Suchmaschine und blenden alternative Wege der Informationsbeschaffung aus.
Das ist nicht immer klug, denn auch so bedeutende Suchmaschinen indexieren eben längst nicht alles. Und sie suchen keineswegs ohne Einschränkungen. So blenden Suchmaschinen zum Beispiel anhand von technischen Kriterien wie »Fleischfarbenfiltern« standardmäßig Suchergebnisse aus der Bildersuche aus, die Erotik oder Pornografie beinhalten könnten. Das könnte manch einer noch gut finden. Kritischer wird es, wenn es sich um politische Eingriffe handelt: Im Internet sind erst einmal alle Seiten gleich – nur nicht jene, die anders behandelt werden als andere. Staaten stellen immer wieder Anforderungen an Suchmaschinen, dass sie für die jeweiligen Nutzer manche Suchergebnisse nicht ausliefern sollen. Auch bundesrepublikanische Behörden und Gerichte sehen Suchmaschinenbetreiber in der Pflicht, bestimmte Inhalte auszublenden. Meist handelt es sich um radikales Gedankengut oder anderweitig illegale Inhalte. Auch hier kann man erst einmal denken: Gut, das ist richtig so. Doch wenn man einen Moment über den Mechanismus nachdenkt, der da zum Tragen kommt, fängt man an zu grübeln: Es gibt also Instanzen, die aktiv Dinge aus den Suchergebnissen entfernen lassen. Wir sehen gar nicht, was fehlt. Wir wissen es nicht und müssen uns darauf verlassen, dass dies aus gutem Grunde geschieht. Kann das wirklich gut sein?
Man muss nicht zum Beispiel China greifen, hinter dessen »Great Firewall« (nur unzureichend als »Große Brandschutzmauer« zu übersetzen) nicht nur viele Inhalte nicht verfügbar sind und aktiv die Erreichbarkeit von Seiten und Inhalten verhindert wird. Es wird darüber hinaus auch aktiv in die Suchergebnisse eingegriffen. Wer mit sina.com, einer populären chinesischen Suchmaschine, nach dem Tiananmen-Platz (»Platz des himmlischen Friedens«) sucht, auf dem 1989 die chinesische Führung protestierende Bürger von Panzern niederwalzen ließ, bekommt signifikant andere Ergebnisse als zum Beispiel mit google.com: keine Panzer, keine Hinweise auf das Massaker. Der Eingriff in die Suchergebnisse nach politischen Kriterien ist schlicht Zensur.
Zensur ist der aktive Eingriff in die Verfügbarkeit von Information. Dass es nicht ungefährlich ist, Wissen weiterzugeben, wenn es den Interessen Mächtigerer zuwiderläuft, das ist eine Binsenweisheit und betrifft nicht nur Staaten wie China. Wer die Weitergabe von Wissen im weitesten Sinne unterdrückt, der fordert allerdings auch die Kreativität heraus. Und noch nie waren die Möglichkeiten zur Wissensweitergabe so gut wie mit den heute verfügbaren digitalen Techniken. Sie unterstützen Phänomene wie die sogenannten Whistleblower, also diejenigen, die aus lauteren Motiven heraus Informationen zum Beispiel über ihren Arbeitgeber an die Öffentlichkeit bringen. Es gibt natürlich eine Vielzahl von Arbeitgebern, bei denen etwas schiefläuft, und längst nicht in jedem Fall gibt es daran ein öffentliches Interesse.
Aber manchmal ist das anders, insbesondere dann, wenn es um ein Umfeld geht, von dem viele direkt oder indirekt betroffen sind. Der Fall der Berliner Altenpflegerin, die bis vor den Europäischen Gerichtshof für Menschenrechte ziehen musste, bis klar war, dass sie vorhandene Missstände bei der Pflege älterer Menschen in dem Pflegeheim, in dem sie arbeitete, auch bei der Staatsanwaltschaft anzeigen und somit an die Öffentlichkeit bringen durfte, hat noch nicht viel mit der digitalen Welt zu tun. Man hatte ihr dafür gekündigt. Aber das Beispiel zeigt eindrucksvoll, dass die Bundesrepublik auf diese Möglichkeit – nämlich nach sorgfältiger Prüfung Missstände in einer Firma oder Organisation, vielleicht auch Behörde, aufzeigen zu können und darin etwas Positives für die gesamte Gesellschaft zu sehen – kein bisschen vorbereitet war. Das deutsche Recht ließ die Pflegerin einfach im Regen stehen. Man muss nicht lange nachdenken, um zu dem Schluss zu kommen, dass dieses Urteil Signalwirkung hat: Man kann niemandem fristlos kündigen, nur weil dieser eine unterdrückte und unerwünschte Wahrheit spricht.
Die Altenpflegerin hat in den USA – einem Land, in dem Whistleblower sehr viel mehr Aufsehen erregen – wohl einen Verwandten im Geiste. Einen Mann, der ungleich berühmter ist, obwohl er noch nie ein Interview gegeben hat. Er hat einen Wikipedia-Eintrag, er sieht überaus harmlos aus, ist bei Erscheinen dieses Buches gerade einmal 24 Jahre jung. Und doch ist er schon bei amerikanischen Nationalisten, arabischen Machthabern und Teilen der US-Regierung zu einem der meistgehassten Menschen geworden.
Der junge Mann heißt Bradley Manning, auf absehbare Zeit wohnhaft in Zellen von US-Militärgefängnissen. Im Netz ist er wohl der bekannteste Häftling der Welt, der ehemalige Obergefreite der US-Armee, ehemals stationiert in der Nähe von Bagdad. Er hatte Zugang zu SIPRnet, einem militärischen Netzwerk der US-Streitkräfte und des Außenministeriums, des State Department. Und aus diesem Netz entfleuchten Daten – angeblich als CDs, mit dem Namen der bekannten US-Popsängerin »Lady Gaga« beschriftet, aus dem Sicherheitsbereich der US-Armee. Diese Daten hatten es in sich.
Die Daten fanden ihren Weg zu WikiLeaks, der Plattform, die wie keine andere in den vergangenen Jahren radikale Transparenz herbeiführte. So umstritten er in der Öffentlichkeit aufgrund anderer Dinge ist und, das dürfen wir wohl auch sagen, da wir ihn beide getroffen haben, so unnahbar Julian Assange als Mensch wirkt, so kompromisslos und zielstrebig ging der Gründer von WikiLeaks von Beginn an mit seiner Plattform vor. Er hatte von Beginn an ein klares Ziel vor Augen: den Mächtigen dieser Welt gewaltig auf die Finger zu klopfen und publik zu machen, was schief läuft. Das ist ihm auch gelungen. Binnen kurzer Zeit wurde er von einem absoluten Nobody zu einem der bekanntesten Menschen des Planeten. Die Leser des ›Time Magazine‹ hätten ihn gerne zum Mann des Jahres 2010 gewählt.
Zunächst war WikiLeaks eine Plattform, von der kaum jemand wusste. Die Idee dahinter war einfach: Man nehme Dokumente, die normalerweise nicht öffentlich sind. Und stelle sie dann ins Internet. Anfangs war WikiLeaks vor allem in Hackerkreisen bekannt. Der Wunsch nach schnellen Erfolgen der Aktivisten rund um Julian Assange sorgte auch für die eine oder andere kleinere Ente, also Falschmeldung, auf der Plattform. Die Idee wurde zwar von vielen als gut empfunden, was aber fehlte, war ein wie auch immer gearteter, großer Erfolg. Der sollte kommen.
WikiLeaks veröffentlichte unter dem Namen »Collateral Murder« ein Video aus dem Irak. Es handelte sich um Aufnahmen aus einem US-Militärhelikopter, die zeigten, wie die Besatzung auf Menschen schoss, die sie offenbar für Aufständische hielt. Darunter waren jedoch auch zwei Mitarbeiter der Nachrichtenagentur Reuters. Doch das war erst der Auftakt zu der radikalen Transparenz, die Julian Assange im Sinn hatte. Was Julian Assange und seine damaligen Mitstreiter verband, war die Überzeugung, dass Wissen und Macht nur allzu oft missbraucht würden.
Es ist das Wesen moderner Staaten, ob demokratisch oder nicht, dass sie eine Unmenge an Dokumenten, an »Aktenlage«, schaffen. Was wichtig ist, wird als Verordnung, Anordnung, Befehl, Meldung oder Bericht von oben nach unten, von unten nach oben und quer durch die Hierarchien zuständiger Behörden, Militärs und Ministerien gereicht. In den arbeitsteilig organisierten Regierungen und Organisationen ist es heutzutage fast ausgeschlossen, relevante Dinge nicht zu verschriftlichen. Macht wird ausgeübt, indem Wissen in schriftlicher Form anteilig mit denjenigen geteilt wird, die dieses benötigen, um tätig zu werden. Das findet in den internen Kommunikationssystemen von Regierungen statt. Früher war der Informationsfluss analog geregelt. Wer wozu Zugang erhalten sollte, war an den Stempelaufdrucken zu erkennen: Verschlusssache, Nur für den Dienstgebrauch, Geheim, Streng Geheim sind zum Beispiel die deutschen Vertraulichkeitsklassen. In den USA gibt es fast eine Million Menschen, die Zugriff auf die höchste Vertraulichkeitsstufe »Top Secret« haben.
Auch der Soldat Bradley Manning hatte im Irak Zugang zu wesentlichen Informationen aus dem internen Netzwerk der US-Streitkräfte und des Pentagon. Und mutmaßlich war er es, der sich dafür entschied, die Geheimhaltungsverpflichtungen zu ignorieren. Insgesamt rund 250 000 Depeschen, sogenannte »Cables«, gelangten so zu WikiLeaks – Berichte aus US-Botschaften in aller Welt. Diese stellte WikiLeaks erst einigen Print-Magazinen zur Verfügung, um sie zu sichten, und veröffentlichte dann einen Teil davon im Internet. Diese Depeschen hatten es in sich: Sie enthielten Informationen über Anweisungen des Außenministeriums an die Mitarbeiter, Informationen über diejenigen, die den Botschaften Informationen lieferten, und nicht zuletzt die Einschätzungen der Mitarbeiter zu den Ereignissen in ihren jeweiligen Ländern. Darin steckte jede Menge politischer Sprengstoff. Und bis heute sind viele der Dokumente nicht abschließend gesichtet.
Betrachten wir ein kleines, unscheinbares Cable vom 10. Februar 2010. 10BERLIN180 heißt es, kommt aus der US-Botschaft in Berlin und ist als »Vertraulich« klassifiziert. Es trägt die Überschrift »Kanzlerin Merkel über fehlende Unterstützung der Mitglieder des Europäischen Parlaments für Terror-Finanztransaktionsüberwachungsprogramm«.
Europaparlamentarier aller Fraktionen, auch der Christdemokraten, hatten kurz zuvor einem Abkommen mit den USA die Zustimmung verweigert, das dem transatlantischen Partner weitgehende Zugriffsmöglichkeiten auf europäische Finanztransaktionen einräumte. In der Öffentlichkeit war dieses Thema etwas mehr präsent als die meisten anderen Abkommen dieser Art, denn zu dem Zeitpunkt tobte bereits die Debatte um Datenschutz in Deutschland, und nicht zuletzt auch um die Frage, ob europäische Daten in den USA ausreichend geschützt wären. Öffentlich zeigte sich die US-Regierung äußerst gelassen. Doch die Depesche belegt, wie ernst die US-Diplomaten das Thema nahmen – und auch die Bundeskanzlerin Angela Merkel. Ihr Parteifreund und damaliger Hamburger Bürgermeister Ole von Beust unterhielt sich darüber mit dem US-Botschafter. Und er plauderte aus dem Nähkästchen: Am Vorabend habe er sich mit Merkel getroffen und sie sei »sehr, sehr verärgert gewesen – mehr, als er sie jemals gesehen habe«. Sie hatte persönlich versucht, die Unionsabgeordneten im Europaparlament davon zu überzeugen, für das Abkommen zu stimmen. Die US-Botschaft zeigte sich überrascht vom Abstimmungsergebnis: »Auch wenn wir damit gerechnet haben, dass FDP und Grüne sich stark gegen die Vereinbarung aussprechen, war der weitgehende Mangel an Unterstützung durch CDU/CSU und Sozialdemokraten unerwartet.« Das Ergebnis der Abstimmung habe gezeigt, dass »wir unser Engagement bei Gesprächspartnern der Bundesregierung, bei Europaparlamentariern und Meinungsmachern intensivieren müssen.« Zudem müssten die Vereinigten Staaten zeigen, dass es bei ihnen »starke Datenschutzmaßnahmen gebe, so dass der Zugriff auf Daten mit entsprechendem Datenschutz einhergehe«. Das ist ein verhältnismäßig harmloses Beispiel, aber auch hier hatte das US State Department sicher nicht gewollt, dass diese Nachricht an die Öffentlichkeit gelangte. Derartige Gespräche finden vertraulich statt, die Informanten bleiben gleichermaßen geheim wie die Inhalte. Doch ein Leck reichte aus, um nicht nur die kleinen Details transatlantischer Verstimmungen ans Tageslicht zu bringen, sondern auch größere Verwerfungen zu erzeugen, insbesondere in anderen Regionen der Welt.
Die Staaten im Nahen und Mittleren Osten, deren Regenten von den USA als Verbündete benötigt und unterstützt werden, werden in den Cables teils stark kritisiert. Zu den brisanten Dokumenten gehört auch eine Depesche mit der Nummer 09ISLAMABAD2295: Sie enthält eine Einschätzung der US-Botschafterin in der pakistanischen Hauptstadt zur Afghanistan-Pakistan-Strategie der US-Regierung. Darin finden sich nicht nur unverblümte Aussagen zur Rolle Indiens in Afghanistan aus pakistanischer Sicht. Sondern die Botschafterin sagt auch unverblümt, dass die langjährige US-Strategie, mit Militärhilfe-Geldern die pakistanische Regierung zur Zusammenarbeit zu bewegen, nicht tragen könne: »Instabilität in Afghanistan führt per Definition dazu, dass das pakistanische Establishment seine Unterstützung für die Taliban erhöht und so, unabsichtlich, Räume für Al-Qaida schafft. Kein Geldbetrag wird diese Verbindung trennen.«
Die US-Regierung ging mit allen verfügbaren – außer militärischen – Mitteln gegen WikiLeaks vor, versuchte, die Finanzierung der Seite zu untergraben, und bewegte anscheinend auch Zahlungsdienstleister wie PayPal, MasterCard und Visa dazu, die über deren Systeme abgewickelten Spenden an WikiLeaks zurückzuhalten. Firmen, deren Rechner WikiLeaks für seine Website gemietet hatte, kündigten spontan die Verträge. Aber das alles half nichts: Zwar war die eigentliche WikiLeaks-Adresse zeitweise nicht erreichbar. Aber es gab jede Menge Seiten, die die Inhalte spiegelten – die politische Büchse der Pandora war nicht wieder zu versiegeln, die Macht der Supermacht reichte nicht aus, um die von einigen wenigen verursachten Probleme zu bekämpfen. Das Netz entzieht sich staatlicher Kontrolle, zumindest noch und in derartigen Fällen. Die Aufmerksamkeit und die Unterstützung vieler Einzelner waren es, die WikiLeaks zu einem vorläufigen Sieger in diesem ungleichen Kampf machte.
Die Betrachtung der Enthüllungen unterscheidet sich stark, je nachdem, wen man fragt. In den USA ist die Meinung weit verbreitet, dass es sich bei WikiLeaks um einen Haufen schamloser Terroristen handle. In den arabischen Staaten hingegen gelten Assange und seine Truppe eher als Helden: Was oftmals und mit gutem Grund vermutet wurde, nämlich die aktive Unterstützung diverser diktatorischer Regime durch die US-Regierung und die engen Beziehungen, die oft aus geostrategischen Erwägungen gepflegt wurden, war nie zuvor so unverhüllt ans Licht der Öffentlichkeit gelangt. Viele der Informationen waren zwar vorher schon grundsätzlich bekannt gewesen. Aber es macht einen Unterschied, ob ein Journalist in einer Schweizer oder britischen Tageszeitung darüber berichtet oder ob es die internen Dokumente der US-Diplomatie sind, die über zarte Bande und harte Interessen der Vereinigten Staaten, ihrer Verbündeten und Feinde Auskunft geben. Zugleich zeigten die Cables etwas, was in ihrer Betrachtung nur wenig gewürdigt wurde: Was für ein hartes Brot die Diplomatie ist, dass sich die US-Politik zuhause oft auch gegen die Einschätzung ihrer Experten vor Ort richtet und dass viele Verschwörungstheorien diesem tiefen Einblick in die Außenbeziehungen der Supermacht nicht standhalten.
Der Schaden für die US-Diplomaten war gewaltig: Viele ihrer Quellen wurden bekannt, teils musste Botschaftspersonal ausgetauscht werden. Und dass nun die ganze Welt wusste, wie US-Diplomaten diese sehen, vereinfachte sicherlich ebenfalls nicht die politische Konversation. In Deutschland musste Helmut Metzner, Büroleiter des damaligen FDP-Parteichefs Guido Westerwelle, der freimütig aus den laufenden Koalitionsverhandlungen der späteren schwarz-gelben Bundesregierung erzählt hatte, deshalb den Hut nehmen. Bei der Lektüre der US-Dokumente kann man an vielen Stellen nur feststellen, wie beschränkt offenbar selbst das Wissen der Auslandsvertretungen der USA über manche Länder, politische Geflechte und Interessen ist. Die Cables gaben einen Einblick sowohl in die Leistungsfähigkeit als auch in die Beschränktheit des diplomatischen Apparats. Ein nicht zu kleiner Teil der als vertraulich klassifizierten Berichte zeigte: Die Botschaftsmitarbeiter sind nicht zuletzt damit beschäftigt, in ihren Gastländern Zeitung zu lesen und sich mit Menschen über deren Einschätzung der politischen Lage zu unterhalten.
Es ist grundsätzlich nichts Neues, dass Journalisten Informationen veröffentlichen, die die Mächtigen geheim halten wollen. Ebenso bekannt ist, dass das Aufdecken allein ohne die notwendige Aufmerksamkeit dafür nicht ausreicht. Der Journalist Bernard Lazare deckte 1896 die Diskriminierung und Fehlverurteilung des jüdischen Hauptmanns der französischen Armee Alfred Dreyfus auf. Doch erst Emile Zolas berühmte Anklage des Skandals unter dem Titel ›J’accuse‹ (»Ich klage an«) konnte 1898 die Öffentlichkeit herstellen, die notwendig war, um Justiz und Politik zum Einlenken zu bewegen und die wahren Schuldigen zu bestrafen. Aber in der digitalen Welt haben sich im Gegensatz zur analogen die Chancen des Öffentlichmachens radikal verändert. Wir werden später noch einmal sehen, wie dieser ineinandergreifende Mechanismus von Aufdecken und Aufmerksamkeit funktioniert.
Über die Standards von WikiLeaks kann man geteilter Meinung sein. Julian Assange und seine Mitstreiter stellten die Transparenz staatlichen Handelns über alles – auch über das einer möglichen Privatsphäre der handelnden Personen, über Abwägungen zu Folgen für Freiheit, Gesundheit, Leib und Leben der Betroffenen. So politisch dieser Anspruch der Aufdeckung ist, so anarchisch ist die Ignoranz gegenüber möglichen Folgen dieses Handelns. Bei den Diplomaten-Cables schien dies selbst Assange klar geworden zu sein: Die ersten veröffentlichten Versionen waren redigiert, um Folgen für darin erwähnte Menschen abzumildern. Zwischenzeitlich haben sich andere Projekte gegründet, die wie WikiLeaks für die »Befreiung« von Dokumenten und Informationen kämpfen möchten. Sie unterscheiden sich allerdings vom Original oft in ebendiesem Punkt: Nicht alles, was hereinkommt, wird gleichermaßen in die Öffentlichkeit gebracht.
Die Informationsfreiheit ist seit Ende des 18. Jahrhunderts in den Verfassungen mancher Länder verankert und kann somit auf eine historische Tradition zurückblicken. Für diese radikale Form, in der WikiLeaks geheim gehaltene Dokumente in großem Stil an die Öffentlichkeit brachte, gibt es aber kein historisches Vorbild. Aus diesem Anlass kann man auch die bisherige staatliche Geheimhaltungspraxis grundsätzlich in Frage stellen. Was wäre eigentlich, wenn nicht mehr alles Mögliche als geheim eingestuft würde, wenn mehr Wissen der Mächtigen öffentlich zugänglich gemacht wird?
Es betrifft nicht nur den diplomatischen Apparat: Der Staat ist einer der größten Datensammler und -nutzer unserer Zeit. Und das nicht immer aus solch fragwürdigen Motiven wie bei der Vorratsdatenspeicherung. Es gibt eine Vielzahl an staatlichen Daten, die für die Öffentlichkeit einen hohen Nutzwert haben und nicht geheim gehalten werden müssten. Behörden und Ämter kümmern sich um Gewässerqualitäten, um Lebensmittel und Gaststätten, sie haben Daten dazu, wo welche Leitungen verlegt wurden und was wo wann wie geplant wird. OpenData heißt es, wenn diese Daten der Allgemeinheit zur Verfügung gestellt werden. Diese Art von gesteigerter Transparenz gewinnt in Deutschland allmählich an Fahrt. Auf den ersten Blick wirkt es allerdings widersprüchlich, wenn man gleichzeitig Datenschutz und OpenData fordert. Der Chaos Computer Club hat dafür jedoch schon früh die passende Formulierung gefunden: »Öffentliche Daten nützen, private Daten schützen.«
Es gibt eine Vielzahl von staatlichen Daten, die im Prinzip öffentlich zugänglich sind und sein müssen. So können zum Beispiel Handelsregister, Vereinsregister und ähnliche Register von allen Bürgern eingesehen werden. Theoretisch. Doch praktisch muss man sich dafür zu den Uhrzeiten, zu denen die zuständigen Sachbearbeiter sich in den Büros befinden und Sprechzeiten haben, in deren Räumlichkeiten einfinden, umständliche Anträge ausfüllen und für diesen Aufwand am Ende gar Entgelte entrichten. Wenn Wissen auch Reichtum bedeuten sollte, dann sitzen die Bürokratien der Bundesrepublik auf einem Schatz von Dagobert Duck’schen Dimensionen. Allerdings muss bisher jedes noch so kleine Pflänzchen an Transparenz bei öffentlichen Verwaltungen einzeln gehätschelt und getätschelt werden. Wenn eine Verwaltung wie die Berlins im Jahr 2011 ein Portal für öffentliche Daten startet, ist die Freude groß: Bewegt sich hier etwa langsam etwas in die richtige Richtung? Es gibt viele Beispiele für den hohen Nutzwert der Daten, über die öffentliche Verwaltungen verfügen, zum Beispiel in der Lebensmittelkontrolle.
Auf einer Vielzahl von Internetseiten, auch leicht über SmartPhones abrufbar, werden Restaurantempfehlungen ausgesprochen. Was sich bei diesen Restaurants hinter den Gasträumen abspielen kann, sieht man da nicht. Die Kontrolleure der Lebensmittelämter wissen es: gammelige Küchen, versiffte Personaltoiletten, abgelaufene Zutaten. Und es gibt erste zaghafte Schritte, die Ergebnisse ihrer Kontrollen im Internet zu veröffentlichen. Der Berliner Bezirk Pankow startete 2009 das sogenannte Smiley-Projekt: Die Lebensmittelkontrolleure vergaben ab sofort einen lächelnden oder einen traurigen Smiley, wenn sie einen Betrieb untersucht hatten. Bäckereien mit Rattenproblemen, Pommesbuden mit ranzigem Fett, Zutaten weit jenseits der Haltbarkeitsgrenze: Fast alles, was man sich als Kunde nicht wünscht, wurde vorgefunden. Bei akuter Gesundheitsgefährdung ist es die normale amtliche Maßnahme, dass der Betrieb geschlossen wird. Doch bevor es so weit kommt, sind andere Schritte möglich, zum Beispiel eben die Veröffentlichung von Listen der begutachteten Betriebe im Internet. Wer fortan in den beiden Berliner Ortsteilen Pankow und Prenzlauer Berg Besuch von den Lebensmittelkontrolleuren bekommen hatte, konnte sich danach mit einer detaillierten Beschreibung der Beanstandungen im Internet wiederfinden, oft auch mit Fotos der vorgefundenen Zustände. In Dänemark hatte man derartige Veröffentlichungen schon ab dem Jahr 2002 vorgenommen. 175 000 Prüfberichte aus den lebensmittelverarbeitenden und -produzierenden Betrieben Dänemarks sind seitdem online gegangen – und empfehlen oder schrecken öffentlich ab. Wenn das in Deutschland die Regel wäre, dann hätte die süddeutsche Firma Müller Brot schon bei den ersten Beanstandungen dafür sorgen müssen, dass die Missstände abgestellt werden. Verbraucher hätten nicht jahrelang Lebensmittel gekauft, die unter hygienisch fragwürdigen Umständen hergestellt wurden. Und es wäre womöglich nicht zu der Insolvenz gekommen, die einen Totalschaden für Mitarbeiter und Pächter darstellt. Noch mehr lässt sich mit offenen Daten erreichen, wenn man sie mit existenten oder noch zu entwickelnden Anwendungen wirklich nutzbar macht. Dafür gibt es mehrere Voraussetzungen.
Zunächst müssen die juristischen Grundlagen geschaffen werden. Sehr oft beeinträchtigt Transparenz andere Interessen. EU-Agrarsubventionen sind Steuergelder. Die Öffentlichkeit hat einen Anspruch darauf, über die Verwendung von Steuergeldern informiert zu werden. Als es jedoch darum ging, die Höhe und die Empfänger von EU-Agrarsubventionen öffentlich zu machen, beschwerten sich die Bauern, vor allem die bayerischen, darüber. Als Argument diente der Datenschutz: Man könne doch nicht einen wesentlichen Teil des Einkommens von Bürgern offenlegen.
Die Besoldungsgruppen von Beamten und die Vergütungen von Angestellten des öffentlichen Dienstes sind jedoch per Definition öffentlich. Sobald man weiß, in welcher Besoldungsgruppe jemand arbeitet, ist auch das Einkommen klar. Ähnlich verhält es sich mit den Empfängern von Hartz-IV-Leistungen. Warum also sollten die Einkommen der bayrischen Bauern, soweit sie aus Geldern der EU bestehen, nicht öffentlich bekannt sein? Auch an vielen anderen Stellen steht Transparenz nicht hoch im Kurs. Während in der Slowakei inzwischen alle staatlichen Verträge und Zahlungen veröffentlicht werden müssen, um der Korruption vorzubeugen, gilt in Deutschland meist, dass Geschäftsgeheimnisse der Unternehmen Vorrang vor dem Informationsinteresse der Bürger haben. Eindrucksvoll zeigte sich dies zum Beispiel an den Verträgen, die das Land Berlin mit zwei Firmen schloss, als es die Wasserbetriebe der Stadt teilprivatisierte. Erst ein gewaltiger öffentlicher Druck, verstärkt durch einen eindeutig ausgegangenen Volksentscheid, brachte die damalige Berliner Regierung aus SPD und Linkspartei zur Vernunft. Die sogenannte Informationsfreiheit ist der große Bruder der OpenData-Idee: Eine Gesellschaft ist nur dann demokratisch, wenn eine Kontrolle ihrer staatlichen und öffentlichen Institutionen möglich ist. Und dafür braucht man Zugang zu Verträgen, Dokumenten, Vorgängen.
Ein zweiter wesentlicher Faktor ist die Art der Aufbereitung: Tausende Dokumente einzuscannen und dann als Bilder zur Verfügung zu stellen, erzeugt nur den Anschein von Transparenz. Aber erst, wenn Dokumente und Daten auch automatisch durchsuchbar sind, können sie sinnvoll weiterverarbeitet werden. Diese Notwendigkeit nennt man »Maschinenlesbarkeit«. Doch auch die Möglichkeit zur maschinellen Weiterverarbeitung reicht nicht aus, um offene Daten zu einem echten Erfolg zu machen. Denn wie bei so vielen digitalen Möglichkeiten gibt es auch hier Grenzen dessen, was wünschenswert ist.
Die größte Schwäche bei der Offenlegung ist die Frage: Welche Daten haben einen Personenbezug oder lassen einen solchen herstellen? Hierfür gibt es bis heute keine klaren Richtlinien, denn natürlich soll der Staat nicht die Geheimnisse aller seiner Bürger preisgeben. Aber solche Richtlinien werden in naher Zukunft notwendig sein, auch wenn man erst einmal mit den offensichtlich unkritischen Datenbeständen anfangen und diese standardmäßig, maschinenlesbar und kostenlos zugänglich machen kann. Grundsätzlich sollte für staatliche Daten und Informationen in Zukunft gelten: Nicht die Öffentlichmachung muss begründet werden, sondern die Geheimhaltung. Und das gilt nicht nur für unser staatliches Betriebssystem, wie wir gleich sehen werden.
In den 1960er-Jahren war die Computer-Hardware der zentrale Kostenfaktor für den Einsatz elektronischer Datenverarbeitungssysteme. Die Programme, die Software, wurden individuell vor Ort programmiert, und da die Großrechner in dieser Frühzeit Programme auch nur nacheinander bearbeiten konnten, tauschten die Nutzer untereinander Programm-Codes aus. Man half sich gegenseitig dabei, die Maschinen zu verstehen, teilte das Wissen mit anderen und baute wiederum auf deren Wissen auf.
Erst ab Mitte der 70er Jahre sollte sich diese Kultur des freien Gebens und Nehmens nachhaltig ändern. Zu den ersten, die hier einen anderen Weg suchten, gehörte ein gewisser William Henry Gates. Mit seinem Unternehmen Micro-Soft (dem Vorgänger von Microsoft) wollte Bill Gates durch den Vertrieb von Software Geld verdienen und war sauer: 1976 schrieb er einen offenen Brief an die »Hobbyisten«. Damit gemeint waren vor allem die Mitglieder des »Homebrew Computer Club«, eines Vereins von einigen Computerenthusiasten, die sich gegenseitig bei allem unter die Arme griffen, was Computer anging. Sie versorgten sich auch gegenseitig mit Software, und das war der Anlass für Gates’ Wut. Mitglieder des Clubs hatten 1975 die Vorabversion einer Software kostenlos weitergegeben, die von Gates und seinen Mitstreitern entwickelt worden war. Um genau zu sein, sie hatten sie auf Papierrollen weitergegeben. Gates aber wollte damit Geld verdienen. Er bekam von einem Hardware-Hersteller Geld für jedes Exemplar, das zusammen mit einem Computer über die Ladentheke ging.
In den 1980er und 1990er Jahren wurde Bill Gates der bekannteste Akteur der Softwarewelt. Seine Karriere ist unmittelbar mit dem Wort »proprietär« verknüpft. »Proprietär« kommt vom lateinischen »proprius«, eigen. Damit werden Programme bezeichnet, die jemandem im Speziellen gehören – und nicht etwa allen. Wir kennen diese Art von Software aus dem Alltag: Microsoft Office und Microsoft Windows sind solche proprietären Programme. Sie sind nicht veränderbar oder einsehbar, niemand, der einen Fehler findet, kann diesen auf eigene Faust beseitigen, weil er nicht weiß, wo. Denn Microsoft verkauft in der Hauptsache Software, die ohne Quelltext ausgeliefert wird. Der Quelltext, das ist das Programm in seiner rohen Form. Früher schrieb man Programme direkt in der Maschinensprache. Heute funktionieren Programmiersprachen als Dolmetscher zwischen dem, was der Mensch schreibt, und dem, was die Maschine versteht. Was wir als Anwender benutzen, ist die Maschinenversion. Was ein Programmierer entwickelt und ändert, ist hingegen die Menschenversion. Nur wer diese Quellversion, den Quellcode (englisch Source), vorliegen hat und die verwendete Programmiersprache beherrscht, kann ohne größere Schwierigkeiten Veränderungen und Anpassungen vornehmen.
Ganz anders ist dies bei sogenannter freier Software, im Volksmund auch gerne Open Source Software genannt. Was nicht genau dasselbe meint, aber dazu kommen wir noch. Ein Mann hatte die Startkultur der Software-Entwicklung an den Universitäten und in den Kreisen der Hard- und Softwarebastler, die man als die ursprünglichen Hacker bezeichnen kann, miterlebt. Er arbeitete seit Anfang der 1970er Jahre am Artificial Intelligence Laboratory (der Abteilung für Künstliche Intelligenz) des Massachusetts Institute of Technology (MIT). Er war nicht damit einverstanden, dass immer mehr Computercodes weggeschlossen und immer mehr Programme nur noch in der Maschinenversion ausgeliefert wurden. Richard Stallman wollte sich nicht damit abfinden, dass die Zukunft von proprietärer und verschlossener Software dominiert würde.
Anfang der 1980er Jahre fand er in dem Juristen Eben Moglin einen Mitstreiter. Sie gründeten die Free Software Foundation, die Freie-Software-Stiftung. Gemeinsam entwickelten sie eine Lizenz auf Basis des Copyrights, unter der zukünftig Software veröffentlicht werden sollte: die GNU Public License (GPL). GNU steht dabei für »GNU is Not Unix« – GNU ist nicht Unix. Unix war das damals wichtigste Betriebssystem, das für Großrechner eingesetzt wurde. Und es war nicht so frei, wie Stallman und Moglin dies gern gesehen hätten: Bis 1979 wurde es mit seinem Quellcode ausgeliefert, danach hielt der Rechteinhaber, das US-Telefonunternehmen AT&T, die Quellen unter Verschluss und bot nur noch die Maschinenversion an. Das stieß Stallman und Kollegen übel auf, weshalb sie ein eigenes Betriebssystemprojekt und darauf aufbauend eine komplette Benutzerumwelt nach ihren Maßstäben zu entwickeln anfingen – eben das sogenannte GNU-Projekt, das auf vier Freiheiten aufbaut, die jede Software, die offizieller Bestandteil des Projektes sein will, erfüllen muss.
Zentraler Punkt der GPL ist die sogenannte »nullte Freiheit«: die Freiheit, »ein Programm für jeden Zweck einsetzen zu dürfen«. Darauf baut die zweite oder eigentlich die erste, die wissenschaftliche Freiheit auf, »die Freiheit, untersuchen zu dürfen, wie ein Programm funktioniert, und es den eigenen Bedürfnissen anzupassen«. Die nächste Freiheit ist die soziale Freiheit, »Kopien für andere machen zu dürfen«. Und zum Schluss kommt die konstruktive Freiheit, »das Programm verbessern zu dürfen und diese Verbesserungen zum allgemeinen Wohl zugänglich zu machen«.
Diese vier Freiheiten waren keine Revolution, sondern lediglich die Festschreibung langjähriger Hackertradition in einem Copyright-kompatiblen juristischen »Code«, auf der zukünftige Software-Entwickler aufbauen und sich auf das konzentrieren konnten, was ihnen Spaß machte: Software zu programmieren und die Ergebnisse mit anderen zu teilen. Sie haben es sicherlich schon bemerkt: Im Englischen ist die Unterteilung in Code und Code schwierig. Wer von Code redet, kann gleichermaßen Programmiercode meinen wie juristische Kodizes. Tatsächlich besteht bei der Logik der Anfertigung von Gesetzen und Programmen eine gewisse Ähnlichkeit.
Stallman konzentrierte sich auf die Entwicklung seines GNU-Projektes. Es war schon ziemlich weit gediehen, aber der entscheidende Teil fehlte noch: der Kern des Betriebssystems, der sogenannte Kernel. Anfang 1991 sollte ein solcher in Finnland entwickelt werden. Der junge Informatikstudent Linus Thorvalds wollte das Betriebssystem Minix, ebenfalls ein Abkömmling der älteren Unix-Varianten, das an der Universität von Amsterdam geschrieben worden war, nachdem Unix unter Verschluss geraten war, auf seinem 386er-Computer zum Laufen bringen. Das war aber so nicht möglich. Also setzte Thorvalds sich an seinen Computer und entwickelte einen neuen Kern für das Betriebssystem. Da die übrigen notwendigen Komponenten des GNU-Systems schon unter der GPL (Sie erinnern sich: die Vier-Freiheiten-Lizenz, die eine freie Veränderung, Nutzung und Weitergabe erlaubt) veröffentlicht waren, nahm er diese und setzte seinen Kernel ebenfalls unter die GPL. Die erste Version von Linux war geboren.
Die Unterschiede zwischen proprietärer Software, Open-Source-Software und freier Software lassen sich gut mit einem Auto vergleichen. Bei proprietärer Software können Sie im Schadensfall nichts machen. Das Auto ist kaputt, Sie sehen höchstens noch eine blinkende Lampe, Sie müssen zur Werkstatt – und zwar auch, wenn Sie Automechaniker sind. Sie können nämlich nicht einmal die Motorhaube öffnen. Bei Open-Source-Software, die lediglich einen Einblick erlaubt, können Sie die Motorhaube öffnen und den Fehler auch finden, aber Sie müssen trotzdem zur Werkstatt, wenn Sie das Auto vertragsgemäß reparieren lassen und die Garantie erhalten wollen. Freie Software gibt hingegen alle Freiheiten: Sie öffnen die Motorhaube, finden einen kaputten Keilriemen und können diesen auch ohne fremde Hilfe austauschen. Falls Sie nicht genau wissen, wie: Im Netz finden Sie unzählige Quellen, die Ihnen die richtigen Tipps geben. Die Lösung könnte der berühmte Nylonstrumpf als Provisorium sein, oder das Einbauen eines neuen Keilriemens.
Linux wurde unter Entwicklern immer beliebter, weil man das System individuell anpassen konnte. Aber lange Zeit war das System nicht nutzerfreundlich genug. Wer niemanden im Freundes- oder Bekanntenkreis hatte, der einem bei der Wartung und unerwarteten Problemen half, stand schnell vor Problemen. Zwar gab es zahlreiche Community-Webseiten im Netz, aber nicht jeder versteht seinen eigenen Computer als Bastelmaschine, in die man sich so lange hineindenkt, bis man alles verstanden hat. Linux wurde erst einmal keine Massenware. Freie Software sollte auf anderen Wegen populär werden. Und der wohl wichtigste Geburtshelfer war überraschenderweise Microsoft.
Wer Mitte der 1990er Jahre im Internet unterwegs war, nutzte vor allem einen Browser zum Betrachten von WWW-Seiten: Netscape. Die Software wurde von dem gleichnamigen Unternehmen entwickelt, der Mitgründer Marc Andreessen hatte bereits Mosaic mitentwickelt, den allerersten Webbrowser, der eine grafische Benutzeroberfläche hatte und somit nicht nur über die Tastatur bedient werden musste. Netscape war unglaublich erfolgreich. Fast jeder im Internet benutzte die Produkte der Firma. So lange, bis Microsoft erkannte, dass das Internet nicht mehr weggeht. Und was macht eine Firma, die auf dem Großteil der Computer dieser Welt zuhause ist? Sie nutzt ihre Marktposition aus. Microsoft ließ mit dem »Internet Explorer« einen eigenen Browser entwickeln und lieferte diesen standardmäßig mit dem Betriebssystem Windows aus. Warum hätten die Menschen sich nun noch einen anderen Browser installieren sollen? Was folgte, war der sogenannte »Browser-Krieg«, in dem Netscape gegen die Marktmacht Microsofts schlechte Karten hatte. Aber für den Erfolg freier Software sollte dies ein Glücksfall werden.
1998 entschloss sich Netscape, den Quellcode des Browsers offenzulegen und als Mozilla unter einer freien Lizenz neu zu platzieren. Dazu wurde die Mozilla Foundation als nicht-kommerzielle Stiftung gegründet, die fortan für die Weiterentwicklung zuständig war. Es folgten mehrere Jahre offener Entwicklung, bis die Version 1.0 im Jahr 2002 erschien. Damals noch als ganze Programm-Suite inklusive Mailprogramm und anderen Hilfswerkzeugen. Das Softwarepaket wurde aber zu groß. Ein Jahr später spaltete die Mozilla Foundation die Suite in einzelne Pakete auf und es entstanden mehrere Projekte, die seitdem viele Rechner auf der Welt erobert haben: Der Browser Firefox und das E-Mail-Programm Thunderbird.
Firefox überzeugte die Nutzer durch seine Qualität: Die Entwicklergemeinde besserte Fehler im Programm schnell aus, weil jeder sich anschauen konnte, wo die Probleme lagen. Anders als bei Microsofts Internet Explorer war der Firefox-Browser schnell dabei, wenn es darum ging, Sicherheitslücken zu schließen. Und auch Erweiterungen für das Programm waren einfacher zu schreiben: Es war ja gut dokumentiert, was wie funktioniert. Firefox hatte im September 2011 einen Marktanteil von fast 50 Prozent in Deutschland, weit vor dem Internet Explorer.
Tatsächlich ist Firefox das Vorzeigeprodukt der Freie-Software-Landschaft. Es kostet die Nutzer nichts, wird von einer großen Zahl an Entwicklern schnell und regelmäßig weiterentwickelt und die federführende Mozilla Foundation legt großen Wert darauf, dass es gut zu benutzen ist. Das hat es zu einem Erfolg gemacht, der dem Betriebssystem Linux bislang nicht vergönnt war: noch zu technisch, zu wenig Anwendungen, zu wenig Unterstützung verschiedener Hardware. Aber in bestimmten Bereichen ist freie Software auf dem Vormarsch.
Und das liegt an dem grundsätzlichen Mangel proprietärer Programme: Niemand außer dem Hersteller weiß, was sich unter der Motorhaube verbirgt. Das ist sowohl für Firmen als auch für Regierungen nicht nur ein Ärgernis, sondern tatsächlich auch ein Sicherheitsrisiko. Denn wenn jemand eine Sicherheitslücke in dieser Software findet, kann diese nur vom Hersteller beseitigt werden. Und nur dann, wenn dieser dazu gerade Lust hat. Hinzu kommt das Problem, dass man an den einen Hersteller gebunden ist: Was passiert, wenn Microsoft – was nicht zu erwarten steht, aber immer mitgedacht werden sollte – eines Tages pleitegehen sollte? Ist es wirklich klug, sich von einem einzigen Anbieter in der Welt so abhängig zu machen, wie dies heutzutage geschieht? Ganz abgesehen von dem kleinen Problem, dass dieser dazu auch noch die Preise für seine Produkte so festlegen kann, wie es ihm beliebt – und alle Kunden diese dann bezahlen müssen. Es ist kein Wunder, dass die Microsoft-Firmengründer Bill Gates und Paul Allen zu den reichsten Menschen der Welt gehören.
Es gibt Länder, die sich proprietäre Software in ihren Verwaltungen weder leisten wollen noch dies könnten. Sie sind dazu gezwungen, auf Alternativen zu setzen. Und so ist es wenig verwunderlich, dass gerade in den sogenannten Schwellenländern, die auf dem Sprung von einem Entwicklungs- zu einem Industrieland stehen, die Nutzung und Förderung freier Software und freier Lizenzen sehr viel mehr verbreitet ist als bei uns. Anders gesagt: Wir sind dafür sowohl zu faul (»funktioniert ja«) als auch zu reich. Wir können uns die Millionen notwendiger Lizenzgebühren für proprietäre Software leisten. Allerdings findet da auch ein Umdenken statt. Seit 2003 gibt es vom Bundesinnenministerium einen »Leitfaden für die Migration von Software«. Städte wie München haben Open-Source-Projekte laufen, in diesem Fall das LiMuxProjekt (der Name ist eine Mischung aus Linux und München). Das Bewusstsein dafür ist vorhanden, dass diese Abhängigkeit gefährlich ist.
Sich von zentralen Instanzen und geschlossenen Infrastrukturen unabhängiger zu machen, das ist auch das Ziel einer ganz anderen Initiative, der Bewegung für freie Funknetzwerke, in Deutschland vor allem als »Freifunk« bekannt, in Österreich als »Funkfeuer«. Die Idee ist, dass Infrastrukturen geschaffen werden, bei denen der eigene Internetzugang mit den Nachbarn geteilt werden kann. Zugangsinfrastrukturen gehören in der Regel Unternehmen, die die Nutzung als Dienstleistung anbieten. Das hat für Nutzer viele Vorteile. Man muss zum Beispiel nicht selbst Kabel unter die Erde legen. Aber in vielen Gegenden gibt es zu wenig finanziellen Anreiz für solche Unternehmen, schnelle und bezahlbare Infrastrukturen zu schaffen – sei es in kleinen Dörfern oder in Afrika oder mitten in unserer bundesdeutschen Hauptstadt. Kabel zu verbuddeln, das rechnet sich manchmal einfach nicht. Aber was macht man dann?
In Berlin gab es trotz Internetbooms bis weit in die nuller Jahre in vielen Bezirken kein bezahlbares, schnelles Internet, und auch heute noch verzweifeln viele an den weißen Flecken in der Stadt. Das Problem dieser Bezirke sind in der Regel die Glasfaserkabel, die nach der Wende verlegt wurden. Erst später wurde DSL als günstige Technologie populär. DSL baute aber auf den alten Kupferkabeln auf, die man nach der Wende aussortiert hatte, weil alle von ISDN schwärmten. Vor allem in den preiswerten Vierteln des ehemaligen Ostteils, wo viele junge und technikbegeisterte Menschen lebten, bekam man deshalb kaum anständige Internetzugänge, zumindest wenn man nicht für Tausende Euro pro Monat eine Standleitung im Glasfasernetz mieten wollte. Glasfaser ist eigentlich viel schneller als Kupfer, doch die Anschlusskosten sind enorm. Speziell die von der Deutschen Telekom verbuddelte Leitungstechnik OPAL war nicht für Internetzugänge, sondern für Telefonbetrieb ausgelegt.
Daraufhin wuchs bei einigen Menschen die Motivation, eigene Infrastrukturen aufzubauen und damit das Problem selbstständig zu lösen. Mittels Richtfunkstrecken, teilweise aus alten Blechbüchsen, oder, wenn man mehr Geld zur Verfügung hatte, auch mit professionellen Antennen, konnte übers Dach eine Funkverbindung zu anderen Orten aufgebaut werden, wo es schnelle Leitungen gab. Wohnte man in Friedrichshain und hatte Zugang zum Dach, ergab sich so die Möglichkeit, die Dächer von Freunden in Mitte oder Kreuzberg »anzufunken«. Wenn der direkte Weg durch andere Gebäude versperrt war, gab es vielleicht die Möglichkeit eines Umweges über andere Knotenpunkte, die von beiden Dächern aus sichtbar waren.
Aktivisten aus der Freifunk-Community suchten Orte, die als Knotenpunkte infrage kamen. Kirchtürme sind naturgemäß geeignet, auch Gebäude der öffentlichen Verwaltung überragen ihre Nachbarschaft oft. Es gab weitere ganz konkrete Probleme. Man musste den Verantwortlichen erklären, dass man Zugang zu einer Steckdose benötigte, weil schließlich auch die Technik mit Strom versorgt werden will – was noch nicht über die Luft geht. Den Aktivisten gelang es aber, Zugang zu zahlreichen Gebäuden zu erhalten und dort Antennen aufzubauen. Mit der Zeit spannte sich ein immer größeres Netz über Berlin, Knoten bildeten sich auf besonders hohen Häusern, die die unterschiedlichen Netze zusammenführten. Der »Berlin Backbone« umfasst mittlerweile mehr als 1000 Einzelknoten, die miteinander kommunizieren.
Dabei gibt es auch viele Ein- und Ausgänge zum »richtigen Internet«. Diese entstehen, wenn sich Menschen, die eine DSL-Leitung zu Hause haben, bei Freifunk als Knoten registrieren und ihre Leitung mit dem Netzwerk und den Nachbarn teilen. Immer wenn der Rechner ein Netzwerk namens »Freifunk« anzeigt, ist man in der Nähe eines solchen Punktes. Damit kann man in manchen Teilen der Hauptstadt problemlos ins Internet kommen, selbst wenn man von den Telefonanbietern keinen Internetzugang bekommt. Die Allgemeinen Geschäftsbedingungen von DSL-Anbietern erlauben zwar oftmals das »Sharing«, das Teilen mit anderen, nicht. Da dies in der Regel jedoch nicht durchgesetzt wird, hält ein jeweiliger Passus nur wenige von einer Teilnahme an Freifunk ab.
Als sehr viel problematischer erweist sich eine andere Entwicklung: die rechtliche Haftung. Denn der Bundesgerichtshof fällte 2010 ein Urteil, in dem er die Betreiber von drahtlosen Netzen dazu verdonnerte, diese nicht einfach bedingungslos zu teilen. Sonst würden sie unter Umständen mit haftbar gemacht, wenn jemand beispielsweise über diesen Zugang dann Urheberrechtsverletzungen begeht. Unter Juristen ist das Urteil höchst umstritten, weil die zugrunde liegenden Gesetze eigentlich eine solche Betreiberhaftung ausschließen. Doch seit diesem Urteil ist die Gefahr gestiegen, dass Drahtlosnetzwerkanbieter für die Taten anderer in ihrem Netzwerk verklagt werden. Das ist kein Freifunk-Spezifikum, es betrifft alle, die anderen den Zugang zum Internet ermöglichen: ob Café-Betreiber oder Privatpersonen. Wer andere über seinen Anschluss ins Netz gehen lässt, soll diese identifizieren können. Sonst könnte er selbst unter Umständen dran sein.
Das unselige BGH-Urteil hat einen Vorläufer im Geiste: 1998 verurteilte das Amtsgericht München den damaligen Deutschland-Chef des Internetzugangsanbieters Compuserve zu einer zweijährigen Bewährungsstrafe und 100 000 D-Mark Geldstrafe. Denn seine Firma leiste Beihilfe zum Zugang zu Tier- und Kinderpornografie, so der Richter. Selbst der zuständige Staatsanwalt hatte damals eingesehen, dass ein Zugangsanbieter – selbst dann, wenn er Inhalte zwischenspeichert, wie es in dem Fall geschah – nicht für diese haftbar sein könne. Das Urteil wurde im Berufungsprozess vor dem Landgericht München I 1999 durch einen Freispruch revidiert. Seitdem sind ein Dutzend Jahre vergangen, aber das höchste ordentliche deutsche Gericht fängt plötzlich und überraschend an, an diesem Grundsatz wieder zu rütteln. Jenseits der juristischen Scharmützel muss man sich fragen, welche Vorstellung von Freiheit eigentlich hinter einem solchen Urteil steht. Freiheit ist immer mit Verantwortung verbunden und kann auch von jedem Einzelnen missbraucht werden. Damit muss ein freiheitliches System umgehen können.
Die Verfügbarkeit von Karten auf digitalen Geräten hat vieles vereinfacht: Musste man früher noch einen Faltplan mit sich herumschleppen und dann erst einmal herausfinden, wo man genau war, erledigt das heute das Smartphone. Ein Klick auf die Karten-Anwendung, und schon wird der aktuelle Ort angezeigt. Innerhalb von Sekunden errechnet diese Applikation auf dem Smartphone auch den optimalen Ort zum Ziel, ob per Fuß oder mobil. Problematisch wird es nur, wenn das Smartphone nicht dabei oder kein Netz erreichbar ist. Oder dann, wenn das Ortungssystem nicht funktioniert, weil das Telefon die Sichtverbindung zu den die Erde umkreisenden GPS-Satelliten nicht herstellen kann. Aber im Regelfall funktionieren diese Lösungen ganz gut.
Wer online Kartenmaterial sucht, landet normalerweise bei Google-Maps. Zwar gibt es noch weitere Konkurrenz wie Bing-Maps von Microsoft oder diverse Stadtplandienste. Aber Google stellte frühzeitig für seinen Kartendienst eine sogenannte offene Schnittstelle zur Verfügung. Das heißt, dass andere Angebote die Kartendaten unter bestimmten Voraussetzungen nutzen dürfen, was auch viele daraufhin taten. Google wiederum macht das Kartenmaterial hierfür nicht selbst, sondern lizenziert es von anderen Unternehmen, erlaubt aber (ausgestattet mit einem Lizenzvertrag) die Nutzung für eigene Zwecke. Das führt allerdings zu einigen Problemstellungen, wovon die einfachste noch ist: Wer will sich schon von einem Anbieter abhängig machen, der morgen schon die Lizenzbedingungen verändern kann und damit die Regeln diktieren? Oder schlicht künftig dafür Geld möchte, wenn andere seine Dienste nutzen?
»Lasst uns unser eigenes Kartenmaterial schaffen« könnte das Motto der OpenStreetMap-Community sein. Basierend auf der Idee von Open-Source-Software gehen seit 2004 weltweit Tausende Menschen hin und »mappen«. So nennen die selbsternannten Kärtner das Kartografieren, die Welt. Wenn Ihnen auf einem Feldweg Spaziergänger begegnen, kann das einen ganz anderen Grund haben, als nur die frische Luft. Zum Kartografieren läuft oder fährt man mit einem GPS-Empfänger eine Strecke ab. Das Gerät, das als Funktion mittlerweile auch in vielen Smartphones eingebaut ist, merkt sich den Weg durch die Geokoordinaten, die in einer Datei gespeichert werden. Eine Geokoordinate besteht aus zwei Punkten. Den Ort, an dem dieser Text gerade geschrieben wird, finden Sie auch als »52.529166, 13.411003«. Die beiden Nummern geben den jeweiligen Längen- und Breitengrad an. Eine gefahrene oder gelaufene Strecke sammelt also mit einem GPS-Empfänger lauter Punkte. Diese ergeben dann, wenn man die Datei im Anschluss in einem Wiki-ähnlichen System bei OpenStreetMap hochlädt, eine Linie. Dort kann man sie bearbeiten, indem man sie verschlagwortet. Oder andere es tun. Ein Schlagwort können sein: Fahrradweg, Autobahn, auch ein Hochspannungsmast oder eine andere Landmarke. In einem nächsten Schritt können zusätzliche Informationen auf das Kartenmaterial gelegt werden: An der einen Ecke gibt es einen Bäcker, die Grundschule befindet sich an der anderen Ecke.
Das Ergebnis auf openstreetmap.org kann sich schon heute sehen lassen. Städte wie Berlin oder Karlsruhe, in denen viele Enthusiasten wohnen, sind nahezu vollkommen abgedeckt. Weiße Flecken gibt es zwar noch, aber es finden sich immer mehr Aktive, die gemeinsam mit anderen freies Kartenmaterial für alle schaffen wollen. Das dann auch allen gehört und nicht einer Firma, die morgen neue Bedingungen für die Nutzung diktieren kann. Die Basis von OpenStreetMap sind offene Lizenzen, in diesem Fall noch die Creative-Commons-Lizenzen. Die Grundidee dahinter ist klar: Diese Daten sollen nicht wenigen, sondern allen gehören. Und können deshalb von allen, die es lieber auf Papier haben wollen, auch ausgedruckt werden, solange noch etwas Wald dafür übrig ist.
Mittlerweile gibt es zahlreiche Webseiten, die auf OpenStreet-Map aufsetzen. Der Berliner Raul Krauthausen ist Rollstuhlfahrer. Und er stand immer wieder vor demselben Problem: Zu viele Orte des öffentlichen Raums sind nicht barrierefrei. Falls man im Rollstuhl oder mit einem Kinderwagen unterwegs ist, merkt man das aber erst, wenn man zum ersten Mal vor Ort ist. Das kostet Zeit und Nerven. Krauthausen hatte eine Idee: Auf einer Plattform im Netz möglichst viele Orte zu sammeln und zu bewerten, inwiefern sie barrierefrei sind. Dazu gründete er mit seinem Verein Sozialhelden e. V. die Plattform wheelmap.org, um ein »Verzeichnis für rollstuhlgerechte und weniger bis nicht rollstuhlgerechte Orte« zu schaffen. »Es geht nicht nur um Stufen«, sagt Krauthausen. »Es geht darum, wie interessant und vielfältig ich als Rollstuhlfahrer meinen Alltag gestalten kann. Nur wenn ich weiß, welches Restaurant, Café oder Kino ich überhaupt betreten kann, kann ich die Angebote nutzen.«
Am heimischen Computer oder unterwegs mit einem Smartphone kann man sich anzeigen lassen, ob ein Ort barrierefrei ist, ob es kleine Stufen gibt und die Barrierefreiheit eingeschränkt ist – oder ob man sich gleich den Weg sparen kann. Anhand eines einfachen Ampelsystems wird das den Wheelmap-Nutzern angezeigt: Grün kennzeichnet, dass dieser Ort barrierefrei ist, Rot bedeutet: nicht stufenlos und ohne Hilfe nicht erreichbar. Die Basis hierfür bildet das Kartenmaterial von OpenStreetMap. Und darin können die Nutzer spielend leicht bekannte Orte eintragen, verändern und finden. Im September 2011 feierte wheelmap.org einjähriges Bestehen und verkündete stolz, dass man bereits mit der eigenen Community 75 000 Orte weltweit zusammengetragen hat – ein wunderbarer und einfach verständlicher Service. Keine Firma der Welt hätte diesen Service wohl von sich aus übernommen.
Mehr Offenheit, mehr Transparenz? Das ist nicht nur für Kartendienste gut. Der Frankfurter Politikwissenschaftler Christian Kreutz hatte die Idee, mittels einer Plattform Bürgern die Lokalpolitik seiner Heimatstadt nahezubringen. Inspiriert von Beispielen aus Großbritannien und den USA, entwickelte er mit Helfern frankfurt-gestalten.de. Dort werden Informationen aus dem Parlis-System (Parlis steht für Parlamentarisches Informationssystem) der Stadt Frankfurt ausgelesen und auf eine Karte übertragen, deren Basis OpenStreetMap ist. Parlis enthält alle Beschlüsse und Beratungen der Frankfurter Oberbeiräte. Christian Kreutz beschreibt als Ziel, dass »mit dieser besseren grafischen Aufarbeitung, dem Ortsbezug der Entscheidungen und der besseren Übersicht der Themen die Möglichkeiten eines direkten Austauschs der Lokalpolitik transparenter und offener« gemacht werden. Auf frankfurt-gestalten.de kann man nach Straßen, Stadtvierteln und Themen suchen, die seit 2006 online gestellt wurden, und sehen, was in der Mainmetropole von den Amtsträgern geplant wird. Noch ist es ein Problem der Plattform, dass nicht alle Informationen des Parlis-Systems in einem maschinenlesbaren Format bereitgestellt werden und nur mit viel Mehraufwand mit Kartenmaterial verbunden werden könnten. Wenn die Dokumente einfach nur eingescannt sind, ist das schlecht für ihre Weiterverarbeitung. Und für die Verortung in einer Karte sind Geodaten notwendig, also Angaben dazu, an welchen Orten genau das Planungsvorhaben stattfinden soll.
Selbst die Wikipedia-Community arbeitet erfolgreich mit den OpenStreetMap-Machern zusammen. Früher hatte die Wikipedia das Problem, dass verfügbares Kartenmaterial nie kompatibel zu den bei Wikipedia üblichen freien Lizenzen war: Jeder darf aus der Wikipedia alles für alles benutzen. Dadurch, dass beide Communitys auf derselben Lizenz, einer Creative-Commons-Lizenz aufbauen, ergeben sich zahlreiche Kooperationsmöglichkeiten, von denen die Einbindung von Kartenmaterial in Wikipedia-Artikel eine der naheliegendsten Anwendungen ist.
Die Bundesrepublik Deutschland ist eine stolze Republik der Forscher: 67 Milliarden Euro wurden 2009 für Forschung und Entwicklung ausgegeben, errechnete das Bundesamt für Statistik. Die großen deutschen Forschungsgemeinschaften, die Deutsche Forschungsgemeinschaft DFG, die Helmholtz-, die Fraunhofer-, und die Max-Planck-Gesellschaft sowie die Leibniz-Gemeinschaft bestreiten ihre Etats zu einem großen Teil aus öffentlichen Geldern: mal zwei Drittel von Bund und Ländern, wie bei der Helmholtz-Gesellschaft, mal fast 100 Prozent, wie bei der Deutschen Forschungsgemeinschaft. Das ist grundsätzlich richtig so, denn rein an wirtschaftlichen Maßstäben orientierte Forschung würde sich auf bestimmte Nischen fokussieren, die schnell Gewinne versprechen, statt Grundlagen zu erforschen und mittelfristig Mehrwert für die Gesellschaft insgesamt zu schaffen. Allein das Bundesforschungsministerium steckte 2011 über sieben Milliarden Euro aus seinem Haushalt unmittelbar in die Forschung und die Forschungsgemeinschaften. Sie befassen sich mit vielen Themen, für die sich kein direktes wirtschaftliches Verwertungsinteresse finden würde, die aber in Zukunft für die Bundesrepublik und den Wirtschaftsstandort wichtig werden könnten. Wir alle unterstützen also mit unseren Steuern die Forschungsarbeit in der Bundesrepublik. So weit, so begrüßenswert. Doch die Sache hat einen kleinen Haken: Cui bono? Wem nützt es?
Professoren, Doktoranden, studentische Hilfskräfte – die Forschung in der Bundesrepublik wird zum großen Teil von Staatsbediensteten geleistet. Diese werden dafür bezahlt, und das in der Regel auch nicht so schlecht. Wer eine Professur der Besoldungsstufe W2 besetzt, bekommt aus der Steuerkasse einen Sold, wie der Beamtenlohn heißt, von mindestens 4358 Euro, in der Regel mehr. Das ist zwar nicht das, was ein Banker oder mancher Rechtsanwalt in der freien Wirtschaft verdient. Aber für einen guten Lebensstandard ist das mehr als ausreichend, und wenn man verbeamtet ist, muss man sich auch wenig Sorgen um die persönliche Zukunft machen. Nun forschen also unsere Wissenschaftler von unserem Geld in unserem Auftrag an den Problemen unserer Gegenwart um unsere Zukunft zu verbessern. Was wäre da naheliegender, als dass die Ergebnisse dieser Forschung auch uns allen zur Verfügung stehen?
Weit gefehlt: Wenn Wissenschaftler ihre Forschungsergebnisse herausgeben, dann veröffentlichen sie diese oft nicht. Sie machen sie unter weitgehendem Ausschluss der Öffentlichkeit nur jenen zugänglich, die sich die unglaublich teuren Fachzeitschriften leisten können, in denen sie erscheinen. Grund dafür ist die Mediengeschichte: Als der Druck von Büchern und Zeitschriften noch teuer war, mussten Wissenschaftler darauf hoffen, dass sie mit ihren Artikeln über ihre Forschungen in die wenigen existenten Fachzeitschriften hineinkommen, die es gab und die in ihrer »Forschungsgemeinde« gelesen wurden. Aufgrund des begrenzten Platzes führten viele wissenschaftliche Zeitschriften Hürden für die Veröffentlichungen ein. Die gängigste ist das sogenannte Peer Review: Andere Wissenschaftler müssen einen Artikel vor seinem Erscheinen in einer anonymen Version erst für gut befinden, bevor er in der entsprechenden Zeitschrift erscheinen darf. Diese Art des Qualitätsmanagements war zu Zeiten begrenzten Platzes sinnvoll und richtig. Aber wie passt das noch zum Internetzeitalter? Wer etwas erforscht hat, könnte darüber endlos berichten, für alle und jedermann zugänglich – im Internet. Doch das ist nach wie vor unüblich.
Denn die Fachzeitschriften haben in der Welt der Wissenschaft ihre Rolle gut besetzt: In fast jeder wissenschaftlichen Disziplin gibt es besonders wichtige Publikationen. Und für die Wissenschaftler ist das Erscheinen weit über den Wert der Kommunikation mit ihren Kollegen hinaus zu etwas anderem geworden: zu einem Reputationsmerkmal. Wer als Naturwissenschaftler in ›Science‹ veröffentlicht, als Mediziner in ›Lancet‹ oder als Volkswirt im ›American Economic Review‹, der kann sich auf die Schulter klopfen lassen: Nur die Besten der Besten werden auf das knapp gehaltene papierne Gut gelassen. Ob das immer zutrifft, ist dabei zweitrangig: Es reicht, dass die wissenschaftliche Gemeinde daran glaubt. Und wer in den »richtigen« Journalen schreibt, der wird wiederum häufiger von seinen Kollegen zitiert, gilt damit als wichtiger und kann damit vielleicht mehr Forschungsmittel akquirieren … Es ist ein Kreislauf, der sogenannte »Impact Factor«, der »Wirkungsfaktor«, von dem einige wenige überproportional profitieren und von dem andere hoffen, irgendwann einmal partizipieren zu dürfen und dann ebenfalls zu profitieren.
Wer gibt diese Forschungszeitschriften heraus? Die größten Herausgeber von wissenschaftlichen Fachzeitschriften sind private Verlage. ReedElsevier und Springer – nicht zu verwechseln mit dem Zeitungshaus Axel Springer – sind zwei der großen Akteure auf diesem Gebiet. Und diese Verlage lassen sich ihre Dienstleistung teuer bezahlen: Die wissenschaftlichen Fachzeitschriften kosten die Bibliotheken ein Vermögen, sind so teuer, dass viele Bibliotheken sich den Bezug der Zeitschriften nicht mehr uneingeschränkt leisten können. Das ist insbesondere für die Lehre ein Problem, denn wenn die Studierenden in ihrer Ausbildung keinen Zugang zu den aktuellen wissenschaftlichen Fachzeitschriften haben, wie sollen sie dann an den aktuellen Diskursen teilhaben? Hierdurch findet eine Spaltung statt: in Studenten reicher und armer Universitäten, wobei Letztere nur noch eingeschränkten Zugriff auf aus Steuermitteln finanzierte Forschung haben.
Für die Verlage ist diese Situation hingegen eine Lizenz zum Gelddrucken: Sie haben ein Quasi-Monopol auf die Veröffentlichung von wissenschaftlichen Ergebnissen, die vorwiegend aus öffentlichen Geldern bezahlt wurden. Springer Science + Business gibt an, dass sie im Jahr 2010 ein Drittel aller Einnahmen als Betriebsgewinn gemacht hätten – 294 Millionen Euro vor Steuern. Und ReedElsevier, der Gigant auf diesem Markt, steht dem nur wenig nach: Bei 7 Milliarden Euro Umsatz erzielten sie 2010 fast eineinhalb Milliarden Euro Gewinn.
Die Verlage haben kaum Kosten, da die Gutachter für die Journale im Regelfall wie die Autoren aus öffentlichen Geldern bezahlt werden und für die Artikel im Regelfall kein Geld bezahlt wird. Es klingt wie das perfekte Geschäftsmodell: wenig tun, viel verdienen. Das alles auf Kosten der Steuerzahler, die von all dem wenig mitbekommen. Immerhin gibt es Tendenzen, diese Fehlentwicklung umzusteuern.
Unter dem Schlagwort »Open Access«, also freier Zugang, haben sich Wissenschaftler eine Lösung ausgedacht. Wie wäre es, wenn sie nicht mehr über diese Zeitschriften, sondern über andere, oft digitale Verbreitungswege ihre Forschungsergebnisse veröffentlichen? Wäre es nicht sogar konsequent, wenn die staatliche Finanzierung von Forschung sogar an die Bedingung geknüpft wird, dass die Ergebnisse für jedermann zugänglich sind?
Technisch ist dies heutzutage kein Problem mehr. Das einzige Hindernis ist die besagte Reputation, die von der Publikation in den elitären Fachjournalen abhängig ist. Und solange die Spitzenwissenschaftler nicht davon abgehen oder der Gesetzgeber die Vergabe öffentlicher Mittel an eine wirkliche Veröffentlichungspflicht für die Empfänger der Mittel bindet, so lange wird das wohl auch so bleiben. Aber die Welt der Wissenschaft ist beileibe nicht der einzige Bereich, in dem althergebrachte Geschäftsmodelle zeitgemäßen Lösungen im Wege stehen, wie wir im Folgenden sehen werden.
Was haben der Song ›Your Woman‹ von White Town, Karl-Theodor zu Guttenberg, ›Down Under‹ von Men at Work und der Streit um Klone von Apples iPad miteinander gemeinsam? Es geht um das Urheberrecht. Wer etwas erfindet, etwas Neues schafft, der soll darüber entscheiden können, was damit passiert. Sein Werk ist sein nicht ganz korrekt so genanntes »geistiges Eigentum«, ein immaterielles Gut. Er oder sie soll die Hoheit darüber haben. Die Autoren dieses Buches haben das Urheberrecht daran, sofern ihnen keine Plagiate, d. h. die Aneignung fremder geistiger Leistungen ohne Kenntlichmachung, nachgewiesen werden können. Das klingt ganz einfach. Doch das Urheberrecht ist eine der größten Baustellen auf dem Weg in die digitale Gesellschaft.
Das Urheberrecht und seine Abkömmlinge sind Erfindungen des Zeitalters der maschinellen Vervielfältigung. Erst mit der Erfindung des Buchdrucks wurde es ja mit geringerem Aufwand möglich, die Werke eines Autors zu vervielfältigen. So etwas wie ein Urheberrecht gab es danach aber noch lange nicht. 1710 wurde in Großbritannien das »Statute of Anne«, benannt nach der gleichnamigen englischen Königin, in Kraft gesetzt: Die Autoren mussten ihre Werke registrieren, um sodann für 15 Jahre, verlängerbar um weitere 15 Jahre, die exklusiven Vervielfältigungsrechte an ihrem Werk zu besitzen. Das Recht, ein Buch zu veröffentlichen und zu vervielfältigen, konnte man an einen Dritten vergeben, einen Buchdrucker, der oft zugleich auch den Verkauf übernahm. Damals gab es die heutige klare Arbeitsteilung zwischen Verlagen, Buchdruckern und Buchhandel noch nicht. Die Buchdrucker waren in der Regel zugleich auch die Buchhändler.
Mit dem Urheberrecht erhält die Leistung derer, die Werke schaffen, eine gesetzliche Grundlage, die zugleich die Garantie dafür sein soll, dass auch die Einkünfte aus dem Verkauf des Werks für Autoren, Künstler oder andere Kreative gesichert sind. Wer ein Buch schreibt, benötigt hierfür in der Regel Monate, mitunter Jahre. Wer ein Musikstück komponiert und arrangiert, verbringt damit oft Wochen oder Monate. Bei Einzelpersonen wie bei einem Autor oder Komponisten ist die Urheberschaft noch verhältnismäßig einfach festzustellen. In manchen urheberrechtsrelevanten Bereichen, beim Film, aber auch zum Beispiel bei Computerspielen, sind an der Schaffung eines Werks unter Umständen jedoch mehrere hundert Menschen über einige Jahre beschäftigt. Im Abspann der heutigen Kinofilme, in dem alle Mitwirkenden genannt werden, kann man dann die Namen nachlesen, auch wenn der Abspann oft viel zu schnell läuft, als dass man sie noch mitbekäme.
Der spektakulärste Plagiatsfall in Deutschland war zuletzt der Fall des Karl-Theodor zu Guttenberg. Guttenbergs Geschichte ist nicht nur die eines gefallenen politischen Hoffnungsträgers. Sie zeigt auch beispielhaft die Möglichkeiten und die Macht der digitalen Welt. Guttenberg hatte sich in seiner Doktorarbeit nicht an die Regeln des wissenschaftlichen Zitierens gehalten, die besagen, dass man wörtliche Zitate als solche kennzeichnen und die Quellen, die Urheber, angeben muss. Bei der »Komposition« seiner Doktorarbeit hatte er erheblich davon profitiert, dass die Quellen, aus denen er »schöpfte«, digital zugänglich waren. Sonst wäre das so wohl nicht möglich gewesen. Er bediente sich aus Erstsemesterhausarbeiten, aus Zeitungsartikeln, Werken etablierter Wissenschaftler und anderen Quellen.
Es wäre aber ohne das Netz auch nicht möglich gewesen, diese Kopiertätigkeit in dem Umfang aufzudecken. Nachdem der erste Verdacht aufgekommen war, jagte ihn eine Vielzahl Internetnutzer im »Guttenplag-Wiki«. Sie suchten die Originale zu seinen Kopien. Die Jäger des damaligen Bundesministers der Verteidigung waren eine bunte Schar: Jeder konnte mitsuchen, Fundstellen eintragen und wieder von anderen gegenprüfen lassen. Unter ihnen fanden sich promovierte Wissenschaftler, Schüler, Privatgelehrte und Privatleute gleichermaßen. Am Anfang dachte Guttenberg offenbar noch, er könnte mit dem bloßen Abstreiten der Vorwürfe durchkommen. Mit jeder gefundenen Stelle im Text wurde es schwieriger. Er musste zurücktreten und verlor seinen Doktortitel.
Guttenberg hatte die geistige Leistung anderer als seine eigene ausgegeben: Statt die Quellen kenntlich zu machen, was bei seinem »Werk« zugegebenermaßen ziemlich komisch gewesen wäre, da fast zwei Drittel der Arbeit aus Übernahmen der Werke anderer bestand, verschwieg er sie. Das gilt als Plagiat, als geistiger Diebstahl. Mit einem geistigen Diebstahl kann man sich ebenso wie mit einem Diebstahl von materiellen Gütern einen Vorteil verschaffen, auf den man eigentlich keinen Anspruch hat, weil dem keine eigene Leistung zugrunde liegt. Im Fall des Barons zu Guttenberg war es der Doktortitel. Eine Doktorarbeit soll die Fähigkeit zur eigenständigen wissenschaftlichen Leistung des Verfassers zeigen. Das war hier nicht der Fall. So weit, so einfach. Aber so einfach ist es nicht immer.
In der Geschichte wimmelt es von Plagiatoren und Remixern. Wer will, kann sogar die Bibel als gewaltiges Plagiat betrachten, in dem Autoren über Jahrhunderte alte Überlieferungen aufgegriffen und in etwas Neues verwandelt haben. Kreativität und Erfindergeist sind keine isolierten Prozesse. Sie basieren auf dem Wissen und dem Werk früherer Generationen. Das gilt auch für berühmte Fälle der Gegenwart. ›Your Woman‹, ein Song des Briten Jyoti Prakash Mishra, den er unter dem Namen White Town in seinem Heimstudio am Computer konzipierte, stürmte im Januar 1997 die britischen Popcharts. Mishra hatte an seinem damals schon alten Atari 1040 STFM-Heimcomputer verschiedene Elemente aus älteren Werken mit anderen und eigenen Ideen verknüpft. Er bediente sich unter anderem an einem Sample, einer Tonfolge, aus den 1930ern: ›My Woman‹ war ein Song des südafrikanischen Jazzers Al Bowlly gewesen. Jyoti Mishra rührte dies alles mit äußerst simpler Technik neu zusammen und hatte Erfolg damit. Die Technik hatte es möglich gemacht: mit Hilfe des Remix von vorhandenem Material und eigenen Einfällen war etwas Neues entstanden, das dem Zeitgeist entsprach. Der Song landete in Großbritannien an der Spitze der Charts. Für Mishra hatte die Nutzung alter Ideen keine rechtlichen Folgen.
Anders war es in einem anderen Fall. Das Stück ›Down Under‹ der australischen Gruppe Men at Work aus dem Jahr 1982 ist ein Welthit. Es enthält Flötenpassagen mit der Melodie eines australischen Kinderliedes aus dem Jahr 1934, an dem ein australischer Musikverlag die Rechte hält. Dieser Musikverlag erhob Ansprüche auf Lizenzgebühren für die Nutzung des Kinderliedes im Song von Men at Work, rückwirkend seit der Veröffentlichung 1982. Und diese Ansprüche wurden dem Verlag auch gerichtlich zuerkannt, nicht ab 1982, aber ab 2002. Da mit diesem Song bis heute Millioneneinnahmen erzielt werden, ist das immer noch eine erhebliche Summe an Tantiemen. 1982 lag die Entstehungszeit des Liedes bereits fast 50 Jahre zurück. Und es ist evident, dass die Zitate aus dem Kinderlied Bestandteil eines völlig eigenen schöpferischen Werks der Gruppe Men at Work waren.
Auch der Nummer-1-Chart-Hit des vergangenen Jahreswechsels ›Somebody that I used to know‹ des Australobelgiers Gotye besteht teilweise aus fremden Elementen. Der Musiker gab sich jede erdenkliche Mühe, die Rechtslage zu klären – scheiterte aber bei einem Sample. Die Folge: Irgendjemand fand den Originalmusiker, erwarb von diesem Rechte und forderte vom neuen Star eine erkleckliche Summe. Der Originalurheber sieht davon aber auf jeden Fall nichts mehr.
Wo fängt Kreativität an, wo hört sie auf? Ist ein einzelner Satz, eine einzelne Notenfolge ein Werk? Es gibt Gerichte, die dies bejahen, wie man sieht. Es gibt simple Tonfolgen, deren Schutz durch die Inhaber der Urheberrechte erfolgreich eingeklagt wird. Für solche Fälle gibt es ein juristisches »Zauberwort«. Es heißt »Schöpfungshöhe«. Erst ab einer gewissen »Schöpfungshöhe« ist ein Werk urheberrechtlich geschützt. Was auch immer das heißen soll. Der Begriff ist so vage, dass auch Gerichte oft nicht genau wissen, wie diese Höhe einzustufen ist. In Deutschland wird sie so streng ausgelegt, dass jede noch so amateurhafte Fotografie einen dem Urheberrecht verwandten Schutz genießt. Doch nicht nur Einzelne erheben Anspruch auf die Wahrung des Urheberrechts, sondern auch Unternehmen.
In dem Streit zwischen Apple und Samsung um die Klone des iPad geht es um etwas Ähnliches wie »geistiges Eigentum«. Auch Unternehmen lassen sich ihre Erfindungen und Produkte in Form, Farbe und Funktionalität schützen, als Marke, als Patent. In den USA hat man die Schutzmöglichkeiten besonders weit gefasst. Dort sind zum Beispiel auch Erfindungen zu schützen, die nur aus Software bestehen. So besitzt der Onlinebuchhändler Amazon das berühmt-berüchtigte One-Click-Patent: Nur bei Amazon und bei Amazons Lizenznehmern kann man in den USA mit einem einzigen Mausklick etwas einkaufen. Es gibt eine Vielzahl derartiger Softwarepatente, die bestimmte Funktionsweisen und -logiken schützen. Die Rechtslage hat dazu geführt, dass selbst die banalsten Dinge als geschützt gelten. Wenn die eine Firma ihre Erfindungen nicht schützt, dann tut dies eine andere. Dann drohen langwierige und teure Gerichtsprozesse um die Frage, wer zuerst da war. Inzwischen gibt es Firmen, die nur eine einzige Aufgabe haben: Sie bekommen von Finanzinvestoren Geld, um derartige Schutzrechte zu erwerben und alle zu verklagen und zu Lizenzzahlungen zu bewegen, die möglicherweise gegen sie verstoßen. Wer auch immer Programme entwickelt und diese in den USA anbietet, läuft potenziell Gefahr, die Rechte anderer zu verletzen – selbst wenn er die gleiche Erfindung ganz unabhängig und ohne Kenntnis des anderen Produkts gemacht hat. So etwas kommt vor, wie wir wissen. Auch Glühbirne und Telefon sind mindestens zweimal erfunden worden.
Zwei Traditionen sind es, die inzwischen miteinander verschmelzen: das kontinentaleuropäische Urheberrecht, das den Urheber als solchen in den Mittelpunkt stellt, und das aus dem angelsächsischen Raum stammende Copyright – also das Recht an der Vervielfältigung. Diese beiden Rechtstraditionen wirken auf den ersten Blick schwer vereinbar. Während die deutsche Tradition vom Persönlichkeitsrecht des Urhebers ausgeht, also der Herrschaft des Autors über sein Werk als Ausfluss seiner Persönlichkeit, seiner höchstpersönlichen Kreativität, die grundsätzlich als unveräußerlich angesehen wird, lässt sich in den USA das »Recht zur Kopie« vollständig veräußern. Das Urheberrecht sieht vor, dass man anderen Menschen oder auch Firmen oder Organisationen ein Recht einräumen kann, Werke zu nutzen. Das kann durchaus Vorteile haben: So kann eine Band die Nutzungserlaubnis verweigern, wenn eine rechtspopulistische Partei ihre Lieder in Wahlwerbespots benutzen möchte.
In den vergangenen Jahren haben sich Politiker immer wieder mit dem Urheberrecht und seinen verwandten Schutzrechten wie den sogenannten Leistungsschutzrechten, die nicht dem Urheber, sondern den Produzenten zukommen, befasst und daran herumgedoktert. Die USA gaben den Takt vor, wenn es darum ging, Schutzfristen zu verlängern. Anfang des 18. Jahrhunderts im Statute of Anne war man noch der Ansicht, dass 15 Jahre ab der Publikation und eventuell eine Verlängerung um nochmals 15 Jahre ausreichend wären. Die heutigen Urheberrechts- und Copyrightregime sehen hingegen erheblich längere Schutzfristen vor: für das Urheberrecht 70 Jahre zuzüglich Ablauf des Todesjahres des Urhebers. Wenn ein Maler im Jahr 1950 verstorben ist, dann endet das Urheberrecht an seinen Werken zum 1. Januar 2021. Die Schutzfristen für die verwandten Schutzrechte sollen mindestens 50 Jahre, teils künftig 70 Jahre ab dem Erscheinen gelten. Pläne der EU-Kommission sahen gar 95 Jahre vor. Diese Fristen verschieben den Schwerpunkt vom Schutz der Rechte des Urhebers hin zu den Rechten der Erben, zu Unternehmen und Verwertern: Unser Maler, der im Jahr 1950 gestorben ist, war vielleicht 60 Jahre alt. Mit 26 bekam er womöglich Kinder, die wiederum ebenfalls mit 26 Kinder bekamen. Bei den Nutznießern des Urheberrechtsschutzes im Jahr 2020 handelt es sich also gegebenenfalls um die Ururenkel. Dass diese mit der kreativen Leistung des Künstlers überhaupt nichts mehr zu tun haben, versteht sich von selbst.
Ein schwieriges Geflecht internationaler Verträge soll auch den internationalen Schutz der Urheber- und Vervielfältigungsrechte gewährleisten. Dabei sind heute insbesondere zwei Spieler auf der internationalen Bühne maßgeblich: zum einen die Vereinigten Staaten, zum anderen die Europäische Union. Damit diese internationalen Übereinkünfte funktionieren, sagen Politiker, müssten die Schutzfristen auf beiden Seiten des Atlantiks und damit de facto im Großteil der industrialisierten, reichen, westlichen Welt mit ihren entsprechenden Märkten gleich lang sein. In den USA hat das Repräsentantenhaus 1998 den sogenannten Sonny-Bono-Copyright-Term-Extension Act beschlossen. Das US-Parlament wurde zu diesem Schritt vor allem von mächtigen Unternehmen gedrängt: Vor allem ein Imperium, das auf der Basis von Comics entstanden war, hatte Angst um sein Geschäftsmodell.
Steamboat Willie wurde mit dem gleichnamigen Kinofilm erst in seinem Heimatland USA, dann auf der ganzen Welt das vermutlich einzige Nagetier, das seinem Erfinder viele Millionen, nun ja, Mäuse einspielte. Als Steamboat Willie am 18. November 1928 zum ersten Mal in New York aufgeführt wurde, konnte mit dem sich anschließenden Erfolg der schlauen »Mickey Mouse« niemand rechnen. Und schon gar nicht Walt Disney, der zusammen mit Ubbe Iwerks die Idee hatte und der der Maus die ersten 20 Lebensjahre auch seine Stimme lieh. Um die Zeichentrick-Maus und ihre Verwandten entstand ein Konzern, der Dagobert-Duck-ähnlich den Geldspeicher der Walt Disney Company füllte.
Inzwischen ist Micky Maus alt geworden, viel älter als ihr Schöpfer Walt Disney. Der starb im Dezember 1966, und damit wäre die prominente Maus nach damaligem US-Recht spätestens im Jahr 2017 zu Allgemeingut geworden. Jeder hätte dann mit der Comicfigur tun und lassen können, was er will. Dass das dem Interesse der Disney Company widersprach, liegt auf der Hand: Sie kann noch heute bei jeder Nutzung des Rundkopfes mit Scheibenohren die Hand aufhalten und lässt sich dieses Recht auch teuer bezahlen. Disney gehörte zu den treibenden Kräften dieser Verlängerung des Copyrights, zusammen mit anderen, die davon unmittelbar oder mittelbar wirtschaftlich profitierten. Mit der ursprünglichen Idee des Urheberrechts hat dies alles nichts mehr zu tun: Es geht nicht mehr nur darum, dass derjenige, der eine Idee hat, der sich kreativ betätigt, auch davon profitieren soll.
Die Macht und der Einfluss der Unterhaltungsindustrie in den USA sind groß. Immerhin finanziert sie den Wahlkampf vieler Politiker mit. Einige Wissenschaftler und Aktivisten in den USA sind beinahe verzweifelt an der Debatte über die Freunde des Mäuserichs und ihren politischen Einfluss. Sie verstehen die weitere Verlängerung des Copyrights als Behinderung des freien Austausches in Kultur und Wissenschaft zugunsten von kommerziellen Einzelinteressen. Solange das Copyright besteht und »alle Rechte vorbehalten« sind, muss man den oder die Urheber oder Inhaber des Urheberrechts vor jeder Nutzung eines Werks um Erlaubnis fragen und gegebenenfalls teuer dafür bezahlen, gleichgültig, für welche Zwecke man das Werk nutzt, ob kommerziell oder nicht-kommerziell.
Eine kleine Gruppe um Lawrence Lessig, Juraprofessor an der Harvard Law School, hatte eine hervorragende Idee, die auf den Erfahrungen und Erfolgen der Freien-Software-Community beruhte. Sie gründete das »Creative Commons«-Projekt, kurz CC. Die einfache Idee dahinter ist: Aus »Alle Rechte vorbehalten« wird »Manche Rechte vorbehalten«. Creative Commons entwickelte eine Art Baukasten für Kreative, mit dem sie ihre Werke mit vordefinierten Nutzungsfreiheiten versehen können. Sie können selbst entscheiden, ob ihr Werk zu nicht-kommerziellen oder zu kommerziellen Zwecken ohne weitere Erlaubnis weitergenutzt werden darf. Und sie können anderen erlauben, das eigene Werk weiter zu entwickeln, also zu remixen, oder auch lediglich zu kopieren. Und wenn sie das zulassen, können sie auch die weiteren Bedingungen der Nutzung definieren und eine »Re-Privatisierung« verhindern, indem sie zur Voraussetzung für die freie Nutzung machen, dass alle Weiterentwicklungen auch für andere frei zugänglich sein müssen. Die einzige Grundbedingung bei all diesen Wahlfreiheiten ist: Der Urheber steht im Mittelpunkt und muss immer genannt werden.
In den ersten Jahren haftete Creative-Commons-Lizenzen ein Amateur-Image an. In Deutschland ist diese Ansicht immer noch weit verbreitet. Das Modell ist hier teilweise mit dem althergebrachten Urhebermodell nicht kompatibel, weil dieses an einigen Stellen die Nutzung dieser neuen Lizenzierungsformen blockiert. So können Musiker nicht gleichzeitig Mitglied in der Verwertungsgesellschaft GEMA sein und Werke unter einer offenen Lizenz veröffentlichen. Deshalb bleiben die Musiker im Regelfall in der GEMA, da sie sonst Geld verlieren würden, das ihnen eigentlich zusteht.
International gibt es jedoch zahlreiche Beispiele für den erfolgreichen Einsatz von Creative Commons. Am bekanntesten ist die Gruppe »Nine Inch Nails«: Die Industrial Band feierte große Erfolge in den 1990er-Jahren. Im ersten Jahrzehnt unseres Jahrtausends trennte sich »NiN« von ihrer Plattenfirma, um fortan im Eigenvertrieb über das Netz zu veröffentlichen. Der erste Paukenschlag war 2008 das Konzeptalbum ›Ghost I-IV‹ mit 36 Tracks. Die ersten acht Tracks gab es zum kostenlosen Download unter einer Creative-Commons-Lizenz, die zu nicht-kommerziellen Zwecken auch das Remixen erlaubte. Wollte man das ganze Album haben, konnte man wahlweise 5 $ für den Download bezahlen oder man konnte verschiedene Pakete, z. B. als CD- oder LP-Version kaufen. Die Lieder standen alle unter derselben offenen Lizenz. Der erste Käufer hätte das Album legal in eine Tauschbörse stellen können, und alle anderen hätten es sich kostenlos und legal herunterladen können. Das hinderte die Fans aber nicht daran, das Album so oft zu erwerben, dass ›Ghost I-IV‹ auf Platz 1 der Amazon-MP3-Verkaufscharts für das Jahr 2008 landete. Dazu gab es auch eine »Ultra Deluxe Limited Edition« für 300 $. Die auf 2500 Stück limitierte Auflage mit Konzert-Videos, CD, Bildern und Grafiken, das alles in einer schönen Box, war innerhalb weniger Tage ausverkauft. Nine Inch Nails profitierte einerseits von der großen und treuen Fan-Basis. Andererseits halfen Tausende Blogger weltweit bei der Promotion, indem zum Beispiel Songs des Albums legal auf Blogs verlinkt wurden und auf das Album hingewiesen werden konnte.
Die größte Verbreitung von als Creative Commons lizenzierten Werken schaffte aber eine andere Plattform: Flickr.com. Die Foto-Sharing-Plattform ermöglichte ihren Nutzern schon Mitte der nuller Jahre, die hochgeladenen Bilder mit einer der sechs Standardlizenzen zu versehen und damit mehr Nutzungsrechte einzuräumen. Seitdem finden sich dort mehr als 200 Millionen CC-lizenzierte Werke. Die Suchmaschine ermöglicht explizit die Suche nach Nutzungsfreiheiten, so dass man bei Flickr in der Regel passende Bilder für jeden Zweck findet, die die notwendigen Freiheiten gewährleisten.
Doch auch in Deutschland werden Creative-Commons-Lizenzen zunehmend genutzt, unter anderem von offiziellen Stellen. Den Anfang machte das Bundesarchiv, das vor allem ein Problem hatte: Die Bundesbehörde verwaltet 11 Millionen Bilder, Luftbilder und Plakate zur neueren deutschen Geschichte. Mehr als 100 000 davon sind bereits digitalisiert. Darunter finden sich zahllose Bilder des Allgemeinen Deutschen Nachrichtendienstes ADN-Zentralbild der DDR, die Bilder der Propagandakompanien der Wehrmacht aus dem Dritten Reich, offizielle Bilder aus der Weimarer Republik und vor allem Bilder aus der Geschichte der Bundesrepublik, unter anderem vom Presse- und Informationsamt der Bundesregierung.
Aber es gab keine Ressourcen, um alle bereits digitalisierten Bilder mit Metadaten zu versehen. Um das Problem zu lösen, ging man 2008 einen neuen und innovativen Schritt: In Kooperation mit der Wikipedia-Community wurden mehr als 100 000 Bilder unter einer freien Creative-Commons-Lizenz (CC-BY-SA, also »Nutzung und Wiederveröffentlichung mit Namensnennung unter der gleichen Lizenz«) veröffentlicht, um sie auch in der Wikipedia nutzen zu können. Man entschied sich für eine schrittweise Öffnung. Die Bilder wurden in einer kleineren Version von nur 800 mal 600 Bildpunkten veröffentlicht. Wer eine größere druckfähige Version wünscht, kann diese immer noch beim Bundesarchiv erwerben.
Die Initiative des Bundesarchivs war für bundesdeutsche Verhältnisse eine kleine Revolution. Freiwillige der Wikipedia-Community helfen seitdem dem institutionalisierten, offiziellen Gedächtnis der Bundesrepublik, die Liste der Personendaten des Bildarchivs mit den Personendaten der Wikipedia und der Personennamendatei (PND) der Deutschen Nationalbibliothek zu verknüpfen. Mit dieser Arbeit hatte die Wikipedia-Community bereits Erfahrung und auch die nötigen Werkzeuge. Diese Verknüpfung ermöglicht es, gezielt unterschiedliche Medieninhalte (Bilder, Lexikoneinträge, Bibliografien) zu einer Person herauszusuchen und nicht mühsam unterschiedliche Personen gleichen Namens unterscheiden zu müssen. Der Erfolg dieses Vorgehens ist messbar: Im November 2011 teilte das Bundesarchiv eine Steigerung von 30 Prozent der ausländischen Nutzer mit und Einnahmensteigerungen um 193 Prozent sowie eine Steigerung von 230 Prozent bei den schriftlichen Anfragen. Die Nutzung der Creative-Commons-Lizenz hat das Interesse gesteigert und den Bilderschatz des Bundesarchivs endlich einfach nutzbar gemacht.
Sie halten vermutlich gerade ein Buch in den Händen. Oder ein Lesegerät mit dem E-Book, der digitalen Version dieses Buches. Die beiden Ausgaben haben das Wesentliche miteinander gemein: den Inhalt. Doch juristisch unterscheiden sie sich sehr. Wenn Sie dieses Buch gelesen haben, stellen Sie es vielleicht in ein Regal. Oder Sie leihen es einem Freund, Ihrer Mutter, Ihrem Sohn. Vielleicht möchten Sie es eines Tages weiterverkaufen. Über eBay, Amazon oder wie auch immer. Kein Problem. Das aber können Sie nur tun, wenn Sie die gedruckte Version gekauft haben. Wenn Sie die digitale Version erworben haben, dann geht das wahrscheinlich nicht. Denn elektronische Bücher sind keine Bücher, auch wenn der Inhalt derselbe ist. Man kann daran kein Eigentum erwerben, das man auch wieder verkaufen kann. Das können Sie nur, wenn Sie einen dicken Stapel bedrucktes Papier erwerben. Aus Sicht des Urheberrechtes ist nicht der Inhalt relevant, sondern das Trägermedium. Auf so eine Idee können wohl nur Juristen kommen.
Ähnlich verhält es sich mit Musik: Wenn Sie eine CD erwerben, dann kaufen Sie tatsächlich diese schillernde Scheibe. So will es das Recht. Nur an diesem Gegenstand gibt es ein Eigentum im strengen Sinne. Hier führt der Begriff des »geistigen Eigentums« doppelt in die Irre. Zum einen, weil das Urheberrecht in unserem kontinentaleuropäischen Rechtsverständnis kein Recht auf Eigentum, sondern ein Ausfluss des Persönlichkeitsrechts ist. Zum anderen hat Eigentum eine Eigenschaft, die digitale Güter nicht haben können: Eigentum bedeutet in der Regel, dass etwas eindeutig im Besitz eines Individuums ist, oder auch im Besitz mehrerer. Dann lässt es sich teilen wie ein Kuchen. Der eine hat vielleicht neun und der andere sieben von insgesamt 16 Stücken. Aber es ist eine eindeutige, definierbare Sache. Wie ein Buch, das in Ihrem Besitz ist. Sie können ein Buch natürlich auch kopieren und dann die Kopie weitergeben. Allerdings verliert jede Kopie deutlich an Qualität. Das galt früher auch für Träger von Tönen, Tonträger. Die Älteren erinnern sich daran, wie überspielte Kassetten von Mal zu Mal seltsamere Töne wiedergaben.
Digitale Güter sind jedoch verlustfrei reproduzierbar und kopierbar. Erst seit die Informationen auf den Trägermedien digital vorliegen, gibt es keinen hör- und nennenswerten Qualitätsverlust mehr. Und weil das so ist, so argumentieren Verlage, Musik- und Filmwirtschaft, müsse man jede Vervielfältigung unterbinden. Das ist ein Kampf gegen Windmühlen, und die Rechteindustrie reitet dabei wie einst Miguel Cervantes’ Romanritter von der traurigen Gestalt Don Quijote auf seinem Klepper Rosinante durch eine Umwelt, die sie nicht versteht. Dabei hätte alles ganz anders kommen können – und viel besser.
Der Streit um das Urheberrecht im Internetzeitalter hat viele Fronten. Eine davon ist der technische Fortschritt. Der deutsche Wissenschaftler Karlheinz Brandenburg entwickelte zusammen mit drei Kollegen ab dem Jahr 1982 neue Möglichkeiten, Musik digital zu speichern und dabei weniger Speicherplatz zu verbrauchen. Denn die Art und Weise, wie man Musik digital für die CD-Produktion speicherte, war zwar von hervorragender Klangqualität. Aber der Speicherbedarf war enorm: Auf eine handelsübliche CD passten etwa 650 Megabyte Daten – etwa 70 Minuten Musik. Brandenburg und seine Kollegen ersannen neue Verfahren: Sie ließen den Computer nach ähnlichen Stellen, nach Mustern suchen, die man deshalb nur mehrfach aufrufen, aber nicht mehrfach abspeichern musste, und sie schnitten alles ab, was für das menschliche Gehör nicht zugänglich war. Insbesondere der Vorgang zur Mustererkennung brauchte jedoch für damalige Zeiten starke Rechenleistungen: Die Umrechnung der Inhalte einer einzigen CD konnte handelsübliche Computer für den Heimgebrauch durchaus eine Nacht lang beschäftigen. In den 1990ern bekam die neue Kompressionstechnik dann ihren endgültigen Namen: MP3. Doch das Format alleine hätte die Musikindustrie nicht zu ihrem Kreuzzug gegen das aufkommende Internet motiviert.
Das erste Vorgeplänkel dazu kam mit der massenhaften Verbreitung von CD-Brennern. Ab der Mitte der 1990er Jahre war die Herstellung von CDs auch zuhause möglich, da entsprechende Geräte und die zugehörigen Scheibenmedien günstige Massenware wurden. Das »Brennen« der schillernden Scheiben war zwar nur ein historischer Zwischenschritt, führte aber dahin, wo wir uns heute befinden – ins Zeitalter der verlustfreien Vervielfältigungsmöglichkeit. Als die Preise für Festplattenspeicher in den Keller gingen – 1995 kosteten Festplatten mit einem Gigabyte Speicher, also mit Platz für etwa eineinhalb unkomprimierte Audio-CDs, noch mehrere Hundert Mark – und sich neue Formen für die Speicherung durchsetzten, waren die technischen Voraussetzungen geschaffen, um Medien jeder Art in fast beliebig großer Zahl zu speichern.
Was fiel der Musikindustrie daraufhin ein? Sie produzierte CDs, die technisch betrachtet »kaputt« waren (und daher am Ende auch gar nicht mehr CD genannt werden durften). Kopierschutz hieß das Zauberwort. Es ist mit Sicherheit eine der absurdesten Folgen des Lobbyings der Rechteindustrie, dass im heute gültigen Urheberrechtsgesetz steht, eine »wirksame technische Maßnahme zum Schutz eines nach diesem Gesetz geschützten Werkes [dürfe] ohne Zustimmung des Rechteinhabers nicht umgangen werden«, sofern der Nutzer dies weiß oder bemerkt. Aus dem Juristendeutsch übersetzt heißt das: Ich darf nichts kopieren, was ich nicht kopieren kann oder von dem ich weiß, dass es gegen das Kopieren eigentlich geschützt sein soll. Wenn ich es jedoch weder weiß noch bemerke, dann ist das wiederum grundsätzlich im Rahmen des Erlaubten möglich. Dann ist doch alles klar, oder?
Um diese Regelung vollends im Reich des Blödsinns zu verorten, genügt ein Blick auf die Folgen: Tatsächlich wurde als eine Folge dieser Gesetzesänderungen der Vertrieb von Programmen untersagt, die echte Kopien von CDs erlaubten. Dass diese natürlich trotzdem weiterexistierten, versteht sich von selbst. Die Lobbyisten der Musikindustrie hatten wieder einmal einen gesetzgeberischen, später dann auch gerichtlichen Pyrrhussieg errungen.
Ein Name steht wie kaum ein anderer für den Kampf der Musikindustrie gegen das Internet und die digitale Vervielfältigung: Napster. Napster war die erste Software, die sinnvoll zum Austausch von Musikdateien genutzt werden konnte. Ihre große Stärke: Sie etablierte das sogenannte Peer-to-Peer-Prinzip. Das bedeutet, dass es keinen zentralen Rechner mehr gibt, auf dem die Dateien gelagert werden müssen. Ein Teilnehmer, ein Peer, kann seine Daten direkt zu einem anderen Peer übertragen. Napster war die Geburtsstunde der Massennutzung digitaler Tauschbörsen. Und es war unglaublich einfach: Die Napster-Software analysierte die Musikdateien der Nutzer und bildete eine Art Identifikationsnummer. Napster bildete bei sich selbst nur einen Index der Fundstellen ab und speicherte keine Dateien. Nun konnten die Nutzer von vielen verschiedenen Computern kleine Teile einer Datei laden. Alles, was sie dazu machen mussten: Musikstücke via Napster suchen (lassen) und auswählen.
Shawn Fanning war, als er Napster entwickelte, noch Student. So wie Mark Zuckerberg ein Student war, als er mit Facebook anfing, so wie Larry Page und Sergej Brin noch an der Uni ihre ersten Schritte unternahmen, um Google zu gründen. Die Menschen, die mit dem Internet die Welt verändern, sind meistens keine klassischen Unternehmer. Sie kommen nicht aus Unternehmerfamilien, sie haben eine Idee, und wenn sie genug Menschen für diese begeistern können, fängt sie an, zu fliegen. Und Napster konnte die Menschen für sich begeistern.
Waren es zu Beginn nur wenige Tausend Nutzer, die diesen Service nutzten, sollte sich dies bald ändern: Napster wurde zum Massenphänomen. Und während zu Beginn das Finden von Musikstücken noch eine Ausnahme war und das Herunterladen aufgrund der langsamen Internetverbindungen der meisten Nutzer bei besonders seltenen und langen Stücken in guter Qualität auch einmal erst nach Wochen abgeschlossen war, wurde dies in den knapp drei Jahren, die Napster am Netz war, immer komfortabler. Mehr Nutzer, schnellere Leitungen, verbesserte Software: Napster machte den Menschen Musik aus der ganzen Welt zugänglich (und beinhaltete zudem später auch eine Chatfunktion, anhand derer Nutzer miteinander ins Gespräch kommen konnten und dies auch häufig taten).
Napster veränderte die Welt und insbesondere auch das Hörverhalten. Bisher hatte die Musikindustrie immer möglichst versucht, ganze Alben zu verkaufen. Das hieß, man bekam die zwei Lieder, die man wirklich wollte. Und bezahlte aber noch weitere vielleicht interessante, oft aber auch viele schlechte Songs, die man mitgeliefert bekam. Außerdem bekam man natürlich noch die Cover. Manche davon wurden sogar zum Kult, wie die Cover-Beatles auf der Abbey Road oder das 1991 erschienene Cover mit einem schwimmenden, nackten Baby des Nevermind-Albums der Grunge-Band Nirvana. Mit der Musik selbst hatte das nichts zu tun. Doch Napster sprach die Rosinenpicker an, diejenigen, denen es nur um die Musik ging. Damit war auch die Verkaufsidee, dass ein Album zusammen mit dem Cover-Artwork, also der Kunst auf der Hülle, und dem Begleitheft, dem Booklet, ein Gesamtkunstwerk bildet, was sich die Hersteller auch kräftig bezahlen ließen, passé.
Für die Nutzer waren es fantastische Zeiten: Alles für alle, und das umsonst. Napster und seine Verwandten wurden immer besser, AudioGalaxy ermöglichte seinen Nutzern sogar einen ganz besonderen Service: Die gesamte Audioverwaltung war auch über den Webbrowser möglich. Also konnte man überall, wo es Internet gab, »herunterladen« sagen, und wenn man zu seinem Rechner kam, waren die meisten Lieder bereits da. Doch auch diese Tauschbörsen hatten einen großen Nachteil: Sie waren im Kern angreifbar, da sie über zentrale Rechner ihren Index der Musikstücke verwalteten. Als die Musikindustrie bemerkte, was da im Internet vor sich ging und wie sich die Nutzer über ihre neugewonnenen Möglichkeiten freuten, nahm sie Shawn Fanning und seine Firma Napster ins Visier.
Napster war das erste, aber nicht das letzte Opfer in diesem Kampf gegen das Internet. Die Musikwirtschaft war der erbittertste Gegner des Netzes: mit allerlei Einflussnahme auf die Politik, immer wieder neuen Wünschen und teils absurden Zahlenspielen über die Verluste ihrer Branche durch die bösen Raubkopierer. Jeder Download, hochgerechnet aus Stichproben, sei mit einem nicht bezahlten Song gleichzusetzen. Als ob jedes aus dem Netz gesaugte Lied ansonsten gekauft worden wäre. Mit dieser Logik kam die eindrucksvolle Zahl von 1,4 Milliarden Euro Verlust zustande, mit der der Politik von der europäischen Musikindustrie im Juli 2000 dringender Handlungsbedarf signalisiert wurde. Tatsächlich waren die Verluste deutlich geringer.
Unstrittig hatte die Musikindustrie Einbußen. Woher sie kamen, steht jedoch auf einem anderen Blatt. Die Wirkung eines historisch einmaligen Effekts war abgeklungen. Er hatte ebenfalls mit einem Trägermedium zu tun. Nach der Einführung der CD konnte man den Menschen genau die gleiche Musik, die sie schon auf einer Vinyl-Schallplatte gekauft hatten, noch einmal verkaufen. Das hatte der Musikwirtschaft zwar hohe Einkünfte garantiert, aber in einem überschaubaren Zeitraum.
Man hätte denken können, dass die Plattenlabels Napster, Kazaa, Gnutella und die anderen Tauschbörsen als Herausforderung begreifen und selbst Angebote im Netz machen würden. Doch die Manager in den Chefetagen der Labels waren vor allem eines: ignorant. Statt mit eigenen, innovativen Konzepten an einer Zukunft ihrer Branche in der digitalen Gesellschaft zu arbeiten, setzten sie auf andere Wege: technische und juristische Bekämpfung jedweder Weitergabe. Und das auch auf Kosten des Nutzerkomforts.
Nun hatten die Nutzer zwei Möglichkeiten: Entweder kauften sie eine Musikdatei auf einer der wenigen von den Musiklabels mit den notwendigen Urheberrechtslizenzen ausgestatteten Plattformen. Dort bezahlten sie aber für Dateien, die mit Kopierschutzsystemen ausgestattet waren, daher nur auf wenigen Geräten problemlos liefen und bei denen es fraglich war, ob man sie dauerhaft hören konnte. Man bekam auch nur wenige Songs auf diesem Weg. Manche Labels wollten lange Zeit überhaupt keine Musik als Dateien vertreiben. Oder aber die Nutzer pfiffen auf die Musikindustrie und verstießen gegen das Urheberrecht. Dafür bekamen sie alle möglichen Songs, ohne dass sie sich Gedanken darüber machen mussten, ob die auch auf dem MP3-Player liefen oder auf dem nächsten Computer noch zu hören waren. Und hatten dann ein schlechtes Gewissen deshalb, weil der Künstler kein Geld dafür sah, der im Zweifel ohnehin einen schlechten Vertrag mit dem Plattenlabel hatte. Das etwa war die Entscheidungssituation, vor der die Nutzer standen. Und die meisten entschieden sich vorerst dafür, das eher geringe Risiko rechtlichen Ärgers mit den Rechteinhabern einzugehen, statt ihr Geld für Schrottdateien aus dem Fenster zu werfen.
Erst als Apple den iPod entwickelte, kam Bewegung in die Labels. Apple nutzte die Lage der Musikindustrie als »lahme Ente« aus: Mit dem iPod bot der Gerätehersteller aus dem kalifornischen Cupertino nicht nur eine von vielen Kunden geschätzte, einfach zu bedienende Lösung für das Hören digitaler Musik an. Er brachte auch gleich noch etwas mit, das die Musikindustrie aufhorchen ließ: einen kompletten Vertriebsweg. Denn der iPod war und ist eigentlich nur über die Apple-iTunes-Software anständig zu verwalten. Und mit der iTunes-Software ist ein Onlineshop verbunden: Apples iTunes Store. Apple sprach mit einigen der Labels. Und die witterten eine große Chance: Wenn der iPod auf so ein großes Echo stößt, müssten dann nicht auch die Chancen groß sein, damit Geld zu verdienen, dass man dort Musik anbietet? Aber natürlich, da waren sich die Musiklabels sicher, nur dann, wenn man diese Dateien kopiergeschützt verkauft. Apple hatte dafür auch gleich die passende Lösung: ein eigenes Format. Nicht MP3, was keinen Kopierschutz vorsieht, sondern AAC-Dateien wurden über die Plattform verkauft. Apple war in einer überaus komfortablen Situation: Die Firma hatte, was die Labels wollten. Einen Shop, eine Softwarelösung und die Geräte beim Endkunden. Da konnte man nicht nein sagen.
Fast alle großen Labels stellten ihre Songs auf der Plattform zur Verfügung, für 99 Cent pro Stück. Für die Plattenfirmen war es ein Test: Vielleicht konnte man ja online doch Geld verdienen. Man verabschiedete sich von dem Album-Konzept, das man lange Zeit wie ein Mantra vor sich hergetragen hatte. Doch die Nutzer waren nicht zufrieden. Das AAC-Format funktionierte nur mit Apple-Software, nur diese konnte erkennen, wie viele der fünf unter der Lizenz erlaubten Geräte zum Abspielen der Musik bereits in Verwendung waren. Wer einen anderen MP3-Player besaß oder wer die iTunes-Software schlicht nicht mochte, der war außen vor. Doch würde Apple seine Nutzer dauerhaft enttäuschen?
EMI war eines der traditionsreichsten und größten Plattenlabels der Welt. Es ist das Label, das seit 1932 fast 15000 Künstler unter Vertrag hatte, mit Weltstars wie R. E. M., Joe Cocker, Janet Jackson und Elvis Presley Erfolge feierte. Aber es war noch etwas anderes: immer wieder am Rande des Ruins. Als EMI im Jahr 2007 in akuten Finanznöten war, kam es zu einer überraschenden Wendung: Apple versprach dem Unternehmen eine Vorauszahlung – im Tausch gegen den nervigen Kopierschutz. Der musste weg, wenn die Nutzer etwas mehr zu bezahlen bereit waren. Bis dahin hatten die Musiklabels als eine einheitliche Gruppe agiert, doch die chronisch klamme EMI brach aus der Phalanx aus. Was nun folgte, war ein Dominoeffekt: Die anderen Musikkonzerne mussten umgehend nachziehen, ohne dass sie die gleichen Konditionen wie EMI bekommen hätten. Die Nutzer bekamen ab sofort Dateien geliefert, die fast überall abzuspielen sind. Und die auch problemlos zu kopieren sind.
Das Einzige, was ausblieb, war die Katastrophe: Die Nutzer kauften mehr und mehr MP3-Dateien, mit denen sie nun ja auch wirklich etwas anfangen konnten. Anders als es die Rechteindustrie oft hatte glauben machen wollen, sind viele Menschen grundsätzlich wohl doch gewillt, für Werke zu bezahlen – wenn sie dabei nicht entrechtet werden. Heute müssen selbst die härtesten Lobbyisten aus Musik-, Film- und Verlagswirtschaft zugeben, dass ihre früheren Aussagen schlicht falsch waren und sich ihr Geschäftsmodell zwar gewandelt hat, aber nicht grundsätzlich obsolet geworden ist.
Nach wie vor werden Studien veröffentlicht, die zeigen sollen, wie schlecht es der Rechteindustrie geht und dass die bösen Raubkopierer daran schuld seien – zuletzt im Spätsommer 2011. Das mit dem Internet sei schrecklich, und deshalb brauche man dringend Sanktionen, bis hin zur Abschaltung des Internetzugangs bei Verstößen. Doch die eigenen Zahlen sprechen eine ganz andere Sprache: Allein von 2009 auf 2010 stieg die Zahl der bezahlten digitalen Downloads im Bereich Musik um über 30 Prozent an. Seit man sich dort von der Verkrüppelung der Musikdateien verabschiedet hat, sind Nutzer durchaus bereit, dafür Geld auszugeben. Die Auftragsstudie der Wirtschaft konnte nicht mehr als fünf Prozent der Bevölkerung ausfindig machen, die überhaupt möglicherweise nicht legale Kopien von urheberrechtlich geschützten Inhalten heruntergeladen hatten. Und das, obwohl die Auftraggeber jeden Download unbezahlter Medien-Inhalte aus dem Netz für potenziell kriminell erklärten, was keineswegs der Fall sein muss. Denn natürlich gibt es auch Angebote, bei denen vollkommen legal kostenlos Werke genutzt oder heruntergeladen werden können.
Die Geschichte von iTunes und der Musikindustrie zeigt: Die Labels haben ihre Kunden nicht verstanden. Aber eine Hard- und Softwarefirma, die durch gute Ideen und geschickte Strategie die Musikindustrie ins nächste Jahrtausend katapultierte. Die Worst-Case-Szenarien der Musikbranche blieben aus. Menschen sind bereit für Musik zu bezahlen, wenn man ihnen keinen stinkenden Fisch, sondern funktionierende Lösungen und eine breite Palette anbietet, die fast jeden Geschmack befriedigt. Verloren hat die Musikindustrie bei dieser Episode des Übergangs in die digitale Gesellschaft dennoch, und das gleich doppelt.
Da ist zum einen die sogenannte »verlorene Generation«: Das Vorgehen der Labels, oft mit juristischen Mitteln, gegen jeden, den sie beim Dateitauschen erwischen konnten, die Kriminalisierung der Nutzer mit großen Anzeigenkampagnen unter dem Motto »Copy kills Music«, all das hat nicht viel genutzt. Aber es hat nachhaltig geschadet. Das Image der Musikindustrie ist bei einer ganzen Generation so nachhaltig beschädigt, dass sie im Netz oft nur »Musikmafia« oder ähnlich genannt wird. Tausende Nutzer, die Dateien im Netz anboten, wurden von spezialisierten Abmahnanwälten auf Unterlassung in Anspruch genommen – ein lukratives Geschäftsmodell, das in seinen Ausmaßen eine relevante Einnahmequelle für die Musikbranche darstellt. Aber wie will man Menschen, denen man erst kein Angebot macht, während man sie die ganze Zeit als Kriminelle beschimpft und juristisch verfolgt, denn jemals davon überzeugen, dass die Musikwirtschaft gar nicht so schlimm ist und dass es wohl doch richtig wäre, für Inhalte auch einen Obolus zu entrichten?
Tatsächlich erscheint dies als hoffnungsloses Unterfangen. Wer heute zwischen 15 und 40 Jahren alt und im Internet zuhause ist, der reagiert nur zu oft mit Verachtung, Geringschätzung und Missfallen auf jedes Wort aus diesen Kreisen. Dass die Musikwirtschaft einen wertvollen Beitrag zur kulturellen Vielfalt leiste, das jedenfalls nimmt ihr in dieser Gruppe kaum einer ab. Dabei sollte man nicht ganz vergessen: Auch wenn sie im Netz verhasst sind – Musikwirtschaft, Film- und Verlagswirtschaft haben ihren Stellenwert für das System der Medienproduktion, für professionelle Förderung und Produktion von Künstlern und ihren Werken. Weshalb es eigentlich wünschenswert wäre, wenn diese auf die Nutzer einen Schritt zugehen und mit ihnen ins Gespräch kommen würden. Doch noch sind die Lerneffekte überschaubar. Man könnte auch auf die Idee kommen, dass andere Zweige aus den Anfangsfehlern der Musikwirtschaft gelernt hätten. Aber weit gefehlt: Weder die Film- noch die Buchbranche scheinen gewillt oder fähig, die Fettnäpfchen auszulassen, die dort ausgiebig ausgetestet wurden. Weder der Börsenverein des deutschen Buchhandels – im Netz bereits als Bösenverein verballhornt – noch die Filmwirtschaft zeigen irgendein gesteigertes Maß an Nutzerverständnis. Stattdessen tönen sie mit der Musikwirtschaft unisono: Verlängern, verschärfen, verklagen.
Wer kann sich darüber wundern, wenn nun die Netzgeneration auf die Straße geht, um gegen das ACTA-Abkommen zu demonstrieren? Um Politikern ein großes »so nicht« ins Stammbuch zu schreiben? Um klarzumachen, dass man keine abstrakten Gesetze beschließt, sondern konkrete Betroffenheit erzeugt? Dass sie sich in ihren Rechten beschnitten fühlen und ihre demokratischen Rechte gefährdet sehen, wenn statt einer notwendigen Urheberrechtsreform das bestehende und offensichtlich defekte Regime auf ihre absehbare Lebenszeit hin zementiert werden soll?
Beim Urheberrecht geht es um etwas, das wir in diesem Ausmaß in der prä-digitalen Gesellschaft eigentlich nicht kannten: Der Streit geht um Güter, die nicht unmittelbar an ein bestimmtes physisches Objekt gebunden sind. Weil wir diesen Wandel erlebt haben, ist es für uns normal, dass ein Musikstück auch ohne ein Trägermedium auskommt, ein MP3 sein kann – eine kleine Datei, keine Kassette, Schellack- oder Vinylplatte. So wie Kommunikationsvorgänge jeder Art digital stattfinden können. Was heißt das für das Urheberrecht?
In seiner bisherigen Form ist es am Ende einer Sackgasse angekommen. Es ist zu Tode lobbyiert worden, von den ursprünglichen Intentionen ist wenig übrig geblieben. Statt den Urheber und dessen Werk vor Missbrauch zu schützen und ihn in seiner Verhandlungsposition zu stärken, ist es ein Recht, das vor allem den »Werkmittlern«, den Zwischenhändlern und den großen, organisierten Rechteverwertern zugute kommt. Der Politik ist das nur zum Teil bewusst, doch die Konflikte der vergangenen Jahre drohen sich ohne eine grundlegende Reform weiter zu verschärfen. Das komplexe Konstrukt aus internationalen Vertragswerken, aus europäischen Richtlinien und nationalem Recht, aus nationaler Organisation und internationaler Nutzung führt dazu, dass diejenigen, die vorgeben, dass sie das Urheberrecht schützen wollen, es am Ende selbst zum Scheitern bringen. Dabei wären die ersten Schritte zu einem Urheberrecht für die digitale Gesellschaft gar nicht so schwer. Doch dafür müsste man die Realitäten anerkennen, was Politik und Wirtschaft naturgemäß schwerfällt, oft viel schwerer als den Urhebern.
Zum einen wäre da die Frage, was schützenswert ist und vor wem – und dann auch noch, in welchem Maße dies sinnvoll ist. Jedem Menschen, der ein Werk schafft, muss sein Urheberrecht zustehen. Denn er ist kreativ, hat seine Zeit, seine Fähigkeiten und auch sein Geld investiert. Doch in dem Moment, in dem sich ein Mensch entschließt, dass er sein Werk nicht nur für sich nutzen, sondern auch der Öffentlichkeit zugänglich machen und davon profitieren möchte, tritt neben das Urheberrecht eine Verpflichtung: die Verpflichtung, das Werk der Allgemeinheit nicht grundlos vorzuenthalten.
Das schließt die Frage der Schutzfristen ein, die deutlich reduziert statt verlängert werden müssten. Das schließt auch ein, dass man deutlicher zwischen einer kommerziellen und einer nicht-kommerziellen Nutzung unterscheidet. Eine nicht-kommerzielle Nutzung, beispielsweise zu Lehr- und Lernzwecken, aber auch die nicht-kommerzielle Verbreitung von Werken sollte in absehbarer Zeit nach der Veröffentlichung möglich werden und der Standard sein, von dem unter bestimmten Bedingungen abgewichen werden kann.
Wenn Verlage, Film- und Buchbranche sowie Urhebervertreter sagen, dass »Werke ihren Wert« haben müssten, dann haben sie zweifelsohne recht. Wer sein Werk länger als einen bestimmten Zeitraum – zum Beispiel fünf Jahre ab Erstveröffentlichung – der nicht-kommerziellen Nutzung durch die Öffentlichkeit vorenthalten möchte, muss die Möglichkeit dazu haben. Aber dazu sollte er/sie aktiv werden müssen, zum Beispiel, indem man diese Verlängerung der kommerziellen Nutzung gegen eine Gebühr registrieren lässt. Die nicht-kommerzielle Nutzung von Werken hingegen sollte kostenlos verlängerbar sein.
Auch die weiteren Rechteinhaber sollten die Möglichkeit zur Verlängerung bekommen: Für die sogenannten verwandten Schutzrechte, wie sie Musikwirtschaft und Filmwirtschaft kennen, müsste die Gebühr aber deutlich höher sein als bei den Urheberrechten. Der Schutz eines Werkes sollte auf maximal weitere 25 Jahre, insgesamt also 30 Jahre Schutzfrist beschränkt sein. Die »Lebensdauer« von Inhalten ist sehr unterschiedlich. Es ist eher unwahrscheinlich, dass das vorliegende Buch im Jahr 2042 noch auf dem Markt ist und verkauft werden kann. Wenn das der Fall sein sollte, dann müssten sich die Autoren und auch der Verlag bis spätestens zum Jahr 2042 etwas Neues einfallen lassen, von dem sie weiter zehren könnten. Das halten wir für machbar.
Besonders umstritten ist die Frage, wie Urheber künftig im digitalen Raum vergütet werden könnten. Es gibt den Vorschlag, dass es für die nicht-kommerzielle Nutzung eine Art Pauschalabgabe geben könnte. Unter dem Namen »Kulturflatrate« wurde die Idee bekannt. Dahinter verbergen sich jedoch viele verschiedene Modelle. Eines der bekanntesten lautet etwa so: Abhängig von der Geschwindigkeit des Internetzugangs – und damit der Nutzungsmöglichkeit für urheberrechtlich geschützte Werke – zahlen Privatpersonen eine Pauschale, die an die Urheber entsprechend eines Verbreitungsschlüssels ausgezahlt wird. Das klingt auf den ersten Blick sehr einfach, wird aber im Detail recht kompliziert – wenn auch nicht komplizierter, als es heutige Urheberabgaben beispielsweise auf Kopierer, MP3-Player und ähnliche Geräte sind. Auch bei diesen sind komplizierte Verfahren notwendig, um zu ermitteln, wem wie viel Anteil an den hierdurch entstehenden Einnahmen zusteht. Es wäre also notwendig, Befragungen durchzuführen, wie sie heute schon die Grundlage der Werbeerlösmodelle vieler klassischer Medien wie des Rundfunks sind. Das könnte man unter Beteiligung der Nutzer durchführen: indem man sie bittet, anonymisiert Daten über von ihnen konsumierte Medien zur Verfügung zu stellen. Dies dürfte bei einer mittelgroßen Beteiligung der Nutzer tatsächlich wesentlich genauer sein als alle anderen Messmethoden zum Medienkonsum. Damit könnte die Verteilungsgerechtigkeit, die heute bei solch kollektiven Abgabesystemen fraglich ist, wesentlich verbessert werden.
In einem weiteren Schritt müssten die Nutzer ein Anrecht darauf bekommen, dass der Inhalt, den sie erworben haben, auch tatsächlich einen Wert hat, und zwar unabhängig vom Trägermedium und nicht nur dann, wenn er auf einem Stapel von Blättern oder auf einer Scheibe transportiert wird. Es sollte ihnen möglich sein, die erworbenen digitalen Werke auch weiterzuverkaufen. Denn es gibt keinen sachlichen Grund, warum jemand, der 1000 Euro für Musik als MP3 ausgibt, schlechter gestellt werden sollte als jemand, der 1000 Euro in CDs investiert hat. Beide haben brav für die Werke bezahlt, nicht für das Trägermedium.
Einer der heikelsten Punkte ist die Frage, wie mit dem Werk als solchem umgegangen werden darf. Dürfen Nutzer ein Werk »remixen«, ohne den Autor zu fragen? Dürfen sie ein solches Remixwerk dann veröffentlichen, jedenfalls nicht-kommerziell? Diskutiert man diese Frage mit Menschen, die Urheber sind, die Werke schaffen, stößt man oft zuerst auf Ablehnung. Dass die Nennung des ursprünglichen Urhebers in einem solchen Fall zwingend ist, das ist unstrittig. Darüber hinaus kommt es immer auf den Zweck und die Umstände an. Tatsächlich ist auch hier die Frage zu stellen, welcher Nachteil einem Urheber entsteht, wenn sein Werk ohne ein Verwertungsinteresse umgenutzt wird. Ein finanzieller Nachteil ist es nicht. Ist es ein ideeller Nachteil, weil ein Werk als in sich geschlossene kreative Leistung betrachtet wird, die unantastbar sein muss und nicht von Hinz und Kunz sozusagen verändert werden darf? Diesen Standpunkt kann man durchaus einnehmen. Vielen Filmkünstlern zum Beispiel ist die Idee grundsätzlich zuwider, dass jemand aus ihrem Werk ein paar Sekunden herausnimmt und für etwas Neues verwendet. Sie empfinden das als Zerstörung. Aber diese Empfindung hat auch ihre Grenzen, jedenfalls wenn es sich nicht um Hinz und Kunz, sondern zum Beispiel um Quentin Tarantino handelt, der so etwas vor hat. Und zumal, wenn sich damit Geld verdienen lässt. Wenn ein großes Unternehmen eine Sequenz für einen Werbespot verwenden will und dafür entsprechend bezahlt, dann spielt die Unantastbarkeit des Werkes oft keine so große Rolle mehr.
Unserer Ansicht nach sollte man an nicht-kommerzielle Nutzungsarten urheberrechtlich geschützter Werke grundsätzlich niedrigere Hürden anlegen als dann, wenn jemand mit der Nutzung Geld verdienen möchte. Eine Benachrichtigungspflicht gegenüber dem Urheber und eine Widerspruchsmöglichkeit von seiner Seite müssten ausreichen, sobald ein Werk seine unmittelbare, aber im Vergleich zu heute deutlich verkürzte Schutzfrist überschritten hat und diese nicht verlängert wurde. Dies in Erfahrung zu bringen kann einem Remixer zugemutet werden, sofern nachvollziehbar ist, wer der Urheber ist. Dafür benötigt man ein Register der geschützten Werke, wie wir es bereits vorgeschlagen haben. Was nicht registriert ist und älter als der definierte Zeitraum, kann nicht-kommerziell dann frei genutzt werden.
Mit diesen Vorschlägen wären nicht alle Probleme gelöst. Mit Sicherheit kann man daran noch einiges verbessern. Sie sind auch nicht einfach umzusetzen, denn dafür müssten eine Vielzahl internationaler Vertragswerke und das komplette heutige System der Rechteverwertung reformiert werden. Aber es nutzt auch nichts, einfach nur auf den althergebrachten Regeln zu beharren, wenn sie durch die digitale Wirklichkeit ständig ad absurdum geführt werden. Die Debatte um das Urheberrecht muss mit konkreten Vorschlägen geführt werden, die an die neuen Gegebenheiten angepasst sind. Wenn die Urheber in der digitalen Gesellschaft ihre Rechte geachtet wissen wollen, müssen sie sich auf die Nutzer zubewegen. Und die Nutzer müssen von der vielleicht liebgewonnenen Position Abstand nehmen, dass sie sich um Urheberrechte nicht scheren, weil die Rechteverwerter eh nur blutsaugende Schmarotzer sind. Das wäre im Sinne aller Betroffenen und Beteiligten.