Niet lang nadat Nietzsche zijn schrijfbal kocht, ging een jonge man, genaamd Frederick Winslow Taylor, de Midvale-staalfabriek in Philadelphia binnen, gewapend met een stopwatch. Hij begon een reeks historische experimenten met als doel de fabrieksarbeiders efficiënter te laten werken. Met de weinig enthousiaste goedkeuring van de fabriekseigenaren rekruteerde Taylor een groep arbeiders, zette hen aan het werk achter verschillende machines en nam precies op hoeveel tijd ze voor elke handeling nodig hadden. Door elke taak op te splitsen in een reeks kleine stappen en vervolgens verschillende manieren uit te testen om die stap zo goed mogelijk uit te voeren, ontwikkelde hij een reeks nauwkeurige instructies – een ‘algoritme’, zouden we tegenwoordig zeggen – voor elke individuele arbeider. De arbeiders waren niet blij met dit strikte nieuwe regime en mopperden dat ze op deze manier niet meer waren dan robots. Maar de productiviteit ging met sprongen omhoog.1

Meer dan een eeuw na de uitvinding van de stoommachine had de industriële revolutie eindelijk haar ware filosofie en fi- losoof gevonden. Taylors strakke industriële choreografie – zijn ‘systeem’, zoals hij het graag noemde – kreeg overal in het land en, later, elders in de wereld navolging. In hun streven naar optimale snelheid, optimale efficiency en optimale productie gebruikten fabriekseigenaren allerlei tijd-en-bewegingonderzoeken om het werk van hun arbeiders zo goed mogelijk te organiseren. Het doel was, zoals Taylor het uitdrukte in The Principles of Scientific Management, zijn beroemde verhandeling uit 1911, om voor elk soort werk de ‘enig beste methode’ te bepalen en zo ‘geleidelijk de vuistregels voor de hele mechanica te vervangen door wetenschap’.2 Wanneer zijn systeem eenmaal zou worden toegepast op alle soorten handwerk, dan zou het, zo verzekerde Taylor zijn vele volgelingen, leiden tot een herstructurering niet alleen van de industrie maar van de hele maatschappij, en zo een Utopia van perfecte doelmatigheid creëren. ‘In het verleden kwam de mens op de eerste plaats,’ verklaarde hij, ‘in de toekomst moet het systeem op de eerste plaats komen.’3

Taylors systeem van meting en optimalisering is nog altijd sterk aanwezig en blijft een van de pijlers van onze industrie. En dankzij de groeiende macht die computerontwerpers en programmeurs tegenwoordig uitoefenen op ons intellectuele en sociale leven, begint Taylors ethiek ook het domein van de geest te beheersen. Het internet is een machine die ontwikkeld is voor de efficiënte, geautomatiseerde vergaring, overdracht en manipulatie van informatie. Talloze programmeurs proberen naarstig de ‘enig beste manier’– het perfecte algoritme – te vinden om de mentale handelingen uit te voeren die we ‘kenniswerk’ zijn gaan noemen.

Googleplex, het Google-hoofdkwartier in Silicon Valley, is de moederkerk van het internet, en de religie die binnen die muren gepredikt wordt, is het taylorisme. Volgens CEO Eric Schmidt is het bedrijf ‘gebouwd rond de wetenschap van meting’. Het probeert alles wat het doet, te systematiseren.4 Volgens Marissa Mayer, een andere executive bij Google, probeert het bedrijf alles te kwantificeren: ‘We leven in een wereld van getallen.’5 Op basis van terabytes aan gedragsgegevens, die het bedrijf verzamelt via zijn zoekmachine en andere sites, voert het dagelijks duizenden experimenten uit. De resultaten worden gebruikt om de algoritmes te verfijnen die in toenemende mate bepalen hoe wij onze informatie vinden en er betekenis aan ontlenen.6 Wat Taylor deed voor het handwerk, doet Google voor het werk van de geest.

De mate waarin het bedrijf op testen vertrouwt is befaamd. Hoewel het ontwerp van zijn webpagina’s simpel en zelfs sober lijkt, is elk element ervan uitgebreid statistisch en psychologisch getest. Met behulp van een techniek die ‘split A/B testing’ wordt genoemd, introduceert Google constant subtiele veranderingen in de vormgeving en werking van zijn sites. Het laat verschillende van die minieme wijzigingen zien aan verschillende typen gebruikers en kijkt dan hoe die varianten het gedrag van de gebruikers beïnvloeden: hoe lang ze op een pagina blijven, hoe ze de cursor over het scherm bewegen, waar ze wel en niet op klikken, en waar ze vervolgens naartoe gaan. Behalve het automatische onlineonderzoek voert Google ook eye-tracking en andere psychologische testen uit bij vrijwilligers. Die vinden plaats in het eigen laboratorium, het zogenaamde usability lab. ‘Omdat websurfers de inhoud van de pagina’s zo snel beoordelen dat ze de meeste van hun beslissingen onbewust nemen, is de op een na beste oplossing – na het lezen van hun gedachten – het monitoren van hun oogbewegingen,’ zo verklaarden twee onderzoekers van Google in 2009 in een blogbericht over het lab. 7 Irene Au, de topvrouw die zich bezighoudt met gebruikersgedrag, zegt dat Google zich bij zijn pogingen ‘om mensen hun computers efficiënter te laten gebruiken’ baseert op cognitief psychologisch onderzoek.8

Subjectieve overwegingen, waaronder esthetische, spelen bij Googles calculaties geen rol. ‘Op het web is design veel meer wetenschap dan kunst geworden. Omdat je dingen zo enorm snel kunt herhalen en alles zo precies kunt meten, kun je in feite heel kleine verschillen ontdekken en zodoende mathematisch bepalen welke oplossing de juiste is,’ aldus Mayer.9 In een beroemd onderzoek testte het bedrijf 41 verschillende kleuren blauw voor zijn toolbar om te kijken welke kleur de meeste klikken opleverde van de bezoekers. Het bedrijf voert soortgelijke experimenten uit met teksten die het op zijn pagina’s plaatst. ‘Je moet proberen de woorden minder menselijk en meer onderdeel van de machine te laten zijn,’ legt Mayer uit.10

In zijn boek Technopoly uit 1993 vatte Neil Postman de belangrijkste pijlers van het systeem dat Taylor hanteerde om een bedrijf wetenschappelijk te besturen, kernachtig samen. Het taylorisme, schrijft hij, draait om zes aannames: ‘Dat efficiency het belangrijkste, zo niet het enige doel is van menselijke arbeid en gedachten. Dat technische berekening in alle opzichten superieur is aan menselijk oordeel. Dat het menselijk oordeel in feite niet te vertrouwen is, omdat het gehinderd wordt door slordigheid, ambiguïteit en onnodige complexiteit. Dat subjectiviteit helder denken belemmert. Dat wat niet gemeten kan worden ofwel niet bestaat of van geen waarde is. En dat zaken van gewone burgers het best geregeld kunnen worden door deskundigen.’11 Het is opvallend hoe nauw deze samenvatting van Postman aansluit bij Googles intellectuele ethiek. Slechts één ding klopt niet: Google gelooft namelijk dat zaken voor gewone burgers niet het beste geregeld kunnen worden door deskundigen, maar door softwarealgoritmes – en dat is precies waar Taylor in geloofd zou hebben als er in zijn tijd digitale computers hadden bestaan.

Google lijkt ook op Taylor wat betreft overtuiging in het belang van het eigen werk. Het bedrijf heeft een diep, zelfs messiaans geloof in zijn doelstellingen. Google is volgens zijn CEO meer dan zomaar een bedrijf, het is een ‘morele kracht’.12 De veelgepubliceerde ‘bedrijfsmissie’ is om alle informatie ter wereld te ordenen en wereldwijd toegankelijk en bruikbaar te maken.13 In 2005 vertelde Schmidt aan The Wall Street Journal dat die missie volgens de huidige schattingen driehonderd jaar zou duren.14 Op kortere termijn wil het bedrijf ‘de perfecte zoekmachine ontwikkelen’. Het omschrijft dit als ‘iets wat precies begrijpt wat je bedoelt en je precies geeft wat je wilt’.15 In de ogen van Google is informatie een soort handelswaar, een nuttige hulpbron die je kunt, en moet, aanboren met industriële doelmatigheid. Tot hoe meer stukjes informatie we toegang hebben en hoe sneller we de kern eruit kunnen destilleren, des te productievere denkers we worden. Alles wat storend werkt om gegevens snel te vergaren, te analsyeren en te versturen, bedreigt niet alleen Google als bedrijf maar ook het nieuwe Utopia van cognitieve efficiency dat het op internet wil creëren.

Google is geboren uit een analogie – de analogie van Larry Page. Als zoon van een van de pioniers op het gebied van kunstmatige intelligentie was Page al in zijn vroege jeugd omringd door computers. Op de lagere school was hij ‘de eerste in zijn klas die een document inleverde dat met een tekstverwerker was gemaakt’, weet hij nog.16 Na de middelbare school ging hij techniek studeren aan de Universiteit van Michigan. Zijn vrienden herinneren zich hem als een ambitieuze, slimme student die ‘bijna geobsedeerd was door efficiency’.17 Als voorzitter van Michigan’s Engineering Honor Society probeerde hij tevergeefs het bestuur van de universiteit over te halen tot de aanleg van een monorail op de campus. In de herfst van 1995 ging Page naar Californië om een doctoraalopleiding te volgen in informatica aan de Universiteit van Stanford. Als jongetje had Page er al van gedroomd iets uit te vinden dat ‘de wereld zou veranderen’.18 Hij wist dat er geen betere plek was om die droom waar te maken dan Stanford, het hart van Silicon Valley.

Binnen een paar maanden had Page het onderwerp gevonden waarop hij wilde promoveren: het enorme computernetwerk dat het world wide web heette. Het web was nog maar vier jaar daarvoor op het internet gelanceerd en groeide explosief – het had een half miljoen sites en elke maand kwamen er meer dan honderdduizend bij. Zowel wiskundigen als computerwetenschappers waren gefascineerd door de ongelooflijk complexe en voortdurend veranderende ordening van knooppunten en links. Page had een idee dat weleens een paar van de geheimen van het world wide web zou kunnen ontsluiten. Hij besefte dat de links op webpagina’s analoog waren aan de citaten in een wetenschappelijk artikel: beide zeggen iets over waarde. Wanneer een wetenschapper bij het schrijven van een artikel een verwijzing inlast naar een artikel van een andere geleerde, onderstreept hij daarmee de waarde van dat andere artikel. Hoe meer citaten een artikel oogst, hoe meer prestige het krijgt. Datzelfde gebeurt wanneer iemand op zijn website een link maakt naar de pagina van iemand anders: hij geeft daarmee te kennen dat die andere site belangrijk is. De waarde van een webpagina, zo merkte Page, kon bepaald worden aan de hand van het aantal links dat daarnaartoe leidde.

Page had nog iets anders door, waarbij hij opnieuw keek naar de overeenkomst met wetenschappelijke citaten: niet alle links zijn gelijk. Gezag en aanzien van een bepaalde pagina kunnen worden bepaald aan de hand van het aantal ‘inkomende’ links dat hij weet te trekken. Een pagina met een grote hoeveelheid inkomende links heeft meer gezag dan een pagina met maar een of twee links. Hoe groter de autoriteit van een webpagina, des te groter de waarde van zijn eigen uitgaande links. Hetzelfde gaat op voor de academische wereld: wanneer je geciteerd wordt in een artikel dat zelf veel geciteerd is, is dat waardevoller dan wanneer je geciteerd wordt in een artikel dat minder vaak wordt aangehaald. Op grond van deze analogie meende Page dat de relatieve waarde van een webpagina berekend kon worden via een mathematische analyse van twee factoren: het aantal binnenkomende links dat de pagina aantrok en de status van de sites die de bronnen waren van die links. Als je een database kon creëren van alle links op het web dan zou je het ruwe materiaal hebben voor een softwarealgoritme waarmee je de waarde van alle pagina’s op het web zou kunnen beoordelen en rangschikken. Daarmee zou je bovendien de benodigde ingrediënten hebben voor de krachtigste zoekmachine ter wereld.

Page zou zijn proefschrift nooit schrijven. Hij nam een andere student van Stanford in de arm, een wiskundig genie genaamd Sergey Brin, die een enorme interesse had in het uitdiepen van data en samen probeerden ze Pages zoekmachine te ontwikkelen. In de zomer van 1996 verscheen een eerste versie van Google – toen nog Back-Rub geheten – op de website van de Universiteit van Stanford. Binnen een jaar nam het internetverkeer via BackRub het hele netwerk van de universiteit in beslag. Als ze van hun zoekmachine een echt bedrijf wilden maken, beseften Page en Brin, dan hadden ze een hoop geld nodig om computerspullen en bandbreedte aan te schaffen. In de zomer van 1998 schoot een rijke investeerder uit Silicon Valley te hulp met een cheque van honderdduizend dollar. Ze verhuisden hun beginnende bedrijfje van hun studentenkamers naar een paar lege vertrekken in het huis van een vriend van een vriend, in het nabijgelegen Menlo Park. In september gingen ze verder onder de naam Google Inc. Ze kozen die naam – een woorspeling op googol, het woord voor 10 tot de macht 100 – om duidelijk te maken wat ze wilden, namelijk het rangschikken van ‘een schijnbaar eindeloze hoeveelheid informatie op het web’. In december stond er een lovend artikel in PC Magazine, waarin de zoekmachine met de eigenaardige naam geprezen werd vanwege haar ‘mysterieuze eigenschap zeer relevante resultaten op te leveren’.19

Dankzij deze eigenschap verwerkte Google al snel de meeste van de miljoenen – en later miljarden – internetzoekopdrachten die dagelijks werden uitgevoerd. Het bedrijf werd enorm succesvol, als je tenminste keek naar het internetverkeer dat via de site liep. Maar het zag zich geconfronteerd met hetzelfde probleem dat al veel dotcombedrijven had getroffen: het wist niet hoe het geld moest verdienen aan al dat internetverkeer. Niemand was bereid te betalen voor een zoekopdracht op het web, en Page en Brin voelden er niets voor om advertenties op te nemen in hun zoekresultaten omdat ze bang waren dat dat afbreuk zou doen aan de mathematische objectiviteit van Google. ‘We verwachten,’ zo schreven ze in een wetenschappelijk artikel aan het begin van 1998, ‘dat zoekmachines die betaald worden met reclamegelden meer inspelen op de adverteerder en minder op de behoeften van de gebruikers.’20

Maar de jonge ondernemers wisten dat ze niet voor eeuwig konden teren op de centen van durfkapitalisten. Eind 2000 kwamen ze met een uitgekookt plan om kleine tekstadvertenties te plaatsen naast hun zoekresultaten – een plan dat hun idealen voor het grootste deel intact liet. In plaats van advertentieruimte te verkopen voor een vaste prijs, besloten ze om die ruimte bij opbod te verkopen. Het idee was niet nieuw – een andere zoekmachine, GoTo, veilde al reclames – maar Google gaf er een nieuwe draai aan. Terwijl GoTo zijn ‘search ads’ rangschikte naar de hoogte van de biedingen van de adverteerders – hoe hoger het bod, hoe prominenter de reclame – voegde Google in 2002 nog een ander criterium toe. De plaatsing van een reclame zou niet alleen bepaald worden door het bedrag van de bieding, maar ook door de frequentie waarmee mensen de advertentie aanklikten. Die innovatie zorgde ervoor dat de advertenties van Google ‘relevant’ zouden blijven, zoals het bedrijf het zelf noemde, voor de onderwerpen van de zoekopdrachten. Junkreclames zouden onmiddellijk door de mand vallen. Als browsers op internet een reclame niet relevant vonden, zouden ze er niet op klikken en zou hij uiteindelijk van de site van Google verdwijnen.

Het veilingsysteem, genaamd AdWords, had nog een ander, heel belangrijk gevolg: door de plaatsing van reclames te relateren aan het aantal klikken, ging het aantal keren dat er werd geklikt met sprongen omhoog. Hoe vaker mensen op een advertentie klikten, hoe frequenter en prominenter de advertentie op de zoekresultatenpagina’s verscheen, wat nóg meer klikken opleverde. Omdat adverteerders Google per klik betaalden, gingen de inkomsten van het bedrijf razendsnel omhoog. Het AdWords-sys- teem bleek zo lucratief dat veel andere internetuitgevers contracten afsloten met Google om ook op hun sites ‘contextgerelateerde advertenties’ te plaatsen, waardoor de reclames aansloten bij de inhoud van elke pagina. Aan het eind van het decennium was Google niet alleen het grootste internetbedrijf ter wereld, maar ook een van de grootste mediabedrijven, met een omzet van meer dan 22 miljard dollar per jaar. Bijna al dit geld kwam uit advertenties, en het bedrijf maakte een winst van ongeveer 8 miljard dollar. Page en Brin waren, op papier, elk meer dan 10 miljard dollar waard.

De innovaties van Google hebben de oprichters en investeerders geen windeieren gelegd, maar degenen die het meest profiteren, zijn de gebruikers van het web. Google is erin geslaagd om van het net een veel efficiënter informatiemedium te maken. De oudere zoekmachines liepen, toen het web zich uitbreidde, al snel vast in de gegevens – ze konden de nieuwe inhoud niet indexeren, laat staan het kaf van het koren scheiden. Google daarentegen is zodanig opgebouwd dat het juist betere resultaten oplevert naarmate het web groeit. Hoe meer sites en links Google beoordeelt, hoe preciezer het de pagina’s kan classificeren en hun kwaliteit kan bepalen. En naarmate het verkeer op internet toeneemt, kan Google ook meer gegevens over het gedrag van zijn gebruikers verzamelen, waardoor het zijn zoekresultaten en advertenties nog nauwkeuriger kan afstemmen op hun behoeften en wensen. Ook heeft het bedrijf miljarden dollars geïnvesteerd in de bouw van datacentra over de hele wereld, zodat zoekresultaten in milliseconden bij de gebruikers terechtkomen. De populariteit en winstgevendheid van Google zijn welverdiend. Het bedrijf speelt een rol van onschatbare waarde door mensen te helpen bij het navigeren door de honderden miljarden pagina’s die er tegenwoordig op het web staan. Zonder deze zoekmachine en andere machines die naar ditzelfde model zijn gebouwd, zou het internet allang een digitale Toren van Babel zijn geweest.

Maar als belangrijkste leverancier van navigatiemiddelen voor het web geeft Google ook vorm aan onze relatie met de inhoud die het zo efficiënt oplepelt. De intellectuele technologieën die het heeft ontwikkeld, bevorderen een snelle en oppervlakkige inspectie van de gewenste informatie en ontmoedigen het lang en diepgaand bezig zijn met één enkele redenering, idee of verhaal. ‘Ons doel,’ zegt Irene Au, ‘is om mensen heel snel binnen te halen en weer buiten te zetten. Al onze beslissingen over de vormgeving zijn op die strategie gebaseerd.’21 De winsten van Google zijn rechtstreeks gerelateerd aan de snelheid waarmee mensen informatie tot zich nemen. Hoe sneller we op het web surfen, hoe meer links we aanklikken en pagina’s we bekijken, des te meer gelegenheid heeft Google om informatie over ons te verzamelen en ons te bestoken met advertenties. Bovendien is het advertentiesysteem expres zodanig ontworpen dat het weet welke reclames vermoedelijk onze aandacht trekken. Deze worden dan ook vervolgens opvallend in ons blikveld geplaatst. Elke klik op het web betekent een onderbreking van onze concentratie, een bottom-upverstoring van onze aandacht – en het is in het belang van Google om ons zo vaak mogelijk te laten klikken. Het laatste wat het bedrijf wil is dat mensen op hun gemak of voor hun plezier gaan lezen of diep nadenken. Google leeft, vrij letterlijk, van afleiding.

Misschien dat Google even snel weer verdwijnt. De levens van internetbedrijven zijn zelden onaangenaam of wreed, maar meestal wel kort. Omdat hun zaken, bestaande uit aaneengeschakelde softwarecodes, weinig tastbaar zijn, zijn de bedrijven vaak kwetsbaar. Een bloeiende onlinebusiness kan zomaar omvallen wanneer er een slimme programmeur verschijnt met een nieuw idee. De uitvinding van een nog preciezere zoekmachine of een nog betere manier om reclames te verspreiden via het net, zou voor Google de ondergang kunnen betekenen. Maar hoe lang het bedrijf ook zijn dominante positie kan handhaven in de wereld van de digitale informatie, zijn intellectuele ethiek zal de algemene ethiek blijven van het internet. Internetuitgevers en -programmeurs zullen gebruikers aan blijven trekken en winst blijven maken door onze honger naar kleine, hapklare brokjes informatie aan te moedigen en te stillen.

De geschiedenis van het web wijst erop dat de datasnelheid alleen maar zal toenemen. In de jaren negentig was de meeste informatie te vinden op zogenoemde statische pagina’s. Deze verschilden weinig van tijdschriftenpagina’s en de inhoud bleef relatief ongewijzigd. Sindsdien is er een trend om de pagina’s steeds dynamischer te maken, ze regelmatig en vaak automatisch aan te vullen met nieuwe content. Gespecialiseerde blogging software die in 1999 op de markt kwam, maakte mogelijk dat iedereen op een eenvoudige manier de wereld kan bestoken met een spervuur aan berichten. De meest succesvolle bloggers kwamen er al snel achter dat ze meerdere keren per dag berichten moesten plaatsen om de wispelturige lezers aan zich te binden. Nieuwssites volgden snel en ‘verversten’ het nieuws vierentwintig uur per dag. Dankzij de rss-readers, die rond 2005 populair werden, konden sites krantenkoppen en andere stukjes informatie ‘pushen’ en de gebruikers van het web nog sneller op hun wenken bedienen.

De snelste ontwikkeling hebben we onlangs gezien met de opmars van sociale netwerken zoals MySpace, Facebook en Twitter. Deze bedrijven voorzien hun miljoenen leden van een nietaflatende stroom van ‘real-time-updates’, korte berichtjes over, zoals een Twitter-slogan het noemt, ‘wat er op dit moment gebeurt’. Door intieme berichten – ooit het domein van de brief, het telefoontje of het roddelcircuit – te veranderen in voer voor een nieuwe vorm van massamedia, hebben de sociale netwerken ons een boeiende, nieuwe manier gegeven om met elkaar om te gaan en in contact te blijven. Ze hebben ook een heel nieuwe nadruk gelegd op het begrip ‘actueel’. Een status-update van een vriend, collega of beroemdheid is even nadat hij verstuurd wordt alweer verouderd. Wil je up-to-date blijven dan moet je continu ‘message alerts’ in de gaten houden. De strijd tussen sociale netwerken om steeds nieuwe en steeds meer berichten te leveren is moordend. Begin 2009 reageerde Facebook op de snelle groei van Twitter met de aankondiging dat het zijn site zou vernieuwen om het tempo van zijn ‘stream’ te verhogen. Mark Zuckerberg, oprichter en topman van Facebook, verzekerde zijn kwartmiljard leden dat het bedrijf ‘zich zou blijven inzetten om de informatiestroom nog sneller te maken’.22 In tegenstelling tot de oude boekdrukkers, die sterke economische prikkels hadden om het lezen van zowel ouder als recent werk te promoten, leveren online-uitgevers strijd om het nieuwste van het nieuwste te distribueren.

Ondertussen heeft Google niet stilgezeten. Om de strijd met de nieuwkomers aan te gaan, heeft het zijn zoekmachine vernieuwd en de snelheid daarvan verhoogd. De kwaliteit van een pagina, bepaald aan de hand van het aantal binnenkomende links, is voor Google niet langer de belangrijkste factor voor de volgorde van zoekresultaten. In feite is dat nu slechts één van de tweehonderd ‘signalen’ die het bedrijf in de gaten houdt en meet, volgens Amit Singhal, één van de technische breinen bij Google.23 Een van de belangrijkste recente ontwikkelingen is de hogere prioriteit die het bedrijf geeft aan wat het noemt de ‘versheid’ van de pagina’s die het aanbeveelt. Google herkent niet alleen nieuwe of herziene webpagina’s veel sneller dan in het verleden – het checkt nu de populairste sites op nieuwe updates om de paar seconden, in plaats van om de paar dagen – bij veel zoekresultaten worden recentere pagina’s ook eerder gegeven dan oudere. In mei 2009 paste Google de zoekservice zodanig aan dat gebruikers helemaal voorbij konden gaan aan het kwaliteitscriterium en de resultaten kunnen rangschikken op basis van de vraag hoe recent de informatie op het web was geplaatst. Een paar maanden later kondigde het een ‘next-generation’-constructie aan voor zijn zoekmachine onder de veelzeggende naam Caffeine.24 Naar aanleiding van Twitters’ prestaties op het gebied van snelheid, zei Larry Page dat Google pas tevreden zou zijn als het in staat is ‘om elke seconde het web te indexeren om zodoende real-time search mogelijk te maken’.25

Ook is het bedrijf bezig zijn greep op de webgebruikers en hun gegevens verder te verstevigen. Met de miljarden dollars die het bedrijf met AdWords verdiende, heeft het allerlei initiatieven kunnen ontplooien buiten zijn oorspronkelijke focus van webpagina’s doorzoeken. Inmiddels heeft Google gespecialiseerde zoekmachines ontwikkeld voor onder meer afbeeldingen, video’s, nieuws, kaarten, blogs en wetenschappelijke tijdschriften, die ook allemaal die algemene zoekmachine voeden. Het bedrijf biedt daarnaast computersystemen zoals Android voor smartphones en Chrome voor pc’s. En dan is er nog een stortvloed aan onlinesoftwareprogramma’s, of ‘apps’, voor onder meer e-mail, tekstverwerken, bloggen, foto-opslag, spreadsheets, kalenders en webhosting. Met Google Wave, een ambitieuze, multimediale social-networkservice die eind 2009 geïntroduceerd werd, kunnen mensen berichten van verschillende multimediabronnen samengepakt op één pagina bijhouden en updaten, terwijl die pagina voortdurend automatisch ververst wordt. Volgens een journalist verandert Google Wave ‘gesprekken in snelle groepsgewijze “streams of consciousness”’.26

De vrijwel oneindig lijkende expansiedrang van Google heeft tot veel discussie geleid, vooral onder managementdeskundigen en journalisten. De reikwijdte van de invloed en activiteiten van Google wordt vaak gezien als bewijs dat het een heel nieuw soort markt is, een die alle traditionele bedrijfstakken overstijgt en ze herdefinieert. Maar hoewel Google in vele opzichten een ongewoon bedrijf is, is zijn businessstrategie niet zo geheimzinnig als ze lijkt. Googles voortdurend veranderende uiterlijk is geen weerspiegeling van zijn belangrijkste activiteit, namelijk het verkopen en distribueren van onlineadvertenties, maar heeft veel meer te maken met het grote aantal aanvullende activiteiten. Daaronder verstaan we, economisch gezien, alle producten of diensten die gezamenlijk gekocht of geconsumeerd worden, zoals hotdogs en mosterd, of schemerlampen en peertjes. Voor een bedrijf als Google is alles wat op het internet gebeurt een aanvulling op zijn hoofdactiviteit. Naarmate mensen langer online zijn en meer dingen online doen, zien ze meer advertenties en onthullen ze meer informatie over zichzelf – en Google wordt daar rijk mee. Nu steeds meer producten en diensten digitaal geleverd worden via computernetwerken – amusement, nieuws, softwareapplicaties, financiële transacties en telefoontjes – strekt de reeks aanvullende producten van Google zich uit over steeds meer bedrijfstakken.

Omdat de verkoop van complementaire producten als duo stijgt, is een bedrijf erbij gebaat om de kosten voor de aanvullingen op het hoofdproduct zo laag mogelijk te houden en tegelijkertijd de beschikbaarheid ervan te vergroten. Het is niet sterk overdreven te stellen dat een bedrijf aanvullende producten het liefst gratis weg zou willen geven. Als hotdogs gratis zouden zijn, zou de verkoop van mosterd omhoogschieten. Het is die natuurlijke drang om de kosten van aanvullende producten te verminderen, die ten grondslag ligt aan de businessstrategie van Google. Vrijwel alles wat Google doet, is erop gericht de kosten te reduceren en het gebruik van internet te vergroten. Google wil dat alle informatie gratis is, want als de kosten van informatie dalen, zitten we langer voor onze computerschermen en gaan de winsten van het bedrijf omhoog.

De meeste diensten van Google zijn van zichzelf niet winstgevend. Analisten schatten bijvoorbeeld dat YouTube, dat Google in 2006 voor 1,65 miljard dollar kocht, in 2009 een verlies heeft geleden tussen 200 miljoen en 500 miljoen dollar.27 Maar omdat populaire diensten als YouTube Google in staat stellen meer informatie te verzamelen en meer gebruikers naar zijn zoekmachine te lokken, kan het zijn aankoop van YouTube verantwoorden. Bovendien verhindert het bedrijf met deze aankoop dat concurrenten een voet tussen de deur krijgen. Google heeft laten weten pas tevreden te zijn als het beschikt over ‘100 procent van de gebruikersgegevens’.28 Die expansiedrift heeft overigens niet alleen met geld te maken. De gestage verovering van aanvullende soorten content onderstreept nog eens de missie van het bedrijf om alle informatie ter wereld ‘universeel toegankelijk en nuttig te maken’. De idealen en commerciële belangen van Google komen samen in één overkoepelend doel: steeds meer soorten informatie digitaliseren, die informatie op het web zetten, haar opslaan in zijn database, te classificeren via algoritmes en de informatie te verstrekken aan websurfers in de vorm van ‘snippers’, liefst vergezeld van advertenties. Met elke uitbreiding van Googles domein krijgt zijn tayloristische ethiek een sterkere greep op ons intellectuele leven.

Het meest ambitieuze initiatief van Google – wat Marissa Mayer zijn ‘kermisattractie’29 noemt – is de poging om alle boeken die ooit zijn gedrukt te digitaliseren en hun tekst ‘online achterhaalbaar en doorzoekbaar’ te maken.30 Het programma begon in het diepste geheim in 2002, toen Larry Page een digitale scanner installeerde in zijn kantoor in het Googleplex en met het getik van een metronoom op de achtergrond een half uur lang de pagina’s scande van een boek van driehonderd bladzijden. Hij wilde een ruw idee krijgen hoe lang het zou duren om ‘elk boek ter wereld digitaal te scannen’. Het jaar daarop werd een medewerker van Google naar Phoenix gestuurd om een stapel oude boeken te kopen op een rommelmarkt. Toen hij met zijn stapel terug was in het Googleplex, werden de boeken proefobjecten in een reeks experimenten die resulteerde in de ontwikkeling van een nieuwe, ‘razendsnelle’ en ‘niet-beschadigende’ scantechniek. Het ingenieuze systeem, dat gebruikmaakt van stereoscopische infraroodcamera’s, kan automatisch de bolling van bladzijden corrigeren die optreedt wanneer een boek wordt opengeslagen, zodat geen vervormingen in de gescande afbeelding ontstaan.31 Tegelijkertijd was een team van software-ingenieurs bezig met het verfijnen van een programma dat schrifttekens moest herkennen zodat ook vreemde lettergroottes, ongebruikelijke fonts en andere onverwachte eigenaardigheden – in 430 verschillende talen – verwerkt konden worden. Een andere groep werknemers van Google bezocht de belangrijkste bibliotheken en uitgeverijen met de vraag of ze hun boeken zouden willen laten digitaliseren door Google.32

In de herfst van 2004 kondigden Page en Brin hun Google Print-programma (dat later Google Book Search zou gaan heten) officieel aan op de Frankfurter Buchmesse, de belangrijkste boekenbeurs ter wereld. Meer dan tien commerciële en wetenschappelijke uitgeverijen meldden zich aan als partners, waaronder grote namen als Houghton Mifflin, McCraw-Hill en de wetenschappelijke uitgeverijen van Oxford, Cambridge en Princeton. Vijf van de meest prestigieuze bibliotheken ter wereld, waaronder Harvard’s Widener, Oxford’s Bodleian en de New York Public Library, besloten ook mee te doen aan het project. Ze gaven Google toestemming hun materiaal te scannen. Aan het eind van het jaar had het bedrijf naar schatting al honderdduizend boeken in zijn databank staan.

Niet iedereen was gelukkig met het scanproject. Google scande niet alleen oude boeken, waar geen copyright meer op rustte, maar ook recentere. Vaak betrof het titels die niet meer leverbaar waren, maar waar de auteur of uitgeverij nog wel copyright op had. Google maakte duidelijk dat het niet van plan was vooraf de rechthebbenden op te sporen en hen om toestemming te vragen. In plaats daarvan zou het gewoon alle boeken scannen en in zijn database opnemen, tenzij een rechthebbende een schriftelijk verzoek indiende een bepaald boek niet op te nemen. Op 20 september 2005 spande de Authors Guild, samen met drie vooraanstaande schrijvers, een rechtszaak aan tegen Google omdat het scanprogramma een ‘grove inbreuk betekende op het copyright’.33 Een paar weken later deed de Association of American Publishers hetzelfde en eiste dat Google op zou houden met het scannen van de bibliotheekcollecties. Google antwoordde met een publiciteitsoffensief waarin het de maatschappelijke voordelen van Google Book Search benadrukte. In oktober schreef Eric Schmidt een opiniestuk in The Wall Street Journal waarin hij in bevlogen bewoordingen zijn mening gaf over het digitaliseringsproject: ‘Stel je eens voor hoe het onze cultuur zou verrijken wanneer tientallen miljoenen boeken, die voorheen niet toegankelijk waren, terechtkomen in een enorme index waarvan elk woord op te zoeken is door iedereen, rijk en arm, wonend in de eerste of in de derde Wereld, in de stad of op het platteland, in elke taal – en dat alles natuurlijk helemaal gratis.’34

De rechtszaken gingen onverminderd door. Na drie jaar van onderhandelingen, waarin Google nog eens ongeveer 7 miljoen boeken scande waarvan 6 miljoen nog steeds onder het copyright vielen, kwamen de partijen tot een overeenkomst. Volgens de voorwaarden, die in oktober 2008 bekend werden gemaakt, ging Google ermee akkoord 125 miljoen dollar schadevergoeding te betalen aan de bezitters van de auteursrechten van reeds gescande boeken. Ook zou er een betalingssysteem komen waarmee auteurs en uitgevers een deel zouden ontvangen van de reclamegelden en andere inkomsten die Google Book Search de komende jaren zou binnenhalen. In ruil voor deze concessies gaven de auteurs en uitgeverijen Google toestemming om door te gaan met de plannen om alle boeken ter wereld te digitaliseren. Het bedrijf zou ook het recht krijgen om ‘in de VS abonnementen te verkopen aan een Institutional Subscription Database, individuele boeken te verkopen, advertenties te plaatsen op Online Book Pages, en op andere manieren commercieel gebruik te maken van Google Books’.35

Deze regeling leidde tot een nog veel grotere controverse. De gestelde voorwaarden leken Google het monopolie te geven op de digitale versies van miljoenen zogenaamde verweesde boeken – boeken waarvan onduidelijk is wie de rechten erop bezit of waarvan de rechthebbenden niet gevonden kunnen worden. Veel bibliotheken en andere instellingen vreesden dat Google als monopolist de abonnementsgelden voor zijn boekendatabase zo hoog zou kunnen maken als het wilde. De American Library Association waarschuwde er in een rechtszaak voor dat het bedrijf ‘de prijs voor abonnementen flink zou kunnen opdrijven om maximaal winst te behalen, en dat veel bibliotheken die niet meer zouden kunnen betalen’.36 Het Amerikaanse ministerie van Justitie en het Copyright Office maakten allebei bezwaar tegen de overeenkomst, met als argument dat het Google te veel macht zou geven over de toekomstige digitale boekenmarkt.

Andere critici hadden zorgen van meer algemene aard. Ze waren bang dat een commerciële controle op de verdeling van digitale informatie onvermijdelijk belemmerend zou werken op de kennisstroom. Ondanks alle altruïstische retoriek wantrouwden ze de motieven van Google. ‘Wanneer bedrijven als Google naar bibliotheken kijken, zien ze niet alleen tempels van kennis,’ schreef Robert Darnton die doceert aan de Universiteit van Harvard en toezicht houdt op de bibliotheek aldaar. ‘Ze zien potentieel waardevolle goederen of wat ze “content” noemen, en ze zijn maar wat gretig om die te exploiteren. Hoewel Google een prijzenswaardig doel nastreeft door mensen toegang te verlenen tot informatie, is het onverstandig en riskant om een monopolie te verstrekken – niet op spoorwegen of op staal, maar op de toegang tot informatie – aan een bedrijf dat uit is op het maken van winst. Wat gebeurt er als de huidige eigenaren hun bedrijf verkopen of met pensioen gaan? Wat gebeurt er als Google prioriteit geeft aan winst boven toegang tot informatie?’37 Eind 2009 werd er afgezien van de oorspronkelijke overeenkomst en gingen Google en de andere partijen op zoek naar een minder verstrekkend alternatief.

De ophef over Google Book Search is om meerdere redenen verhelderend. Het laat zien hoe lastig het is om de letter en geest van het auteursrecht aan te passen aan het digitale tijdperk, vooral wat betreft het citaatrecht. (Het feit dat sommige uitgeverijen zowel partij waren in de rechtszaak tegen Google als partners van Google Book Search, toont hoe ondoorzichtig de huidige situatie is.) De ophef zegt ook veel over Googles verheven idealen, en over de autoritaire methodes die het bedrijf zo nu en dan hanteert om die te verwezenlijken. Richard Koman, een journalist gespecialiseerd in rechten en technologie, merkte op dat Google ‘met hart en ziel gelooft in zijn eigen goedheid, een geloof waarmee het zijn eigen regels rechtvaardigt op het gebied van ethiek, anti-concurrentie, klantenservice en zijn plaats in de maatschappij’.38

Het belangrijkste is dat de ophef duidelijk maakt dat boeken hoe dan ook gedigitaliseerd zullen worden, en dat dit waarschijnlijk in rap tempo zal gebeuren. De onenigheid rond Google Book Search heeft niets te maken met de vraag of het verstandig is om gedrukte boeken te scannen en ze in een database op te nemen, maar met de vraag wie zo’n database beheert en wie daar het commercieel voordeel van plukt. Of Google uiteindelijk wel of niet de enige eigenaar wordt van wat Darnton ‘de grootste bibliotheek ter wereld’ noemt, die bibliotheek gaat er komen. En de digitale boeken, die via het net in elke bibliotheek ter wereld terechtkomen, zullen na verloop van tijd veel van de fysieke boeken vervangen die jarenlang op de planken hebben gestaan.39 De praktische voordelen van het online ‘vindbaar en doorzoekbaar’ maken van boeken zijn zo groot dat daar moeilijk iemand tegen kan zijn. De digitalisering van oude boeken, antieke boekrollen en andere documenten betekent nu al dat spannende nieuwe wegen worden geopend voor onderzoeken naar het verleden. Sommigen voorzien ‘een tweede Renaissance’ op het gebied van geschiedkundige ontdekkingen.40 Zoals Darnton zegt: ‘Digitaliseren moeten we.’

Maar het feit dat het onvermijdelijk is dat boeken worden omgezet in onlineafbeeldingen, moet ons niet blind maken voor de neveneffecten. Een boek achterhaalbaar en doorzoekbaar maken op internet betekent ook een boek uit elkaar halen. De cohesie van de tekst, de lineariteit van de redenering of het verhaal, wordt opgeofferd. Wat die oude Romein zo kunstig aan elkaar naaide toen hij de eerste codex maakte, wordt weer losgetornd. De stilte die ‘deel was van de betekenis’ van de codex wordt eveneens opgeofferd. Rond elke pagina of tekstfragment op Google Book Search staat een mengelmoes aan links, tools, tabs en reclames die allemaal gretig hengelen naar een deel van de lezers gefragmenteerde aandacht.

Voor een bedrijf als Google met zijn rotsvaste geloof in efficiency en zijn beleid om ‘gebruikers snel binnen en weer buiten te krijgen’, betekent de ‘ontbinding’ van het boek geen verlies, maar slechts winst. Adam Mathes, manager van Google Book Search, erkent dat ‘boeken vaak offline een bruisend leven leiden’, maar hij beweert dat ‘hun leven online nog veel spannender kan zijn’.41 Wat wil dat zeggen, een boek dat een spannender leven leidt? Doorzoekbaarheid is nog maar het begin. Google wil dat we de inhoud van de digitale boeken die we ontdekken kunnen ‘opsplitsen en omgooien’. Het wil dat we linken, delen en samenvoegen: alle handelingen die je kunt uitvoeren op het web, maar die je niet kunt doen met fysieke boeken. Het bedrijf heeft al een knipen-plakmogelijkheid geïntroduceerd waarmee je makkelijk passages uit boeken kunt knippen om die vervolgens te plaatsen op je blog of website.42 Het heeft ook Popular Passages geïntroduceerd, een service, waarmee korte passages uit boeken die regelmatig geciteerd zijn worden gehighlight. En bij sommige boeken verschijnen ‘word clouds’ die, zoals Google zegt, de lezer in staat stellen om ‘in 10 seconden een boek te verkennen’.43 Het zou zinloos zijn om over dergelijke tools te klagen, ze hebben wel degelijk nut. Ze maken echter ook duidelijk dat Google het boek niet waardeert als een zelfstandig literair werk, maar als zoveelste berg gegevens die geëxploiteerd moeten worden. De grote bibliotheek die Google zo snel mogelijk probeert aan te leggen, moet niet verward worden met de bibliotheken zoals we die tot nu toe kenden. Het is geen bibliotheek van boeken, maar een bibliotheek van fragmenten.

De poging van Google om het lezen efficiënter te maken, ondermijnt ironisch genoeg een heel ander soort efficiency, die we te danken hebben aan de technologie van het boek. De vorm van het schrift zoals die verscheen op een stuk perkament of papier bevrijdde ons van de moeizame strijd om tekst te decoderen. Op die manier konden we ‘diepe’ lezers worden en onze aandacht en hersenen richten op de interpretatie van de tekst. Met geschriften op het scherm, kunnen we de tekst nog steeds snel decoderen – we lezen zo mogelijk sneller dan ooit – maar we worden niet geleid richting een diepe, eigen interpretatie van de connotaties van de tekst. In plaats daarvan worden we snel naar een gerelateerd stuk informatie geloodst en dan naar een volgend stukje, en weer een volgend, enzovoorts. Het snel naar bovenhalen van ‘relevante content’ is in de plaats gekomen van het langzaam doorgronden van betekenis.

Op een warme zomerochtend in het jaar 1844 zat de jonge schrijver Nathaniel Hawthorne op een open plek in de bossen bij Concord, Massachusetts. Deze bijzonder rustige plek stond bekend als Sleepy Hollow. In opperste concentratie besteedde Hawthorne aandacht aan elke indruk die op hem afkwam. Hij veranderde zichzelf in een ‘transparante oogbol’, een term waarmee Emerson, leider van de transcendentale beweging in Concord, acht jaar eerder was gekomen. Hawthorne zag, zoals hij later die dag in zijn aantekenboekje zou noteren, ‘hoe het licht van de zon door schaduwen valt en hoe de schaduw het licht van de zon vervaagt en hoe dit alles leidt tot een aangename geestesgesteldheid waar luchtigheid en diepe gedachten zich vermengen’. Hij voelde een lichte bries, ‘de zachtste zucht die men zich kan voorstellen en toch met een spirituele kracht, die met zijn milde, etherische koelte de grond leek te beroeren’. Hij rook in die bries ‘de geur van dennen’. Hij hoorde ‘het slaan van de dorpsklok’ en ‘in de verte slepen maaiers hun zeisen, hoewel deze geluiden van de noeste arbeid zo ver weg zijn, dat zij slechts de stilte verdiepen van iemand die helemaal op zijn gemak ligt, in de nevelen van zijn eigen overpeinzingen’.

Zijn mijmeringen werden abrupt onderbroken.

Maar, hoor! Daar klinkt het gefluit van de locomotief, het lange schrille geluid dat zelfs de afstand van een mijl niet kan verzachten tot een harmonieus geluid. Het vertelt het verhaal van bedrijvige mannen, burgers die de hete straten ontvlucht zijn om een dagje in een dorp door te brengen; mannen van zaken, kortom, die vervuld zijn van onrust; en geen wonder dat de locomotief zo’n schril geluid produceert, hij verkondigt immers de komst van de lawaaierige wereld die onze vredige rust verstoort.44

The Machine in the Garden, een klassieker uit 1964 van Leo Marx over de invloed van de technologie op de Amerikaanse cultuur opent met deze passage van Hawthorne. Marx beweert dat die eigenlijk gaat over ‘het landschap van de geest’ en met name ‘het contrast tussen twee soorten bewustzijn’. De stille open plek in het bos verschaft de eenzame denker een beschutte plek waar hij zijn gedachten de vrije loop kan laten. De lawaaierige aankomst van de trein met zijn lading ‘bedrijvige mannen’ zorgt voor ‘de psychische dissonant die we associëren met het begin van de industrialisatie’.45 De contemplatieve geest wordt overstelpt door het lawaai van de mechanische bedrijvigheid.

De nadruk die Google en andere internetbedrijven leggen op de doelmatigheid van informatie-uitwisseling als sleutel tot intellectuele vooruitgang, is niet nieuw. In elk geval is het sinds het begin van de industriële revolutie een belangrijk thema geweest in de geschiedenis van het verstand. Die nadruk op snelle informatie-uitwisseling staat in schril contrast met een heel ander gezichtspunt dat werd verdedigd door zowel de Amerikaanse transcendentalisten als door de eerdere Engelse romantici. Zij verkondigden namelijk de idee dat ware verlichting alleen tot stand kan komen door contemplatie en introspectie. De spanning tussen deze twee perspectieven is eigenlijk onderdeel van een groter conflict tussen wat Marx ‘de machine’ en ‘de tuin’ noemt – het industriële ideaal en het pastorale ideaal. Dit conflict heeft een belangrijke rol gespeeld in de vorming van de moderne maatschappij.

Als het gaat om ons intellect, dan kan het industriële ideaal van efficiency dodelijk zijn voor het pastorale ideaal van de meditatieve gedachte, zoals Hawthorne begreep. Dat betekent niet dat het een slechte zaak is snelle informatieverwerving te bevorderen. De ontwikkeling van een goed gevormde geest vereist zowel de vaardigheid om snel een breed scala aan informatie te vinden en te analyseren, als de vaardigheid om onbevangen over een probleem na te denken. Er moet tijd zijn om efficiënt gegevens te verzamelen en tijd voor inefficiënte contemplatie, tijd om de machine te bedienen en tijd om lui in de tuin te zitten. We moeten in Googles ‘getallenwereld’ werken, maar we moeten ons ook terug kunnen trekken in Sleepy Hollow. Het probleem is dat we vandaag de dag steeds minder in staat zijn de juiste balans tussen die twee houdingen te vinden. Geestelijk zijn we een voortdurend doorstomende locomotief.

Zelfs toen Gutenbergs drukpers de geletterde geest tot algemene geest maakte, begon al het proces dat de geletterde geest nu verouderd dreigt te maken. Toen boeken en tijdschriften massaal de markt op kwamen, had de mens voor het eerst het idee dat hij overstelpt werd met informatie. In zijn boek An Anatomy of Melancholy uit 1628 beschrijft Robert Burton ‘de enorme verwarring en chaos’ die boeken veroorzaakten bij de zeventiendeeeuwse lezers. ‘We gaan eronder gebukt, onze ogen doen pijn van het lezen, onze vingers van het omslaan van de bladzijden.’ Een paar jaar eerder, in 1600, klaagde een andere Engelse schrijver, Barnaby Rich: ‘Een van de grootste plagen van deze tijd is de hoeveelheid boeken die zo’n overbelasting voor de wereld vormt dat het onmogelijk is die overvloed aan ijdele zaken te verwerken die elke dag wordt uitgebroed en de wereld in wordt gestuurd.’46

Sindsdien hebben we voortdurend en met een toenemende urgentie geprobeerd om ordening aan te brengen in de verwarrende hoeveelheid informatie die we elke dag ontvangen. Eeuwenlang bestond het beheer van onze persoonlijke informatie uit eenvoudig handwerk; we hadden onze eigen manieren van informatie ordenen en opslaan, we alfabetiseerden en annoteerden, maakten lijsten, catalogi en concordanties en vuistregels. Daarnaast waren er complexere, maar evenzeer grotendeels handmatige, institutionele mechanismen voor het sorteren en opslaan van informatie in bibliotheken, op universiteiten en in de kantoren van bedrijven en overheidsinstellingen. Toen de informatiestroom in de twintigste eeuw steeds groter werd en er betere technologieën kwamen voor gegevensverwerking, werden de methodes en hulpmiddelen voor zowel het beheer van persoonlijke als institutionele informatie verfijnder, systematischer en geautomatiseerder. We probeerden het probleem van informatieverwerking op te lossen en zochten die oplossing ironisch genoeg bij die machines die verantwoordelijk waren voor de overdaad aan informatie.

Vannevar Bush was de grondlegger van onze moderne aanpak van informatiebeheer in zijn veelbesproken artikel ‘As We May Think’, dat verscheen in Atlantic Monthly in 1945. Bush, een elektronica-ingenieur die de wetenschappelijke adviseur was geweest van Franklin Roosevelt tijdens de Tweede Wereldoorlog, maakte zich zorgen dat de vooruitgang vertraagde doordat wetenschappers niet in staat waren op de hoogte te blijven van relevante informatie voor hun werk. De publicatie van nieuw materiaal, schreef hij, ‘is zo sterk uitgebreid dat we onze grip erop zijn kwijtgeraakt. De veelheid aan menselijke kennis groeit met een ongekende snelheid. De middelen die we gebruiken om wijs te worden uit het doolhof aan publicaties en juist dat ene onderwerp eruit te pikken dat relevant is voor de situatie, zijn in sterke mate verouderd.’

Maar volgens Bush was een technologische oplossing voor het probleem van informatie-overload in zicht. ‘Tegenwoordig beschikken we over goedkope, complexe, betrouwbare apparaten, en dat gaat vast zorgen voor een oplossing.’ Hij stelde voor om een nieuw type persoonlijke catalogiseermachine te gebruiken, de zogenoemde memex. Deze machine zou niet alleen nuttig zijn voor wetenschappers maar voor iedereen die gebruikmaakte van ‘logische denkprocessen’. De memex, die in een bureau geplaatst kon worden, ‘is een apparaat waarin een individu al zijn boeken, verslagen en berichten (in gecomprimeerde vorm) kan opslaan en dat zodanig gemechaniseerd is dat de inhoud snel en efficiënt te raadplegen is,’ schreef Bush. Op het bureau staan schermen met daarop geprojecteerde afbeeldingen van het opgeslagen materiaal en bovendien ‘een toetsenbord en een reeks knoppen om de database te doorzoeken’. Het ‘meest belangrijke kenmerk van de machine is haar gebruik van associatieve indexering’ die verschillende stukjes informatie met elkaar in verband kan brengen. ‘Elk item kan onmiddellijk en automatisch een ander item opsporen Dit ‘verbinden van twee dingen,’ benadrukte Bush, ‘is erg belangrijk.’47

De memex was in feite de voorloper van zowel de pc als van het world wide web. Het artikel van Bush was een inspiratiebron voor de eerste ontwerpers van de hardware en software van de pc, onder wie de eerste aanhangers van de hypertekst zoals de beroemde computerdeskundige Douglas Engelbart en Bill Atkinson, uitvinder van de HyperCard. Maar hoewel de visie van Bush werkelijkheid is geworden in een mate die hij bij leven nooit heeft kunnen voorzien – het nageslacht van de memex is overal – is het probleem dat hij wilde oplossen, overdaad aan informatie, er nog altijd. Sterker, het is groter dan ooit. Zoals David Levy opmerkte: ‘De ontwikkeling van persoonlijke digitale informatiesystemen en universele hypertekst lijkt het probleem dat Bush signaleerde eerder te hebben vergroot dan opgelost.’48

Achteraf gezien lijkt de reden voor deze mislukking duidelijk. Doordat de kosten van het creëren, opslaan en delen van informatie drastisch verlaagd zijn, hebben computernetwerken gigantisch veel meer informatie binnen ons bereik gebracht. En de krachtige hulpmiddelen die bedrijven als Google ontwikkeld hebben om informatie op te sporen, te filteren en te verspreiden, zorgen ervoor dat we constant overspoeld worden met informatie die onmiddellijk belangrijk voor ons is, en wel in hoeveelheden die onze hersenen onmogelijk aankunnen. Nu de technologieën voor het verwerken van gegevens steeds verfijnder worden en er steeds betere zoek- en filtermachines komen, neemt de stroom aan relevante informatie alleen maar toe. Nog meer van wat voor ons van belang is, wordt voor ons zichtbaar. De overdaad aan informatie is een permanente kwaal geworden en onze pogingen om die kwaal te genezen, maken de zaak alleen maar erger. De enige manier om het probleem te lijf te gaan, is door meer te scannen, door nog meer te vertrouwen op de apparatuur die de oorzaak is van het probleem. Tegenwoordig beschikken we over meer informatie dan ooit tevoren,’ schrijft Levy, ‘maar er is minder tijd om er gebruik van te maken – en vooral om er gebruik van te maken met enige diepgang.’49 Morgen zal de situatie nog erger zijn.

Ooit dachten we dat de meest effectieve filter voor het menselijk denken de factor tijd was. ‘De beste leesmethode zal een natuurlijke zijn, niet een mechanische,’ schreef Emerson in zijn essay ‘Books’ uit 1858. ‘Alle schrijvers moeten hun werk voorleggen aan het wijze oordeel van de Tijd die wikt en weegt en die na tien jaar één bladzijde uit miljoenen herdrukt. Dan wordt wederom het werk beoordeeld en zorgen meningen uit alle windstreken dat het kaf verder van het koren gescheiden wordt, en welke geweldige selectie levert dat wel niet op, die na twintig jaar herdrukt wordt, en weer herdrukt na honderd jaar!’50 We hebben niet langer het geduld om te wachten tot de tijd het kaf van het koren scheidt. Omdat we elk moment overspoeld worden met hoogst urgente informatie, hebben we geen andere keus dan onze toevlucht te nemen tot automatische filters, die een voorkeur geven, meteen, aan het nieuwe en populaire. Op internet zijn de ‘meningen uit alle windstreken’ een wervelwind geworden. Toen de trein eenmaal zijn lading bedrijvige mannen had afgeleverd en het station van Concord had verlaten, probeerde Hawthorne, met weinig succes, terug te keren naar zijn diepe concentratie. Hij keek naar een mierenhoop en gooide er een hoopje zand in, zodat de mieren er niet meer in konden. Hij zag hoe een van de mieren, die terugkwam van een of andere belangrijke missie, vertwijfeld voor zijn huis stond. ‘Welk een verbijstering, welk een gejaagdheid, welk een verwarring zijn er te zien in zijn bewegingen. Hoe onverklaarbaar moet de veroorzaker van deze ramp voor hem zijn!’ Maar Hawthorne werd spoedig door iets anders afgeleid. Hij zag een verandering in het patroon van schaduw en zon, hij keek omhoog naar de wolken en ontdekte in hun veranderende vorm ‘de uiteengeslagen brokstukken van een Utopia van dromers’.

In 2007 werd Larry Page uitgenodigd om de thematoespraak te houden op de jaarlijkse conferentie van de American Association for the Advancement of Science, de meest prestigieuze bijeenkomst van wetenschappers in de VS. Zijn verhaal was tamelijk onsamenhangend, maar gaf wel een aardig kijkje in de geest van deze jonge ondernemer. Opnieuw geïnspireerd door een analogie, deelde hij met het publiek zijn visie op het menselijk leven en het menselijk intellect. ‘Mijn theorie is dat, als je jouw eigen programmering bekijkt, die dan uit ongeveer 600 gecomprimeerde megabytes, jouw DNA, bestaat,’ zei hij. ‘Dus ze is kleiner dan welk modern besturingssysteem dan ook, kleiner dan Linux of Windows… en dat is inclusief het opstarten van jouw brein, per definitie. Dus jouw programma-algoritmen zijn vermoedelijk niet erg ingewikkeld; [intelligentie] is waarschijnlijk meer een kwestie van algehele berekening.’51

De digitale computer heeft allang de klok, de fontein en de fabriek vervangen als belangrijkste metafoor om uit te leggen hoe onze hersenen in elkaar zitten en werken. We beschrijven onze hersenen zo automatisch in computertermen, dat we niet eens meer realiseren dat het een metafoor is (ik heb eerder in het boek al naar de hersenen verwezen met woorden als ‘circuit’, ‘bedrading’, ‘input’ en ‘programmering’). Maar wat Page beweert, is extreem. Volgens hem lijkt het menselijk brein niet alleen op een computer; het is een computer. Zijn aanname verklaart voor een groot deel waarom Google intelligentie gelijkstelt aan efficiënte dataverwerking. Als onze hersenen computers zijn dan kan intelligentie gereduceerd worden tot een kwestie van productiviteit – van nog meer gegevens zo snel mogelijk door de grote chip in onze schedel laten gaan. Menselijke intelligentie is dan niet meer te onderscheiden van machinale intelligentie.

Vanaf het begin had Page Google beschouwd als een embryonale vorm van kunstmatige intelligentie. In een interview uit 2000, lang voordat zijn bedrijf een begrip was, zei hij dat kunstmatige intelligentie de ultieme versie van Google zou zijn. ‘Op dit moment zijn we daar nog lang niet, maar we kunnen wel stap voor stap dichterbij komen en dat is in feite waar we aan werken.’52 In een toespraak aan de Universiteit van Stanford in 2003 ging hij nog een stapje verder toen hij Googles ambitie beschreef. ‘De ultieme zoekmachine is net zo slim als de mens, of nog slimmer.’53 Sergey Brin, die naar zijn zeggen al op de middelbare school programma’s ontwikkelde voor kunstmatige intelligentie, deelt het enthousiasme van zijn zakenpartner voor het ontwikkelen van een machine die echt kan denken.54 ‘Als alle informatie ter wereld direct met je hersenen was verbonden, of als je kunstmatige hersenen zou hebben die slimmer zouden zijn dan je eigen hersenen, dan zou je zeker beter af zijn,’ zei hij in 2004 tegen Newsweek.55 Rond diezelfde tijd beweerde Brin in een tvinterview zelfs dat de ultieme zoekmachine erg veel zou lijken op Stanley Kubricks HAL. ‘Hopelijk,’ zei hij, ‘zal hij nooit last hebben van een virus, zoals HAL, die de inzittenden van het ruimteschip doodde. Maar dat is ons streven en ik denk dat we al een eind op weg zijn.’56

De wens om een HAL-achtig systeem van kunstmatige intelligentie te creëren zal op de meeste mensen vreemd overkomen. Maar het is een natuurlijke ambitie, zelfs een prijzenswaardige, voor een paar briljante jonge computerwetenschappers met enorm veel geld en een klein leger programmeurs en ingenieurs. Google is in feite een wetenschappelijke onderneming die volgens Eric Schmidt gedreven wordt door de ‘wens om technologie te gebruiken bij het oplossen van problemen die nog nooit eerder zijn opgelost’.57 Het moeilijkste probleem is kunstmatige intelligentie, dus waarom zouden Brin en Page dat niet willen oplossen?

Toch is hun makkelijke veronderstelling dat we ‘beter af’ zouden zijn als onze hersenen aangevuld of zelfs vervangen zouden worden door kunstmatige intelligentie, even beangstigend als onthullend. Het benadrukt het sterke geloof van Google in de tayloristische opvatting dat intelligentie de output is van een mechanisch proces, een reeks losse stappen die allemaal gemeten en geoptimaliseerd kunnen worden. De twintigste-eeuwse filosoof Günther Anders zei ooit: ‘De mens schaamt zich dat hij geboren is in plaats van gemaakt.’ In de uitspraken van de oprichters van Google vinden we diezelfde schaamte terug, en ook de ambitie die daarvan het gevolg is.58 In de wereld van Google, de wereld die we binnentreden als we online gaan, is weinig ruimte voor de peinzende stilte van het diepe lezen of voor de vage ongerichtheid van contemplatie. Ambiguïteit is in de ogen van Google niet iets wat tot inzicht kan leiden, maar een virus dat bestreden moet worden. Het menselijk brein is alleen maar een verouderde computer die een snellere processor nodig heeft en een grotere harde schijf, plus betere algoritmen om zijn gedachten in goede banen te leiden.

‘Alles wat menselijke wezens doen om computernetwerken beter te besturen, maakt het tegelijkertijd voor computernetwerken, om andere redenen, makkelijker om mensen te besturen.’59 Dat schreef George Dyson in Darwin among the Machines, een in 1997 verschenen boek over kunstmatige intelligentie. Acht jaar na de verschijning ervan kreeg Dyson een uitnodiging een lezing te houden in het Googleplex, ter nagedachtenis van de Princetonnatuurkundige John von Neumann, die verder had gebouwd op het werk van Alan Turing en in 1945 het eerste ontwerp van een moderne computer had gemaakt. Dit moet een spannende gebeurtenis voor Dyson zijn geweest. Hij had immers een groot deel van zijn leven besteed aan het innerlijke ‘leven’ van de machine, en nu was hij uitgenodigd door een bedrijf dat zijn enorme schat aan geld en mankracht wilde besteden aan het creëren van een kunstmatig brein.

Maar Dyson hield aan zijn bezoek gemengde gevoelens over. Aan het eind van een verslag dat hij erover schreef verwijst hij naar de ernstige waarschuwing die Turing uitte in zijn artikel ‘Computing Machinery and Intelligence’. In onze pogingen om intelligente machines te bouwen, schreef de wiskundige, ‘moeten we onszelf niet oneerbiedig Zijn macht aanmeten door zielen te creëren, net zo min als we dat doen bij de voortplanting van de mens.’ Dyson vertelde ook wat de reactie van ‘een ongewoon opmerkzame vriend’ was geweest, toen die eerder al eens een bezoek aan Googleplex had gebracht: ‘De sfeer was bijna verstikkend knus. Op het gazon dartelden vrolijke golden retrievers rond in slowmotion. Mensen zwaaiden en lachten, overal lag speelgoed. Ik had onmiddellijk het gevoel dat er ergens in een donkere uithoek onvoorstelbaar enge dingen gebeurden. Als de duivel op aarde zou verschijnen, zou hij zich nergens beter kunnen verstoppen.’60 Hoewel dit een nogal extreme reactie was, is ze wel begrijpelijk. Met zijn enorme ambities, zijn enorme kapitaal en zijn imperialistische plannen om de wereld van de kennis te beheersen is Google een bedrijf dat sommigen vrezen en waar anderen hun hoop op gevestigd hebben. ‘Sommige mensen zeggen dat Google god is,’ erkende Sergey Brin. ‘Anderen noemen Google de duivel.’61

Dus welk gevaar loert er in de donkere uithoeken van het Googleplex? Is de komst van kunstmatige intelligentie nabij? Komen de machthebbers uit Silicon Valley eraan? Vermoedelijk niet. In de zomer van 1956 vond op de Universiteit van Dartmouth de eerste conferentie over kunstmatige intelligentie plaats. Destijds leek het erop dat computers op korte termijn het menselijk denken zouden kunnen nabootsen. De wiskundigen en ingenieurs die een maand lang bijeen waren, schreven in een verklaring dat ‘elk aspect van het leerproces of enig ander aspect van de menselijke intelligentie in principe zo nauwkeurig beschreven kan worden dat een machine gemaakt kan worden die het kan simuleren.’62 Het was simpelweg een kwestie van het schrijven van de juiste programma’s, van het omzetten van de bewuste processen van de geest in algoritmen. Maar ondanks jaren van inspanning is de menselijke intelligentie nog steeds niet exact beschreven. In de halve eeuw na de conferentie van Dartmouth heeft de computer zich razendsnel ontwikkeld en toch blijft hij, in menselijke termen, zo dom als het achtereind van een varken. Onze ‘denkmachines’ hebben nog steeds niet het flauwste idee wat ze denken. De opmerking van Lewis Mumford uit 1967, dat ‘geen enkele computer uit zichzelf een nieuw symbool kan maken’, geldt vandaag de dag nog altijd.63

De voorstanders van kunstmatige intelligentie hebben de moed evenwel niet opgegeven, maar richten hun aandacht nu op iets anders. Het doel om een softwareprogramma te schrijven waarmee ze de menselijke intelligentie kunnen nabootsen, hebben ze grotendeels laten varen. In plaats daarvan proberen ze in een computer de elektrische signalen na te bootsen die tussen de miljarden neuronen van de hersenen zoemen, in de overtuiging dat intelligentie uit de machine zal opduiken, net zoals de geest uit het fysieke brein. Als ‘de algehele berekening’ i klopt, zoals Page zei, dan moeten de algoritmen van de intelligentie zichzelf schrijven. In een essay uit 1996 over Kubricks film 2001 beweerde de uitvinder en futuroloog Ray Kurzweil dat als we eenmaal in staat zijn ‘de hersenen zodanig te scannen dat we de opbouw van interneuronale verbindingen in de verschillende hersengebieden kunnen vaststellen’, we ook in staat zijn ‘gesimuleerde neurale netwerken te ontwerpen die op een vergelijkbare manier werken’. ‘Hoewel we nog niet in staat zijn een echt brein te maken zoals dat van HAL,’ concludeerde Kurzweil, ‘kunnen we nu wel beschrijven hoe we dat zouden kunnen doen.’64

Er is weinig reden om aan te nemen dat deze nieuwe aanpak om een intelligente machine uit te broeden vruchtbaarder zal zijn dan de oude. Ook deze aanpak gaat uit van de veronderstelling dat de hersenen via dezelfde formele mathematische regels werken als een computer, met andere woorden: dat de hersenen en de computer dezelfde taal spreken. Maar dat is een misvatting, die voortkomt uit ons verlangen om verschijnselen die we niet kunnen begrijpen te vangen in termen die we wel begrijpen. John von Neumann zelf waarschuwde voor deze valkuil. ‘Als we het over mathematica hebben,’ schreef hij aan het eind van zijn leven, ‘hebben we het wellicht over een secundaire taal, die gebouwd is op de primaire taal die ons centrale zenuwstelsel werkelijk gebruikt.’ Wat ook de taal van het centrale zenuwstelsel is, ‘hij kan niet anders dan aanzienlijk afwijken van wat wij bewust en expliciet beschouwen als mathematica’.65

Het is ook een misvatting om te denken dat het fysieke brein en de denkende geest als afzonderlijke lagen bestaan in een heel precies geconstrueerd ‘bouwwerk’. Het brein en de geest zijn, zoals deskundigen op het gebied van neuroplasticiteit hebben aangetoond, op een schitterende manier met elkaar verstrengeld. Ari Schulman schreef hierover in zijn artikel ‘Why Minds Are Not Like Computers’, verschenen in New Atlantis in 2009: ‘Alles wijst erop dat de geest niet een ordelijk scheidbare hiërarchie is, zoals een computer, maar dat hij een ingewikkelde hiërarchie is van organisatie en oorzakelijke verbanden. Veranderingen in de geest veroorzaken veranderingen in het brein en vice versa.’ Wil je een computermodel maken van het menselijk brein dat een nauwkeurige kopie is van de geest, dan moet je ‘elk niveau van het brein namaken dat de geest beïnvloedt en dat door de geest wordt beïnvloed’.66 Omdat we nog lang niet in staat zijn de hiërarchie van het brein te ontrafelen en zeker nog niets begrijpen van de interacties tussen de verschillende niveaus van het brein, is het onwaarschijnlijk dat we de komende generaties een kunstmatige geest kunnen ontwerpen, als het al ooit mogelijk is.

Google is geen god en ook geen duivel, en als er donkere hoeken in het Googleplex zijn te vinden, dan komt dat door de schaduw van grootheidswaan. Verontrustend aan de oprichters van het bedrijf is niet hun jeugdig enthousiasme om een verbazingwekkend ‘coole’ machine te ontwikkelen die slimmer is dan haar ontwerpers, maar hun bekrompen opvatting van de menselijke geest die aan dit verlangen ten grondslag ligt.