In 1968, precies vijftig jaar geleden, ging 2001: A Space Odyssey in première. Een ruimteschip is onderweg naar Jupiter. Boordcomputer HAL, inmiddels een archetype voor artificiële intelligentie (AI), neemt de missie heel serieus en vreest dat de mensen het gaan verprutsen. Hij brengt daarom vier van de vijf bemanningsleden om het leven en dan volgt de scène met Dave en HAL. Dave wil naar binnen: ‘Open the pod bay doors, HAL’. ‘I’m sorry Dave, I’m afraid I can’t do that’, antwoordt HAL. Enfin, Dave komt toch binnen en schakelt HAL uit. Dit is precies hoe we ons AI voorstellen, nog steeds. Als AI gevaarlijk wordt voor ons mensen, dan trekken we gewoon de stekker eruit.
In de praktijk van alledag zit AI niet in ruimteschepen of ‘killer robots’, maar in de servers van Google, Facebook, YouTube en Amazon. Elke keer als we een zoekopdracht typen in Google, op Facebook iets liken, een filmpje op YouTube bekijken of iets zoeken op Amazon, verzamelt die ‘alledaagse’ AI data over ons. Waar hebben we op geklikt? En vooral: waar bleven we hangen? Want dat is de basis van hun verdienmodel en dat van de aanbieders erachter.
We weten wel dat alles verzameld en verrijkt wordt. Theoretisch. Maar begrijpen we het ook praktisch, als we lekker zitten te browsen, te klikken en te kijken? In de praktijk is het behoorlijk lastig om de stekker van zulke ‘alledaagse’ AI te vinden en die eruit te trekken.
Afgelopen maanden was er vaak nieuws over de ontwrichtende effecten van alledaagse AI. Cambridge Analytica schraapte persoonlijke data van miljoenen gebruikers van Facebook, verrijkte die en bood die aan zijn klanten aan. Die konden daarmee heel gericht berichten en nepnieuws tonen aan miljoenen gebruikers van Facebook en zo de publieke opinie beïnvloeden tijdens verkiezingen. Zo ontstaan de beruchte filterbubbels en echokamers, die zorgen voor een uitholling van nieuwsvoorziening en democratie.
Wat ook naar buiten kwam, is het gebruik van AI achter sites zoals YouTube (van Google). Je krijgt een hele reeks ‘volgende video’s’, die vanzelf afspelen en steeds vreemder worden. De AI heeft namelijk geleerd dat video’s met sensatie beter aandacht vastpakken. Vergelijkbaar met hoe gemakkelijk ons brein zwicht voor de verleiding van zoet en vet eten. Ooit waren dat nuttige instincten in onze verre voorouders. Maar in de praktijk van vandaag is alledaagse AI killing voor onze wilskracht en ons concentratievermogen.
Tristan Harris maakt zich daar zorgen over. Hij heeft jaren in de hightechindustrie gewerkt, onder andere als design ethicist bij Google. Onlangs heeft hij het Center for Humane Technology opgericht. Hij ziet de problemen heel duidelijk: de risico’s voor onze gezondheid, vooral voor kinderen, de risico’s voor democratie en voor sociale relaties. Hij biedt bovendien een reeks praktische tips om (weer) de baas te worden over uw mobiele telefoon op humanetech.com/take-control.
Het zal veel inspanningen van ons vergen om alledaagse AI de baas te worden. Op collectief niveau moeten we pleiten voor wetgeving die de menselijke waardigheid beter beschermt. De Algemene verordening gegevensbescherming (AVG/GDPR: General Data Protection Regulation) is een goede stap in die richting.
Op commercieel en cultureel niveau zullen we andere producten en diensten moeten ontwikkelen en die anders gaan gebruiken. Bijvoorbeeld producten en diensten die ons helpen bij het ontwikkelen van wilskracht en concentratievermogen, in plaats van die te ondergraven.
Als u zich hier ook zorgen over maakt en als u vrijheid, autonomie en rechtvaardigheid de moeite van het beschermen waard vindt, begin dan vandaag. Ga op zoek naar die stekker en trek hem eruit: ‘Open the pod bay doors, HAL’.