De Europese wetgeving over artificiële intelligentie krijgt langzaam vorm, maar voor de maatschappelijke impact van AI is nog niets geregeld. Vanuit een commerciële logica zullen weinig bedrijven AI-producten ontwikkelen die specifiek bedoeld zijn om het leven van arme mensen te verbeteren.
Daniel Mügge
Professor of Political Arithmetic aan de Universiteit van Amsterdam en projectleider RegulAite
De Europese Unie staat op het punt om wetgeving voor artificiële intelligentie (AI) aan te nemen. Na jaren gesteggel wordt de ‘AI Act’ in december waarschijnlijk een feit. Dat regelpakket stelt grenzen aan gevaarlijke toepassingen zoals automatische gezichtsherkenning. Het moet bovendien ervoor zorgen dat AI-tools in Europa geen fundamentele rechten schenden – denk aan privacy of het recht op non-discriminatie. En het legt AI-ontwikkelaars een reeks plichten op, bijvoorbeeld openheid over hoe potentieel risicovolle systemen zijn gebouwd.
Maar wie denkt dat AI als politiek dossier daarmee is afgehandeld, heeft het goed mis. Brusselse AI-wetgeving heeft namelijk weinig oog voor de maatschappij-brede omwentelingen die AI kan brengen. Dat is een punt van zorg met name als men in AI meer ziet dan gewoon een digitaal product dat binnen heldere kaders vrij verhandelbaar moet kunnen zijn. De Tweede Kamer wordt eind november opnieuw gekozen; het Europese parlement over iets meer dan een half jaar. Een goed moment dus om te vragen: wat zouden beginselen zijn van een progressief AI-beleid?
Het ligt voor de hand hierbij drie belangrijke progressieve beginselen als uitgangspunt te nemen: emancipatie, solidariteit en duurzaamheid. Wat betreft de eerste: technologische vooruitgang zou mensen vrijer moeten maken en hun zelfbeschikking en controle over het eigen leven moeten vergroten. Met het oog op solidariteit zouden de vruchten van vooruitgang breed in de maatschappij — en wellicht mondiaal — gedeeld moeten worden, dus fair en met oog voor elkaar. En vanuit het beginsel van duurzaamheid mag die vooruitgang niet op rekening van toekomstige generaties gaan. Wat betekent het voor AI-beleid als men het drieluik emancipatie, solidariteit, en duurzaamheid als uitgangspunt neemt?
Een inhaalrace tussen vangrails
Op dit moment zijn politieke discussies en de beleidsvisies op artificiële intelligentie vrij nauw. De centrale doelstelling is: AI aanjagen. AI wordt gedomineerd door de grote Chinese en Amerikaanse Big Tech-bedrijven. In deze landen worden de meeste AI-patenten aangemeld en investeringen in AI zijn er veel hoger dan in Europa. Niet dat op ons continent niets gebeurt, maar er zit een duidelijk gat tussen de twee mondiale koplopers en de EU. Uit angst een economische boot te missen en technologisch afhankelijk te worden, zetten zowel Den Haag als Brussel in op een Europese inhaalrace op AI-vlak.
Tegelijkertijd leven in beleidskringen ook zorgen over de veiligheid en mogelijk misbruik van AI. EU-wetgeving voor artificiële intelligentie – een soort wettelijke vangrails voor die inhaalrace – focust niet alleen op bijvoorbeeld geautomatiseerde discriminatie en mogelijke privacy-schendingen, maar ook op digitale manipulatie, bijvoorbeeld door deepfakes, of schade voor burgers als AI-systemen op hol slaan.
Hype
Op de achtergrond schemeren twee uiteenlopende AI-verzichten. De eerste, een futuristische hype, suggereert dat artificiële intelligentie álles verandert. Alsof de mensheid in haar geheel een upgrade krijgt, zoals in de titel van Max Tegmarks bestseller Life 3.0. Being Human in the Age of Artificial Intelligence. Bron van paniek is hier een soort FOMO (fear of missing out), waarin de geschiedenis landen zal afstraffen die AI niet op tijd omarmd hebben. Adviesbureaus zoals McKinsey rekenen regelmatig voor wat voor ongelofelijke sommen geld met AI verdiend kunnen worden – om watertandende klanten vervolgens met duurbetaald advies op weg te helpen in die gouden AI-toekomst.
Wat daarbij vaak vergeten wordt is dat nieuwe verdienmodellen en innovatie niet automatisch tot bredere welvaart leiden. Veel artificiële intelligentie-toepassingen zullen winst en economische macht eerder concentreren bij een kleine groep. De productiviteit van een handvol bedrijven en werknemers zal een behoorlijke boost krijgen. Maar tenzij die nieuwe rijkdom breed gedeeld wordt in de maatschappij, leidt deze niet tot meer vraag en dus groei. Zonder een overheid die via forse belasting van digitale winsten artificiële intelligentie als ongelijkheidsmachine beteugelt, zou het economische wondermiddel AI wel eens een wassen neus kunnen zijn.
Maar ook buiten het economische domein gaat AI de mensheid niet redden. We hebben nu al de technologische middelen om grote wereldproblemen op te lossen, maar onverschilligheid, hebzucht en politiek conflict staan daar keer op keer aan in de weg. Daar zal AI niets aan veranderen.
Tegelijkertijd duiken apocalyptische vergezichten op: een doorgeslagen, ver gevorderd AI, zo horen wij uit Silicon Valley, zou ooit zelf de macht kunnen pakken of gewoon uit de hand kunnen lopen, met desastreuze gevolgen voor de mensheid. ‘Existential risk’ wordt in tech-kringen als het centrale obstakel gezien op weg naar een digitaal Nirvana.
Kritische analisten zien hier vooral een gewiekst afleidingsmaneuver in. In sci-fi-achtige discussies bewijst de tech-sector zijn vermeende zorgen over de maatschappelijke impact van artificiële intelligentie, zonder zijn handen vuil te hoeven maken aan de problematische gevolgen van AI die wij nu al zien. Natuurlijk moeten lange-termijnvragen en scenario’s in kaart gebracht worden, maar zij zijn geen excuus voor nalatigheid in het hier en nu.
Een brede blik op AI
Vanuit een progressief perspectief is de vraag urgent wat de voetafdruk van AI is in de samenleving, nu en in de toekomst. En hoe wij ervoor kunnen zorgen dat AI emancipatie, solidariteit, en duurzaamheid bevordert en niet belemmert. Ten eerste moet de blik op AI zelf verbreed worden. In het wild treffen wij AI immers meestal ingebed in andere technologieën – navigatiesystemen, websites om treinkaartjes te boeken, digitale leeromgevingen op school, de werkflow-planning op ziekenhuisafdelingen, of achter geautomatiseerde brieven van de overheid. Artificiële intelligentie is niet zozeer een apart product, zoals een zaklamp of digitale camera, maar een tool dat op heel veel plekken vrij onzichtbaar ingezet wordt.
AI-beleid gaat dus niet alleen over de veiligheid of transparantie van een algoritme zelf. Het gaat ook over de maatschappelijke consequenties van AI-gebruik. Wat doet AI met ons onderwijs? Hoe beïnvloedt zij, via mobiele telefoons of tablets, kinderen en jonge mensen? Wat doet AI met menselijk contact in de zorg? Waar kan AI gebruikt worden om consumenten nog slimmer te verleiden of een zo hoog mogelijke prijs te laten betalen? Discussies rond deze onderwerpen zijn niet nieuw. Het besef dat de politiek hier iets van mag en moet vinden is dat wel.
Bij het onder ogen zien van de onwenselijke maatschappelijke bijwerkingen van AI hebben we een nuchter beleid nodig, geen paniekvoetbal. Er mag bij de ontwikkeling of toepassing van AI best af en toe op de rem getrapt worden, ondanks jachtige berichten dat, als wij niet vol gas geven, de Nederlandse of Europese digitale sector nog verder achteropraakt. Nederland wordt niet direct een digitale woestijn als het een keer een innovatie langs zich heen laat gaan. Amerika mag dan digitaal geavanceerder zijn dan Europa, de relatieve behoedzaamheid en solidariteit van beleid hier maken Nederland nog steeds een veel leefbaarder land dan de VS, met name voor burgers die niet tot een bevoorrechte minderheid behoren. Technologisch wereldleiderschap is noch een garantie noch een voorwaarde voor gelukkige burgers.
Een brede blik op artificiële intelligentie verliest bovendien de ecologische voetafdruk niet uit het oog. Datacentra en computersystemen om algoritmes te trainen verslinden enorme hoeveelheden elektriciteit. En de grondstofwinning voor geavanceerde computerchips gaat vaak gepaard met abominabele arbeidsomstandigheden en serieuze milieuvervuiling, bijvoorbeeld rondom mijnen. Zo virtueel als AI ook lijkt, zij heeft nogal een nare impact op de natuur.
Beleid daarop voeren is lastig: datacentra die op groene stroom draaien, leggen zo’n groot beslag op die stroomvoorziening dat andere verbruikers worden gedwongen fossiele elektriciteit te gebruiken. Ze schuiven het probleem zo door. De meeste potentie zit vooralsnog misschien in een combinatie van transparantie over de milieu-impact van techbedrijven en regels die energiezuinig AI aanmoedigen. Bijvoorbeeld door eindgebruikers de optie te geven om zoekmachines, apps en kantoorsoftware in een energiezuinige AI-light stand te zetten. Alsnog onbevredigend, maar afgedwongen openheid over de milieu-impact van AI-gebruik is in ieder geval beter dan de illusie dat AI een schone technologie is. Ook aan een onschuldige vraag aan ChatGPT hangt een ecologisch prijskaartje.
Manipulatie en emancipatie
Een van de grootste zorgen over AI vanuit een progressief perspectief is de invloed op emancipatie – begrepen als een stapsgewijze groei van zelfbeschikking. Veel AI-systemen mikken er immers op individuen en hun beweegredenen beter te doorgronden, om daar dan politiek of commercieel voordeel mee te doen. Hier zit een cruciale spanning. Algoritmes bieden wellicht gemak, bijvoorbeeld in zoekmachines die ons wonderbaarlijk naar de gewenste resultaten leiden of Spotify dat nu al weet waar wij morgen graag naar zullen luisteren. Tegelijkertijd worden mensen, soms met, soms zonder kwade bedoelingen, steeds meer van buiten gestuurd – wat haaks staat op zelfbeschikking.
Een progressief AI-beleid zou burgers realistische opties moeten geven die teugels terug te pakken. Zo zouden techbedrijven bijvoorbeeld verplicht kunnen worden gebruikers van apps of zoekmachines zelf te laten kiezen tussen zoekalgoritmes: wil ik op LinkedIn alleen posts van mijn directe contacten zien, streng chronologisch? Voorgeselecteerd op mijn vermeende interesses? Of misschien gemengd met wat willekeurig uitgekozen, populaire posts? Op z’n minst zouden gebruikers makkelijker moeten kunnen begrijpen naar welke criteria artificiële intelligentie content of suggesties voorsorteert.
Hetzelfde geldt voor het politieke discours. Sociale media-algoritmes werden regelmatig gehekeld als bronnen van disinformatie, online haat en polarisatie. Tegelijkertijd kunnen politieke partijen en hun aanhangers AI gebruiken om met psychologische trucjes zielen te winnen. Daarbij worden rede en deliberatie omzeild om direct het onderbewustzijn van kiezers aan te boren.
Stel je een algoritme voor dat voor mij op maat gemaakte partij-reclame mailt – gebaseerd op de regio waar ik woon, de baan die ik heb, mijn taalgebruik, het soort onderwerpen dat ik relevant vind, enzovoort. En niet alleen de tekst van die automatische e-mail is dan op mij geijkt, maar ook het lettertype, de achtergrondafbeelding et cetera. Politieke reclame gestoeld op een algoritmisch psychogram van mij, dat mij precies op mijn zwakke plekken weet te raken. Ook dat staat haaks op emancipatie en het doel om burgers zelf soeverein over hun levens te laten beslissen.
Met name vanwege het potentiële risico van manipulatie mag de controle over AI niet in een klein aantal handen geconcentreerd zijn – noch bij bedrijven, noch bij overheden. Vooralsnog heb ik geen probleem met de AI-toepassingen die Microsoft langzamerhand in zijn Office-software inbouwt, zoals automatische tekstsuggesties of vertaling van gehele documenten. Maar het is opmerkelijk dat het monopolie van Microsoft kantoorsoftwaregebruikers feitelijk geen andere keuze laat dan dag in, dag uit met AI te werken.
De ongelijke impact van AI
Veel discussies over AI suggereren een soort tweestrijd tussen mens en machine, of tussen burgers en Big Tech. De praktijk ligt ingewikkelder, want de kosten en baten van AI zijn ongelijk verdeeld. Sommige werknemers zullen hun productiviteit – en daarmee wellicht hun lonen – inderdaad zien stijgen. Andere banen verschralen of verdwijnen. In het ene geval gebruiken mensen algoritmes, in het andere gebruiken of vervangen algoritmes mensen.
Dat geldt ook voor het gebruik van AI in de privésfeer. Commerciële AI-toepassingen zijn immers gericht op mensen die ervoor kunnen betalen en voldoende digitaal geletterd zijn. Een deel van de Nederlandse bevolking is als markt voor AI-hulpmiddelen gewoon niet interessant. Het resultaat? Een groeiende kloof tussen mensen die hun voordeel kunnen doen met digitale technologieën en degenen voor wie dat niet geldt.
De digitale kloof is natuurlijk niet nieuw, maar vanuit een progressief perspectief is zij een manifest politiek probleem. Solidaire technologische vooruitgang zou immers moeten betekenen dat zoveel mogelijk mensen er beter van worden. Dat gaat niet vanzelf en vergt dus politieke interventies. Een progressief AI-beleid is niet alleen bezig met de voorhoede van de digitale transformatie – de ‘innovators’ – maar bekommert zich ook om de achterblijvers. Vanuit een commerciële logica zullen weinig bedrijven AI-producten ontwikkelen die specifiek bedoeld zijn om het leven van arme mensen te verbeteren. Of denk aan vertaaltools die mensen zonder Nederlandse taalvaardigheden écht kunnen helpen die brief van de rijksoverheid te begrijpen. Hier zijn initiatief en geld vanuit de publieke sector gevraagd om te zorgen dat de voordelen van AI breed gedeeld worden.
De mondiale dimensie
Wie uitzoomt en de wereld als geheel bekijkt, ziet een nog veel grotere kloof. De tech-sector is mondiaal, en de grootste spelers zijn geworteld in de VS of in China. Europa heeft al moeite om die twee bij te houden; voor de meeste andere landen is die strijd verloren voordat die is begonnen.
Het resultaat is een mondiale hiërarchie waarin digitale macht enorm geconcentreerd is. Daar is van Den Haag en zelfs vanuit Brussel niet direct iets aan te doen, maar het vergt wel onze aandacht. Verstrekt digitaal beleid in rijke landen mondiale ongelijkheid? Belemmert ons beleid wellicht de ontwikkeling van lokale high tech-sectoren elders? En in welke mate zitten achter algoritmes op onze telefoons slecht betaalde werkers in arme landen, die eindeloze datasets voor een mager loon moeten opschonen? Het belang van faire handel en oog voor ontwikkeling elders in de wereld geldt ook voor AI.
Tegelijkertijd zal ook een progressief AI-beleid rekening moeten houden met de geopolitieke situatie. Artificiële intelligentie is niet alleen de speelbal van commerciële interesses, maar ook van militaire belangen. Zowel Beijing als Washington ziet AI als een cruciaal wapen in hun gespannen onderlinge verhouding. In hoeverre algoritmes daadwerkelijk beslissend zullen worden op het slagveld is een open vraag; dat grote strijdmachten er hun hoop op zetten is een feit. Ook door zijn NAVO-lidmaatschap en afhankelijkheid van de VS zal Nederland zich aan de militarisering van AI niet geheel kunnen onttrekken.
Dat betekent niet dat Europees AI-beleid zich moeten laten meesleuren in alomvattende ‘vriend of vijand’-logica van digitale bondgenootschappen. Ondanks de nauwe trans-Atlantische banden moet het mogelijk blijven om verschillende beleidspaden te bewandelen – zoals nu al gebeurt met een strenger Europees toezicht op digitale platforms of privacybescherming. Toekomstige Amerikaanse verkiezingen zouden de meningsverschillen tussen het Witte Huis en Brussel fors kunnen laten groeien; alleen al daarom is het verstandig om niet te zeer op trans-Atlantische eensgezindheid te vertrouwen.
Een pragmatische maar doortastende aanpak
Eerlijk is eerlijk: er zijn grenzen aan de bestuurbaarheid van AI. Het digitale karakter ervan maakt AI vaak ongrijpbaar en de toekomstige vaardigheden van AI-systemen zijn lastig te voorspellen. Er is geen magische knop om technologische ontwikkelingen de ene of andere kant op te sturen.
Omdat AI-beleid niet helemaal van tevoren dichtgetimmerd kan worden, moet de politiek flexibel kunnen blijven reageren op nieuwe uitdagingen. Bedrijven willen begrijpelijkerwijs weten waar zij juridisch aan toe zijn, maar als de technologie zelf onvoorspelbaar blijft, zullen de politieke antwoorden daarop dat ook zijn.
Innovatie en individuele vrijheid moeten ruimte krijgen zolang zij het bredere maatschappelijke belang niet in het geding brengen. Dat geldt ook voor wat men digitale volksgezondheid zou kunnen noemen. Waar AI gedrag bevordert dat schadelijk is voor burgers – bijvoorbeeld excessieve impulsaankopen – zou de overheid net zo kunnen ingrijpen als zij dat doet met een verbod op roken op bepaalde plaatsen en beneden een bepaalde leeftijd, leeftijdsbeperkingen voor alcoholverkoop, of een gordelplicht in de auto.
Niet alles kan of hoeft gereguleerd te worden. Sommige negatieve bijwerkingen van de digitale transformatie kunnen beter door flankerende maatregelen opgevangen worden. Neem sectoren waarin AI op grote schaal banen zou kunnen vernietigen – vooral routinewerk achter computers, zoals de verwerking van documenten of data. Gezien het tempo van veranderingen ligt het vanuit solidariteitsoogpunt voor de hand dat de winnaars van de AI-omwentelingen meebetalen om de verliezers te compenseren. Of dat de vorm krijgt van een basisinkomen of goede omscholing is minder relevant. Wat telt is het principe dat men verliezers niet gewoon in de kou laat staan.
De rol van Nederland in Europa
AI-beleid is voor een groot deel EU-beleid. Europese wetgeving ziet AI primair als een digitaal product, en dus als deel van de binnenmarkt. Die aanpak is zinvol – een lappendeken van digitale regels in Europa zou haast onwerkbaar zijn.
Daarmee is de rol van nationaal AI-beleid echter nog lang niet uitgespeeld. Ten eerste hebben de lidstaten – en Europarlementariërs uit die lidstaten – een centrale rol in het EU-beleid. Nederland kan dus zijn stem in Brussel laten gelden. Ten tweede houdt AI-beleid niet op bij wetgeving voor een digitale binnenmarkt. AI-beleid gaat ook over de effecten die technologische verandering in andere sectoren heeft – in de zorg, in het onderwijs, in arbeidsmarkten, in de politieke arena, in de media.
Hier ligt wel ruimte om op nationaal niveau bij te sturen: welke rol willen wij voor AI in het hoger onderwijs? Welke ruimte krijgen ondernemingsraden om mee te beslissen over inzet van AI in een bedrijf? Moeten er grenzen zijn voor TikTok-algoritmes die toeristen in Amsterdam de ene dag massaal naar de ene plek sturen, en een dag later naar een andere? En als AI-gedreven sociale media de mentale gezondheid van jonge mensen beschadigen, hoe kan nationaal beleid die dynamiek afzwakken? Een Europese markt voor AI mag niet betekenen dat landen geen ruimte meer overhouden om de voetafdruk van de digitale transformatie te managen.
Een oneindige opgave
Het is moeilijk voorstelbaar dat digitale innovatie ergens stopt. Daarmee is ook AI-beleid nooit af. Zowel de Tweede Kamer als het Europese Parlement zullen ervoor moeten blijven zorgen dat de digitale transformatie een stap voorwaarts voor alle burgers is, zonder te veel van de kosten door te schuiven naar de toekomst.
De trias van emancipatie, solidariteit en duurzaamheid als leidraad maken het er niet makkelijker op: AI werkt immers op heel uiteenlopende manieren op die gebieden door, vaak op manieren die niet direct zichtbaar zijn. Desondanks zullen progressieve politici die handschoen moeten oppakken en werk moeten maken van een AI-toekomst waar mens en maatschappij beter van worden.
Op dit moment ontbreekt echter aandacht voor en kennis over wat AI betekent voor de zwakkeren in de samenleving. AI is ingewikkeld, en de beleidsdiscussie wordt – niet geheel verbazingwekkend – gedomineerd door mensen met een redelijk geprivilegieerde positie in de maatschappij. Maar beleid en producten die voor de een goed werken, hoeven dat voor andere mensen nog niet te doen. Laten we dus uitzoeken wat AI eigenlijk betekent voor het werk van een verpleegster, voor sociale minima, voor mensen met een handicap, voor mensen in rurale gebieden. Belangrijk is dus dat wij een helderder beeld krijgen van de ‘digitale alledag’ van burgers dwars door de maatschappij, niet alleen de digitale koplopers.
Europese en Nederlandse AI-autoriteiten zullen in de toekomst behoorlijke resources en bevoegdheden nodig hebben, om waar nodig onderzoeken uit te voeren of bij te sturen. Daarbij moet vooral een gezonde afstand tussen toezichthouders en de bedrijfswereld gewaarborgd blijven. Als verhoudingen te knus worden – men denke aan de financiële sector of relaties tussen bedrijven en hun auditors – kan echte controle snel verwateren. Dat betekent geen vijandige houding tegenover AI-bedrijven – alleen het besef dat hun belang en dat van burgers in al hun diversiteit nogal kunnen botsen.
Al met al moeten nationale overheden de ruimte en durf hebben om onwenselijke maatschappelijke uitwerkingen van AI te benoemen en aan te pakken. Soms kan dat binnen de bestaande EU-kaders; op andere momenten moeten lidstaten gezamenlijk nieuw beleid optuigen. En waar voortschrijdend inzicht laat zien dat Europese binnenmarktregels in de weg staan, moeten die wellicht nog eens tegen het licht gehouden worden. De macht van nieuwe technologieën en de handvol bedrijven die deze domineren is enorm. Hoe dan ook is het essentieel dat burgers en hun vertegenwoordigers waar mogelijk de regie over onze digitale toekomst pakken en houden.