Sociaal geograaf Kees Verhoeven (D66) is een van de zeldzame (oud-)kamerleden met verstand van AI en overheidsbeleid. In S&D bepleitte hij onlangs waarom wetgeving rondom artificial intelligence (AI) NU noodzakelijk is. In het artikel noemt hij ook voorbeelden van wenselijke AI-toepassingen. Het passender toewijzen van woningen aan nieuwkomers bijvoorbeeld, op basis van extrapolatie van data uit het verleden, om de kans op ‘geslaagde integratie’ te bevorderen.
Het klinkt utopisch: de computer laten kiezen waar nieuwkomers komen te wonen om zo voor iedereen een gespreid, integratie-ready bedje te selecteren. Deze utilitaire benadering van integratie-statistieken lijkt mij echter absoluut onwenselijk.
Asielprocedures kennen een omgekeerde bewijslast: als nieuwkomer dien je álles met de IND te delen, om zo je asielaanvraag kracht bij te zetten. Na je verblijfsvergunning volgt – uitzonderingen daargelaten - een sociale huurwoning, een uitkering en een educatietraject richting het inburgeringsexamen. Nieuwkomers mogen in principe de aan hen toegewezen woning niet weigeren.
We weten uit eerdere datasets dat het gemiddeld genomen goed is voor je integratie om in de buurt van mensen die op je lijken te gaan wonen. Hoe meer mensen met eenzelfde achtergrond (taal, cultuur, religie) in je nieuwe omgeving, hoe groter de kans snel je sociale netwerk op te bouwen, werk op niveau te vinden en wijs te worden in deze kafkaëske polder. Dit blijkt bijvoorbeeld uit de geslaagde integratie van de 30.000 mensen tellende Suryoye-diaspora in Nederland, die zich voor het overgrote deel in Twente gevestigd heeft en daar volwaardig geïntegreerd is.
To zover het goede nieuws. Maar beeld je nu een AI-uitvoeringsinstantie in, die jou probeert te huisvesten in een postcodegebied waarin de inwoners op jou lijken. Waar je als een kwartetkaart over het bord geschoven wordt, richting jouw ‘gelijken’. Dit kan niet anders dan leiden tot segregatie.
Ook los van dit kwartet-aspect schuilt er gevaar in zelflerende algoritmes, vooral waar deze toegepast worden op nieuwe, individuele gevallen en persoonlijke data. Bijvoorbeeld: stel dat dit AI-model uit data leert dat mensen met huidskleur koffieboon meer of minder goed integreren in Limburg dan mensen met huidskleur koffie verkeerd. (NB: ook als de huidskleur-RAL-nummers an sich geen onderdeel van de dataset uitmaken, wegen deze mee, bijvoorbeeld via het land van herkomst.) Zwemt zo’n datasysteem dan niet (alweer! Net als met de fraude-risico-profielen…) in een zichzelf versterkende bias? Concluderen we dan over tien jaar dat we onder onze ogen etnische scheidslijnen in huisvesting tot een automatisme hebben gemaakt?
Het gebruik van artificial intelligence voor het ‘passend’ toewijzen van sociale huurwoningen verspreid door het land aan nieuwkomers is wat mij betreft dus noch wenselijk noch acceptabel te noemen. Dan maar behelpen met het oude systeem van de eerstvolgende passende woning naar de eerstvolgende in de rij. Of geef nieuwkomers zelf wat te kiezen: de parameters voor hun woonvoorkeuren bijvoorbeeld.