Die vraag stond centraal tijdens de Future Society Lab meetup, die op 11 december plaatsvond in het onlangs geopende Sociaal AI Lab in Rotterdam. Wat volgde was geen doorsnee technologie-evenement vol beloftes over slimme steden en efficiënte systemen. Integendeel: de bijeenkomst bracht een aantal confronterende inzichten aan het licht over de manier waarop kunstmatige intelligentie (AI) onze steden, en hun bewoners, al beïnvloedt. De meetup maakte één ding heel helder: de vraag is niet wat AI kan, maar wie bepaalt welke waarden erin worden vastgelegd.
Een rode draad door de middag: terwijl we publiekelijk praten over waarden, identiteit en de ‘ziel’ van de stad, wordt het digitale besturingssysteem van diezelfde stad elders geschreven, vaak door grote private partijen, met ingebouwde aannames en blinde vlekken. Hieronder vijf inzichten die duidelijk maken waarom die kloof problematisch, en soms ronduit disruptief, is.
1. Je toekomstige AI-arts kan je zorg weigeren op basis van je accent
Misschien wel het meest indringende moment van de meetup kwam van Dr. Michel van Genderen, internist-intensivist en AI-onderzoeker bij Erasmus MC. Hij presenteerde onderzoek naar medische AI-systemen die bedoeld zijn om artsen te ondersteunen bij diagnoses.
Een AI-model dat symptomen van blindedarmontsteking moest herkennen, werkte uitstekend, totdat onderzoekers sociaal-demografische details toevoegden. Wanneer de patiënt werd aangeduid met bepaalde sociaal-demografische kenmerken, zoals religieuze achtergrond of herkomst uit een wijk met lagere inkomens, veranderde het advies drastisch: de fysieke klachten werden genegeerd en er werd een psychiatrisch traject voorgesteld.
Dit bleek geen fout in de software, maar het gevolg van historische bias. Het model was getraind op medische data uit de periode 1960–1990, waarin maatschappelijke vooroordelen structureel aanwezig waren. Bovendien is naar schatting 90% van de trainingsdata van grote AI-modellen Amerikaans, en daarmee niet bepaald representatief voor een diverse stad als Rotterdam.
Van Genderen vatte het scherp samen: “De ziel van de zorg is dat ik iedereen op elk moment even goede zorg verleen. Daar heeft iedereen recht op.”
AI kan die kernwaarde ondermijnen, tenzij we daar expliciet tegen ontwerpen.
2. De ‘ziel van de stad’ is vaak een marketingconstructie
Bijzonder hoogleraar Dr. Jiska Engelbert (Centre for BOLD Cities) zette vraagtekens bij het uitgangspunt van de middag zelf: waarom zijn we eigenlijk zo bezig met het ‘DNA’ of de ‘ziel’ van de stad?
Volgens Engelbert is die zoektocht zelden neutraal. In citymarketing wordt stedelijke identiteit vaak ingezet als merk. Rotterdam Partners stelt expliciet: “Het DNA is de basis van het merk Rotterdam.” Daarmee wordt de stad niet primair benaderd als leefomgeving voor bewoners, maar als product voor investeerders, bedrijven en talent.
Engelbert introduceerde het begrip ‘public retrofitting’: technologie en systemen worden eerst ontwikkeld vanuit commerciële logica, waarna er achteraf een publieke of ‘mensgerichte’ laag overheen wordt gelegd met termen als ‘human-centered’ of ‘human in the loop’. Door te focussen op een vereenvoudigd en positief beeld van ‘de Rotterdammer(t)’ verdwijnen structurele ongelijkheden, die door technologie juist versterkt kunnen worden, uit beeld.
3. Menselijke steden hebben frictie nodig; digitale ook
Architect Harmen van de Wal bracht het gesprek van abstracte waarden naar concrete ruimtelijke ontwerpkeuzes. Hij vergeleek twee Rotterdamse straten:
- West-Kruiskade: levendig en sociaal, mede doordat het ontwerp ruimte laat voor ‘rommelig’ gedrag zoals dubbel parkeren en langzaam verkeer;
- Middellandstraat: strak ingedeeld in dertien zones (fiets, tram, stoep, rijbaan), efficiënt maar ‘sociaal arm.’
Van de Wal gebruikte het concept van ‘affordances’: wat een omgeving mogelijk maakt of uitnodigt om te doen. Zijn conclusie was contra-intuïtief maar helder: overmatige efficiëntie doodt sociaal leven.
Die les geldt ook voor digitale publieke ruimte. Een digitale stad waarin je overal kunt teleporteren en alles perfect is geoptimaliseerd, laat geen ruimte voor toevallige ontmoetingen, vertraging of gedeelde ervaring; precies de elementen die gemeenschap vormen.
4. AI is nooit neutraal; het draagt een ideologie
De meetup van het Future Society Lab begon met een prikkelende stelling van beleidsadviseur en politicus Agnes Maassen: “AI heeft geen ziel, maar we kunnen AI wel bezielen.”
Volgens Maassen ligt de verantwoordelijkheid bij ontwerpers, beleidsmakers en gebruikers om menselijke waarden in technologie te verankeren. Die gedachte riep direct debat op.
Sociaal ondernemer Rosa Douma waarschuwde dat technologie nooit een leeg canvas is. AI-systemen dragen een impliciete ideologie uit, vaak geworteld in een westers, neoliberaal wereldbeeld waarin:
- wat meetbaar is, telt
- inefficiëntie vaak als verspilling geldt
- mensen gereduceerd kunnen worden tot datapunten
Daartegenover plaatste zij een ‘zielsperspectief’, waarin juist trage processen, persoonlijke groei en gemeenschapsvorming centraal staan. Technologie heeft misschien geen ziel, maar beïnvloedt wel degelijk hoe wij die ervaren en vormgeven.
5. ‘Sociale AI’ vraagt om principes
De meetup vond plaats in het Sociaal AI Lab Rotterdam, een initiatief dat een alternatief laat zien voor kortlopende pilots en datagedreven projecten. De initiatiefnemers, waaronder Erasmus Universiteit Rotterdam, de gemeente Rotterdam, maar ook Hogeschool Rotterdam en het Techniek College, hanteren vier vaste principes:
- nabijheid: fysiek aanwezig zijn waar mensen wonen, niet alleen in kantoortorens in het centrum
- wederkerigheid: burgers profiteren van concrete voordelen, niet alleen onderzoekers die gegevens verzamelen
- gelijkwaardigheid: praktijkkennis wordt evenveel gewaardeerd als technische expertise
- continuïteit: een permanente voorziening, geen proefproject van 20 weken dat vervolgens verdwijnt
Deze aanpak verschuift technologie van een top-down ‘oplossing’ naar een gezamenlijk ontwikkelde praktijk.
De kernvraag
De meetup maakte één ding heel helder: de vraag is niet wat AI kan, maar wie bepaalt welke waarden erin worden vastgelegd.
Als we technologie vooral laten ontwerpen door grote private partijen elders, dan zal de essentie ervan hun prioriteiten weerspiegelen, niet die van ons. Rotterdam, en elke andere gemeente, staat voor een keuze: als eerste implementeren, of als eerste het goed doen voor zowel de mens als de maatschappij.
Op de hoogte blijven van de inzichten en bijeenkomsten van het Future Society Lab? Sluit je dan aan bij de LinkedIn-groep (met al 675 leden). Voor meer informatie kun je ook terecht op de website van het Future Society Lab.

- Meer informatie
Marjolein Kooistra, Communicatie ESSB, 0683676038, kooistra@essb.eur.nl
- Gerelateerde content

