Predictive policing, risicotaxatie en artificiële intelligentie binnen het politiewerk: Marc Schuilenburg, hoogleraar Digital Surveillance aan Erasmus School of Law, doet sinds jaar en dag onderzoek naar de rol van technologie in de opsporing. In dit tweeluik blikken we met hem vooruit én terug: hoe nieuw zijn AI-toepassingen binnen de politie, wat maakt ze ethisch en praktisch problematisch, en is er ook een positieve inzet denkbaar? In dit tweede deel kijken we met Schuilenburg naar wat AI kan opleveren voor de politie. (Of lees eerst deel 1: De grenzen van predictive policing)
Na jaren van kritische publicaties over predictive policing, kiest Schuilenburg sinds enkele jaren voor een andere benadering. “Ik merkte dat kritiek achteraf en op afstand weinig effect had,” vertelt hij. “Daarom probeer ik nu al in de ontwikkelfase van technologie invloed uit te oefenen, zodat publieke waarden als privacy, non-discriminatie en accountability vanaf het begin worden meegenomen.”
De stap van kritische evaluatie naar actieve participatie is voor een academicus niet vanzelfsprekend. “Het vraagt moed om als onderzoeker een sturende rol op je te nemen, want je verliest een deel van je academische distantie. Maar als je daar doorheen durft te stappen, kun je echt iets betekenen,” zegt Schuilenburg. “En wat ik nu zie, stemt me hoopvol. De politie en andere organisaties staan steeds meer open voor dit soort meedenken.” Binnen lopende pilots – zoals in Zaandam, met opvangplekken voor duizend asielzoekers op twee grote boten – wordt onderzocht hoe data-gedreven tools kunnen bijdragen aan het versterken van de sociale legitimiteit van de politie. Niet als controle-instrument, maar als brug tussen burgers en gebiedsgebonden politiewerk.
Van evalueren naar co-creeëren
Een ander interessant initiatief binnen de politie zijn zogenoemde ethiektafels: overlegmomenten waarin het ontwerp van nieuwe technologische tools kritisch wordt besproken. Hier komen verschillende vormen van kennis samen. Naast technici schuiven ook ethici, ervaringsdeskundigen en beleidsmakers aan. “Voorheen draaide het vooral om technische expertise. Nu erkennen we dat ook ervaringskennis en maatschappelijke inzichten noodzakelijk zijn om technologie verantwoord te ontwikkelen.”
De ethiektafel markeert een bredere verschuiving: weg van het idee dat technologie een neutraal hulpmiddel is, en naar het besef dat ontwerpkeuzes maatschappelijke gevolgen hebben. “Als je alleen vanuit techniek denkt, mis je de context waarin AI wordt toegepast. En juist die context is cruciaal als je technologie wilt laten aansluiten op de werkelijkheid. Dat maakt AI tot een sociaal-technologische opgave.”
Politiewerk naar Japans voorbeeld
Sinds september 2024 is Schuilenburg betrokken bij het internationale KOBAN-project, gefinancierd door de Europese Commissie. Dit driejarige onderzoek richt zich op de digitalisering van community policing, geïnspireerd op het Japanse KOBAN-model: een vorm van politiewerk waarbij kleinschalige, decentrale teams nauw samenwerken met de gemeenschap en lokaal maatwerk leveren. In het project worden verschillende AI-tools ontwikkeld en getest in de praktijk, met als doel de relatie tussen politie en burgers te versterken. Daarbij ligt de nadruk niet op risicovoorspelling of controle, maar op het versterken van legitimiteit en vertrouwen. “De vraag is niet alleen wat AI kan betekenen voor de bestrijding van criminaliteit, maar ook: hoe kan AI bijdragen aan een betere relatie tussen politie en burgers en het daarop gebaseerde vertrouwen?” aldus Schuilenburg.

AI ingezet om participatie te bevorderen
Als sprekend voorbeeld van hoe AI positief kan worden ingezet, noemt Schuilenburg de mogelijkheid om ervaringskennis van burgers visueel te maken. In wijken, waar bewoners zich minder vertegenwoordigd voelen door bestuurders en beleidsmakers, kan AI worden ingezet om bewoners te helpen hun beleving van veiligheid te verbeelden. “Veel mensen beschikken over waardevolle kennis over hun wijk, maar vinden het lastig die onder woorden te brengen in gesprekken met de gemeente of politie. Via AI-gegenereerde beelden kunnen zij hun ideeën over wat veiligheid voor hen betekent tóch zichtbaar maken.”
Hiernaar wordt onderzoek gedaan in het project AI Maps waar Schuilenburg en promovenda Majsa Storbeck van de Erasmus School of Law aan deelnemen. “De visuele uitingen worden vervolgens besproken in sessies met ambtenaren en andere functionarissen, om zo gezamenlijk tot nieuwe inzichten te komen. “AI helpt hier niet om te bestrijden, maar om te verbeelden,” benadrukt Schuilenburg. “Het gaat erom dat mensen die normaal minder gehoord worden, op een andere manier deel kunnen nemen aan het gesprek over hun leefomgeving.”
Deze aanpak sluit nauw aan bij het uitgangspunt van de ethiektafel: technologie moet mensen niet buitensluiten, maar juist in staat stellen actief deel te nemen. Het verbeelden van veiligheid is een voorbeeld van hoe AI niet alleen analyseert, maar ook faciliteert. En dat past ook in een bredere visie op community policing: lokaal, betrokken en gericht op samenwerking. Schuilenburg: “De inzet van technologie mag nooit losstaan van de lokale werkelijkheid. We zoeken naar manieren om AI te gebruiken als hulpmiddel voor verbinding, niet voor uitsluiting.”
Technologie ontworpen met oog voor verbinding
Voor Schuilenburg is het duidelijk: AI is geen neutraal gereedschap, maar een product van maatschappelijke keuzes. “Goede technologie ontstaat niet vanzelf. Het vraagt om vanaf het begin over wenselijke en onwenselijke effecten van technologie na te denken.” Die keuzes moeten niet alleen worden gemaakt door technici, maar in dialoog met burgers, wijkagenten, wetenschappers – juist de stemmen die minder gehoord worden in het AI-debat dat nu vooral draait om de roep om meer veiligheid en efficienty.
Waar deel één van dit tweeluik de risico’s van predictive policing blootlegde, laat het tweede deel zien dat AI ook een ander pad kan volgen. Niet als ultieme oplossing, maar als middel om samen te werken, om vertrouwen te herstellen en verbinding te creëren. “Technologie kan helpen nieuwe vormen van samenwerking te verkennen,” besluit Schuilenburg. “Maar alleen als we erkennen dat AI nooit op zichzelf staat, maar altijd onderdeel blijft van een bredere maatschappelijke context.”
- Professor
- Gerelateerde content
- Gerelateerde opleiding