Hoe vertrouwen eruitziet als iedereen kijkt – onderzoek naar camera's en surveillance tijdens protesten op de A12

Gepanserde politiewagen tijdens het A12 klimaatprotest in 2023.

Tijdens de A12-klimaatprotesten in 2023 waren er overal camera's. Drones cirkelden boven de hoofden van demonstranten en politie, bodycams knipperden rood en er werden livestreams online gezet. En dat waren niet alleen politie opnames. Demonstranten filmden ook voortdurend, waardoor het hele protest een soort wederzijdse surveillance werd. Iedereen kijkt naar iedereen.

Te midden van al die zichtbare spanning ontstond er een stillere, meer ongebruikelijke samenwerking: een team van onderzoekers en politieagenten die samenwerkten om te begrijpen wat surveillance met mensen doet op emotioneel en sociaal gebied. 

Hoe kan digitale surveillance een evenwicht vormen tussen twee kernbelangen: het beschermen van het recht om te demonstreren en het handhaven van de openbare orde. Hun bevindingen werden besproken in een wetenschappelijk artikel. Maar het verhaal achter het artikel, de samenwerking zelf, biedt een ander soort inzicht.

A12 Klimaatprotest in 2023.
Gabriele Jacobs

Inzicht in samenwerking

In dit artikel blikken we terug op dat proces, vanuit het perspectief van de onderzoekers en politieagenten die het mogelijk maakten. 

Waarom überhaupt samenwerken? Voor Bas Testerink, een AI-expert binnen de Nederlandse politie, is de reden eenvoudig: de politie heeft kritische vrienden nodig. De politie als organisatie reflecteert wel intern. Maar de gebruikte ELSA methode, waarbij vragen worden onderzocht vanuit ethische, juridische en sociale kwesties, kan niet worden vastgelegd met de standaardmaatstaven. 

Onafhankelijke onderzoekers brengen nieuwe invalshoeken, nieuwe vragen en soms de ongemakkelijke spiegels die instellingen nodig hebben. "Tegelijkertijd", legt hij uit, "hebben we altijd te maken met beperkte middelen en kost het tijd en moeite om transparant te zijn en onderzoeksresultaten te verwerken."

Deze voorzichtigheid betekent dat toegang moeilijk kan zijn. Maar lange termijn-verplichtingen, zoals het werken met het AI MAPS-onderzoeksproject, helpen wel die kloof te overbruggen. Zo wordt er gebouwd aan de sociale netwerken, het vertrouwen en het wederzijdse begrip op die nodig zijn om de samenwerking te laten slagen.

Onderzoekers in het midden

Voor de onderzoekers was werken met de politie niet zomaar een academische bezigheid. Het betekende dat er een spanningsveld werd betreden tussen activisten en politie, tussen publieke perceptie en institutionele realiteit, tussen emotionele belangen en methodologische strengheid. 

"We gebruiken een ELSA-methodologie," zegt PhD-onderzoeker Majsa Storbeck. "Dat betekent nabijheid tot belanghebbenden. We werken met hen samen, niet met hen. Dit geldt zowel voor overheidsorganisaties (politie) als voor het maatschappelijk middenveld (activisten)."

Politieagenten tijdens het klimaatprotest in 2023.
Gabriele Jacobs

Die nabijheid hielp het onderzoek vooruit, maar maakte het ook ingewikkelder. Sommige activisten wantrouwden de politie. Sommige agenten waren op hun hoede voor activisten. En in het kruisvuur werden onderzoekers soms gevraagd aan wiens 'kant' ze eigenlijk stonden. Soms werd er niet deelgenomen aan het onderzoek. En nieuwsgierigheid werd aangezien voor 'een kant kiezen'. 

In de loop van de tijd veranderde er echter iets. Het onderzoeksteam leerde de gevoeligheden in goede banen te leiden, hun rol uit te leggen en vertrouwen te winnen. Uiteindelijk werden ze zelfs gezien als bruggenbouwers; geen politie en geen demonstranten, maar iets daartussenin, met hun eigen expertise. "Het vereiste geduld en transparantie," zegt Majsa. "We leerden hoe legitimiteit er in de praktijk echt uitziet, en wat wij als onderzoekers kunnen inbrengen."

Onverwachte inzichten uit het veld

Een van de meest opvallende lessen was hoe mensen dezelfde technologieën verschillend interpreteerden. Binnen de politie, legt Bas Testenrink uit, gaan de meeste AI-gerelateerde verzoeken eigenlijk over het verminderen van data. Zoals triage, filtering en samenvatten. 

Collega's willen graag minder data zien, niet meer. De demonstranten gingen uit van het tegenovergestelde en namen aan dat de politie uitgebreide AI-bewakingsbevoegdheden had. "De psychologische impact van die aanname drong tot me door," zegt Bas. "Zelfs als de mogelijkheden niet bestaan, kan het idee alleen iemands gedrag of gevoel van veiligheid bepalen."

Zijn collega Jan Spijkerman voegt een verrassend detail toe: veel activisten, vaak hoogopgeleid, geloofden dat de politie AI-gestuurde surveillancesystemen gebruikte die ze simpelweg niet hebben.

De misverstanden kwamen niet uit het niets. De onderzoekers merkten op hoe moeilijk het voor het publiek is om een duidelijk beeld te krijgen van welke middelen de politie daadwerkelijk gebruikt. Nieuwsberichten zijn niet duidelijk over verschillende politiebevoegdheden en de juridische kaders zijn fragmentarisch. 

In het huidige gespannen politiek klimaat lijken zorgen over 'function creep' - waarbij surveillance voor meer doeleinde wordt gebruikt dan het oorspronkelijke doel - voor veel mensen niet vergezocht. Dit alles maakt één ding heel duidelijk: transparantie is noodzakelijk. Mensen moeten weten welke technologieën tijdens protesten worden gebruikt, waarom, en op welke juridische grond. Zonder dat voert angst de boventoon.

Ter plaatse zagen de onderzoekers een beeld dat niet helemaal overeenkwam met wat beleid of persberichten suggereren. Veel demonstranten zagen agenten niet als mensen die hun recht op demonstratie beschermden, ze zagen hen als het gezicht van een systeem waarvan ze vonden dat het hen in de steek had gelaten. De politie voerde ondertussen gewoon bevelen uit van burgemeesters en aanklagers. 

Politieagenten tijdens het klimaatprotest in 2023.
Gabriele Jacobs

Ze hadden weinig te zeggen over hoe de protesten werden afgehandeld, maar kregen vaak de schuld van alles wat er gebeurde. De spanning werd nog scherper rond de veiligheidsrisico's van de protesten, die Jan Spijkerman omschrijft als de 'zeer reële fysieke gevaren' van het blokkeren van een drukke inrit naar een snelweg. AI werd in deze ruimte niet alleen technologie, maar ook een symbool waarop angsten, hoop en machtsverhoudingen werden geprojecteerd.

Ethiek voorbij checklists 

Hoofdonderzoeker van AI MAPS, prof.dr. Gabriele Jacobs, beschrijft de samenwerking als een 'vertrouwens-opbouwoefening op vele niveaus'. Onderzoekers leerden van de politiecultuur: bijvoorbeeld van de buddy-systemen, veiligheidscontroles, duidelijke rollen, fysieke paraatheid en regelmatige nabesprekingen. 

Onderzoekers en politieagenten deelden samen het hechten aan onafhankelijkheid, vertrouwelijkheid en reflexiviteit. Ze realiseerden zich dat ze elkaars standpunten over deze onderwerpen respecteerden.

Op advies van de politie trok het onderzoeksteam tijdens veldwerk gele hesjes aan, niet voor de zichtbaarheid, maar voor transparantie. De demonstranten moesten weten wie ze waren. En zodra dat gebeurde, begonnen zowel demonstranten als agenten naar de onderzoekers toe te komen om te praten.

Een van Gabriele's belangrijkste inzichten was hoe verschillend AI wordt waargenomen, afhankelijk van wie je bent en welke rol je hebt. AI is niet zomaar een systeem, het is een sociaal construct. 

Onderzoekers lopen mee met het A12 Klimaatprotest in 2023.
Gabriele Jacobs

Demonstranten interpreteerden het op een bepaalde manier en agenten op een andere manier. Soms waren beide partijen het onderling oneens: moesten ze transparantie benadrukken? Of is het strategisch handig dat mensen aannemen dat de politie meer AI-capaciteiten heeft dan zijzelf? Deze vragen komen niet voor in compliance-documenten. Ze komen naar boven in de chaos van echte ontmoetingen.

Wat zou je willen dat de ander weet

Toen hem werd gevraagd wat hij wilde dat onderzoekers begrepen, was Bas duidelijk: het beperken van de toegang heeft niets te maken met wantrouwen. Het gaat om het veiligstellen van activiteiten, het voorkomen van miscommunicatie en het beheren van beperkte middelen. Transparant zijn kost tijd en het leidt tot vervolgvragen.

Onderzoekers tijdens het A12 Klimaatprotest in 2023.
Gabriele Jacobs

Majsa's boodschap aan politiepartners was anders: academisch werk gaat langzaam, culturen verschillen en misverstanden gebeuren. Maar onderzoekers passen zich ook aan en leren van politiepraktijken over structuur, veiligheid en teamwork.

Gabriele gaf advies aan beide partijen: "Wees heel open en transparant over je behoeften en je positie. Verbind je als mensen. Definieer duidelijk wat je normen en grenzen zijn en respecteer die van de andere partij."

Vertrouwen is dus hoognodig. Dit zit hem in ingeplande gesprekken, e-mails, misstappen en verduidelijkingen, gele hesjes en buddy-systemen. En in de bereidheid om te leren buiten je eigen professie.

Slotreflecties

Deze samenwerking heeft verschillen niet weggenomen. Het maakte protesten niet minder gespannen of technologie minder controversieel. Maar het liet zien dat zelfs in gepolariseerde ruimtes onderzoekers, politie en demonstranten van elkaar kunnen leren.

Het toonde aan dat ethische AI niet alleen via checklists wordt gemaakt. Het komt voort uit relaties, uit reflectie, uit mensen die bereid zijn eerlijk te zijn over hun blinde vlekken en grenzen. Het is gevormd in de ruimte tussen kijken en bekeken worden. Zoals Gabriele opmerkte: "Zelfs wanneer maatschappelijke spanningen of tegengestelde professionele rollen afstand creëren, kan menselijke verbinding nog steeds dialoog en gezamenlijke actie in stand houden."

Meer informatie

Wil je de bevindingen van het onderzoek lezen? Het artikel is gepubliceerd in Big Data & Society.

Gerelateerde content
Blogpost for the AI-MAPS project
Nanou van Iersel

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen