In de Media: Joris Krijger over zijn onderzoek naar morele dilemma’s bij kunstmatige intelligentie en zijn werk bij de Volksbank

Overzicht over de stad Rotterdam.

In een tijdperk waarin kunstmatige intelligentie (AI) steeds prominenter wordt in verschillende sectoren, inclusief de financiële wereld, brengt het gebruik van deze technologie complexe ethische vraagstukken met zich mee. Joris Krijger begon in 2019 met een hybride onderzoeksproject waarin hij enerzijds promoveert aan de EUR op het onderwerp AI en ethiek en anderzijds bij De Volksbank is aangesteld als Ethics & AI-officer om te helpen bij het navigeren door deze morele dilemma's. Zoals Krijger benadrukt, kunnen AI-modellen zowel veelbelovend als problematisch zijn: ze kunnen fraude effectief opsporen, maar ook onschuldigen onterecht aanwijzen als fraudeurs. De vraag rijst dan: wat vinden we een passende balans in het 'afstellen' van de modellen, en hoe rechtvaardigen we die keuzes? 

In reactie op een eerdere waarschuwing van Aleid Wolfsen (voorzitter van de Autoriteit Persoonsgegevens) voor het wijdverbreide gebruik van discriminerende algoritmen door overheidsinstanties, schreef Krijger vorige week in een opiniestuk in de Volkskrant dat de discussie genuanceerder gevoerd moet worden. Het probleem ligt volgens hem niet zozeer bij incompetentie of onvoldoende ethisch bewustzijn binnen instanties, maar bij een fundamenteel misverstand over hoe algoritmen werken, waarbij hun ontwerp en inzet om groepen zo goed mogelijk van elkaar te onderscheiden een grote rol speelt. Denk daarbij aan een vroegtijdig onderscheid op mensen die in de financiele problemen kunnen geraken, of een onderscheid op mensen met een mogelijk hoog risico op fraude. Bij zo'n laatste categorie kan gelden: hoe scherper je het algoritme afstelt, hoe meer potentiele fraudeurs je zou kunnen pakken. Maar ook komen er dan meer onschuldige mensen voor in zulke datasets, met alle mogelijke risico's van dien.

Krijger betoogt daarom dat we algoritmen niet moeten beschouwen als neutrale technologieën, maar als systemen die doordrenkt zijn met subjectieve keuzes, zoals welke risicofactoren belangrijk zijn. Deze technologieën zijn in feite ‘meningen aangekleed met een code’, zoals wiskundige Cathy O’Neil stelt, waardoor een voortdurende kritische houding ten opzichte van de onderliggende aannames en ethische implicaties van AI is vereist. Hierbij gaat het niet alleen om technische precisie, maar juist ook om een diepgaande maatschappelijke discussie over welke waarden leidend moeten zijn in onze digitale toekomst.

Het groeiende gebruik van AI vraagt om, wat Krijger noemt, een 'volwassen' benadering van ethische toetsing binnen organisaties. Zowel in zijn werk als in zijn onderzoek benadrukt hij dat discriminerende algoritmen niet enkel een technologisch probleem zijn, maar ook een organisatorisch en maatschappelijk vraagstuk. Er is een bredere discussie nodig over welke waarden centraal moeten staan in de inzet van AI en hoe deze vertaald kunnen worden naar gerechtvaardigde vormen van onderscheid. Alleen door deze ongemakkelijke discussies te voeren, zo stelt Krijger, kunnen we zorgen voor een rechtvaardige en ethisch verantwoorde toepassing van kunstmatige intelligentie.
 
Dit artikel is een samenvatting van twee onlangs gepubliceerde artikelen. 

Lees het gehele artikel op de website van de Volkskrant 
Lees het gehele artikel op de website van Het Financieel Dagblad.

Meer informatie

Voor meer informatie of persverzoeken kunt u contact opnemen met de facultaire persvoorlichter Eddie Adelmund (Adelmund@esphil.eur.nl

Gerelateerde content
Het programma Reference Man van BBNVARA onderzoekt de gevolgen van een wereld die is afgestemd op de ‘standaardman’

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen