AI-safety is onmisbaar. “Het zou zonde zijn als AI zijn eigen voordelen tenietdoet met zijn bias.”
AI-safety is onmisbaar. Daarover spreek ik met Leo Visser, Microsoft MVP en AI-consultant bij OGD. In dit artikel deelt hij zijn belangrijkste inzichten over AI en bias, en wat organisaties kunnen doen om deze risico’s te beheersen. Hij benadrukt: “Het zou zonde zijn als AI zijn eigen voordelen teniet doet met zijn bias.”
“We zitten midden in een nieuwe industriële revolutie die onze manier van werken fundamenteel verandert,” vertelt Leo. “AI helpt ons efficiënter te werken door snel kerninformatie uit grote hoeveelheden data te halen."
Hij geeft een voorbeeld: "Soms voer ik gesprekken met klanten met wie ik nog geen eerdere interactie heb gehad. Met behulp van AI kan ik snel een overzicht krijgen van de omgeving en de uitdagingen die de klant heeft door de documentatie en communicatie die beschikbaar is samen te vatten en te structureren met behulp van mijn AI-assistenten.”
Leo ziet vooral veel kansen in AI om grote hoeveelheden data snel te analyseren en de belangrijkste informatie eruit te halen, wat veel tijd kan besparen. “Maar de snelheid van de ontwikkelingen baart me zorgen”, vervolgt hij. “Vooral omdat AI bestaande vooroordelen onbedoeld versterkt. Daarom moeten we AI-systemen trainen en controleren om ongewenste effecten te voorkomen. Anders dreigt waardevol werk op het gebied van inclusie en diversiteit teniet te worden gedaan.”
AI is dus niet zomaar het magische middel dat alles vlekkeloos laat verlopen. “Als we het goed inzetten, levert het tijdbesparing en creativiteit op. Maar we mogen de risico’s niet negeren.” Leo verwijst naar een bekend voorbeeld: “Vraag AI om een plaatje van een arts, en je krijgt negen van de tien keer een man. Niet uit kwaadwillendheid, maar omdat het model zo getraind is: op basis van wat hij het vaakst tegenkomt.”
Soms zijn de gevolgen ernstiger. “Bijvoorbeeld toen een bedrijf AI inzette om sollicitaties te filteren. Het systeem kreeg de opdracht om niet naar afkomst of naam te kijken, maar toch werden mensen met een niet-westerse achtergrond eruit gefilterd. Alleen al vanwege hun woonadres. Dat laat zien dat AI geen magie is die je zomaar zijn gang kunt laten gaan. Je moet begrijpen waar AI zich op baseert en welke output dat kan opleveren.”
“AI is geen magie. Het werkt op basis van data, en die data bevat soms vooroordelen. Daarom is het belangrijk om te begrijpen hoe AI getraind is en welke resultaten je kunt verwachten.” - Leo Visser
Wat is bias binnen AI nou precies?
“Bias is vooringenomenheid,” legt Leo uit. “AI-modellen zijn getraind op data van het internet, die ongelijkheden, stereotypen en blinde vlekken weerspiegelen. Deze modellen geven niet altijd het juiste antwoord, maar vooral het meest waarschijnlijke antwoord. Dat leidt bijvoorbeeld tot stereotyperingen, zoals het vaak tonen van een witte man als arts. Dit komt doordat AI leert van wat hij het meest tegenkomt, niet omdat het model discrimineert.”
En hoe zit het met LLM's zoals ChatGPT?
“LLM’s – Large Language Models, zoals ChatGPT – zijn uiteindelijk niet meer dan tekstvoorspellers. Ze werken met waarschijnlijkheden, niet met waarheid. Ze werken met een beperkte context (gemeten in aantal tokens), en doen vervolgens hun best om het meest waarschijnlijke volgende woord te kiezen. Maar dat betekent ook dat ze kunnen hallucineren, dingen verzinnen, of onbedoeld stereotypen versterken.”
Wat zijn de risico’s van bias voor bedrijven?
“De risico’s van bias in AI kunnen veel groter zijn dan ze aanvankelijk lijken,” zegt Leo. “Wat misschien een onschuldige beslissing over bijvoorbeeld een postcode lijkt, kan in werkelijkheid een diepe onderliggende ongelijkheid blootleggen en in de hand werken.”
Bias in AI is geen theoretisch probleem, maar een dagelijkse realiteit. Discriminatie in wervingsprocessen, kredietverlening of binnen klantenservices gebeurt niet altijd expres, maar het gebeurt wél. “En dat is niet alleen onrechtvaardig,” waarschuwt Leo, “het kan ook de reputatie en rechtspositie van je organisatie ernstig schaden.”
Voorbeelden zijn er genoeg: Amazon moest stoppen met een AI-recruiter die vrouwen systematisch benadeelde, en in Europa lopen rechtszaken over AI-discriminatie op basis van afkomst. Ook zijn er organisaties bekend die foutieve informatie via hun AI-tool verspreidden, wat resulteerde in klachten van klanten en reputatieschade.
“En dan heb je het nog niet eens over de operationele schade van verkeerde beslissingen,” zegt Leo. “Als AI bijvoorbeeld een loyale klant wegstuurt en een malafide klant beloont, gaat er iets mis.”
Herstel van dit soort fouten kost bedrijven veel tijd, geld en verloren vertrouwen. Denk aan de hertraining van systemen, het uitvoeren van audits, extra tooling en, misschien wel het belangrijkst, het vergroten van de bewustwording van medewerkers.
Leo is duidelijk: “Neem het goed inspelen op bias serieus. Niet als een vinkje dat je moet zetten voor je compliance, maar als een serieuze strategische uitdaging. Want als jouw AI discrimineert, doet het dat namens jouw organisatie.” En dan veelzeggend: “Ik kan er een drie uur durende masterclass over geven.”
Pfff… Het is niet niks. Wat kunnen organisaties doen om deze risico’s tegen te gaan?
“Train je mensen en je machines,” zegt Leo resoluut. “Zorg dat AI-systemen niet op de automatische piloot draaien. Controleer de output. Gebruik steekproeven. Zorg voor feedbackloops.”
Ook technische oplossingen zijn beschikbaar. “Finetuning is echt nodig. Je past het model aan met extra data, zodat het beter leert. Retrieval Augmented Generation is een krachtige techniek: je laat het model informatie ophalen uit betrouwbare bronnen voordat het antwoord geeft. En er zijn zelfs experimenten met vergeettechnieken, waarbij een AI bewust bepaalde kennis afleert.”
Vergeettechnieken? Klinkt als sciencefiction.
“Ja, maar het bestaat al in onderzoek, waarin een AI-model ‘Harry Potter’ vergeet. Na het toepassen van de techniek kon het model geen enkele referentie aan die boeken meer maken. Dat is krachtig en gevaarlijk tegelijk, omdat je daarmee niet alleen fouten kunt corrigeren, maar ook belangrijke kennis onbedoeld kunt wissen zonder dat iemand het doorheeft.”
En het komt nu ook naar de praktijk. “Microsoft heeft bijvoorbeeld recent aangekondigd dat de nieuwe Copilot-app een ‘Copilot Memory’ krijgt. Daarmee kun je zelf instellen wat de AI onthoudt en wat juist niet. Dat is een belangrijke stap richting meer controle en transparantie.”
Wie moet binnen een organisatie verantwoordelijk zijn voor AI-safety?
“Een AI-officer. Net zoals we CISO’s hebben voor informatiebeveiliging, hebben we mensen nodig die toezicht houden op ethisch AI-gebruik. Die coördineren tussen ict, compliance en business. En vooral moeten zij kunnen ingrijpen als het fout gaat.”
Hoe creëer je een cultuur van verantwoord AI-gebruik?
Leo is stellig: “Door het vergroten van bewustzijn, training en transparantie. Laat medewerkers zien waar AI vandaan komt, hoe het werkt, en hoe het kan falen. Maak duidelijk dat AI slechts een hulpmiddel is, geen waarheidsmachine.”
Prompting is daarbij cruciaal. “Mensen moeten leren hoe ze goede vragen stellen aan AI. Dat klinkt simpel, maar het is een vak apart. Zero-shot, one-shot, multi-shot prompts, je moet weten hoe het werkt en ermee oefenen. Zero-shot betekent dat je AI een taak geeft zonder voorbeelden; bij one-shot geef je één voorbeeld mee, en bij multi-shot meerdere,” legt Leo uit.
"Vraag je bijvoorbeeld om een zakelijke e-mail op te stellen zonder uitleg (zero-shot), dan is het resultaat vaak vaag. Maar geef je één of twee goede voorbeelden mee, dan snapt het model beter wat je bedoelt en wordt de output veel scherper.
Beroepen veranderen ingrijpend. Niet door banen weg te halen, maar door taken te verschuiven. Mensen gaan minder uitvoerend werk doen, terwijl zij juist meer aandacht gaan geven aan het uitoefenen van controle op de input en het juist interpreteren en inzetten van de output. Dat vereist dus nieuwe vaardigheden.”
Kun je als bedrijf aansprakelijk worden gesteld als AI discrimineert?
“Zeker. Als jouw AI discrimineert, ben jij verantwoordelijk, net als je medewerkers. Er zijn al voorbeelden: de luchtvaartmaatschappij Air Canada moest bijvoorbeeld compensatie geven vanwege foute informatie van een AI-chatbot. Dat lijkt nog onschuldig, maar stel je voor dat het gaat om discriminatie rond een sollicitatie of om een foutieve medische diagnose.”
Zie jij AI zelf als een bedreiging?
Leo aarzelt even. “Nee,” zegt hij, “maar ik zie het wel als iets wat onze maatschappij fundamenteel uitdaagt. We hebben een gouden kans, maar als we onze ogen sluiten voor de risico’s, betalen we een hoge prijs. We moeten AI niet alleen slimmer maken, maar ook eerlijker.”
Stappenplan voor organisaties: zo voorkom je bias in AI
Leo heeft een handig, concreet stappenplan opgezet voor organisaties om bias in AI te voorkomen:
- Train mensen en machines
- Train medewerkers in AI-awareness, prompting en bronvalidatie.
- Finetune AI-systemen met diverse en actuele data.
- Implementeer technische bias-reductie
- Gebruik Retrieval Augmented Generation (RAG).
- Pas steekproeven, feedbackloops en logging toe op AI-output.
- Experimenteer met vergeettechnieken indien relevant.
- Benoem een AI-officer binnen je organisatie
- Geef één verantwoordelijke de taak om ethisch AI-gebruik te coördineren binnen de organisatie.
- Valideer bronnen en output
- Laat AI-systemen niet zelfstandig opereren.
- Zorg voor transparantie over gebruikte datasets en modellen.
- Creëer een ethische AI-cultuur
- Stimuleer interne bewustwording via workshops, documentatie en e-learning.
- Leg uit waarom bias ontstaat en hoe je dat voorkomt.
- Bouw verantwoording in je processen
- Houd logs bij van AI-interacties.
- Voer regelmatig audits uit op output en beslissingen.
Leestip: Meer weten over wat Europa doet om bias in AI aan te pakken? Check dan deze blog over de AI Act.
AI met impact
AI biedt ongekende kansen voor efficiëntie, innovatie en nieuwe manieren van werken. Maar deze uitspraak geldt hier ook: With great power comes great responsibility. Bias in AI is geen detailfout, maar een systeemrisico dat vraagt om bewustwording, regie en actie. Niet alleen om juridische of reputatierisico’s te beperken, maar ook om ervoor te zorgen dat technologie mensen helpt in plaats van achterstelt.
Het belangrijkste is de samenwerking tussen mens en machine. Door kritisch te blijven kijken, voortdurend te trainen en transparant te zijn over hoe AI werkt, bouw je aan een systemen die niet alleen slim, maar ook eerlijk zijn.
Misschien vind je dit leuk
Anderen hebben deze artikelen gelezen

Progressive web apps: wat zijn het en wat kan je ermee?

Waarom MFA en zero trust zo belangrijk zijn voor je cybersecurity
