AI biedt fantastische mogelijkheden: sneller e-mails schrijven, meetings samenvatten, grote documenten analyseren, rapporten genereren… Tegelijk is het cruciaal om stil te staan bij de ethische impact. Want AI is geen neutrale technologie. Het leert van data – en net daar schuilt het risico: "AI is getraind op historische data en reproduceert dus ook de vooroordelen uit het verleden."
Dit artikel bevat inzichten van deze experten in de ethische aspecten van AI-gebruik:
Lode Lauwaert is professor techniekfilosofie aan de KU Leuven. In zijn boeken ‘Wij, robots’ en ‘AI, wat niemand ons vertelt’ bestudeert hij de ethische en maatschappelijke impact van technologie en zoomt hij in op risico’s zoals bias, privacy, transparantie en duurzaamheid binnen AI-gebruik.
Jeremy Lamri is een Franse ondernemer, onderzoeker en CEO van Tomorrow Theory. Hij specialiseert zich in menselijk potentieel binnen de digitale transformatie. Lamri richt zich concreet op ethisch en toekomstgericht gebruik van AI in organisaties. In zijn boek ‘2040’ stelt hij 5 mogelijke scenario’s voor.
Benieuwd naar hun volledige verhaal? Bekijk het webinar met Lode Lauwaert (Nederlandstalig)en Jeremy Lamri (Franstalig).

1. Wees kritisch over bias
Net zoals mensen vooroordelen hebben, kunnen AI-modellen bevooroordeeld zijn. Ze zijn immers getraind op basis van data die bias in zich dragen. Denk maar aan ondervertegenwoordiging van vrouwen in bepaalde functies of de oververtegenwoordiging van ontevreden klanten in een tevredenheidsonderzoek.
Gebruik je dit soort data voor cv-screening, prestatieanalyses of je businessplan, dan kan dat zware gevolgen hebben – van redeneerfouten tot een verderzetting van de scheefgetrokken situatie.
Hoe je kritisch blijft?
Door AI enkel te gebruiken als ondersteuning, in combinatie met jouw menselijke beoordeling. Dus niet als enige beslissingsinstrument.
AI is getraind op historische data, en reproduceert dus ook de vooroordelen uit het verleden.
2. Gebruik AI transparant
AI-modellen weten op elke vraag wel een antwoord, maar zonder duiding bij de werking van het systeem of argumentatie waarom net dat antwoord eruitkwam.
Zeker bij gevoelige processen als evaluaties of selecties roept deze ‘black box’ veel vragen op. Terecht, want betrokkenen hebben natuurlijk recht op uitleg waarom ze bijvoorbeeld niet weerhouden zijn in een selectie of een bepaalde beoordeling kregen.
Zo werk je transparant:
- Informeer collega’s of klanten als je AI gebruikt bij het opstellen van rapporten, documenten of selecties.
- Hou bij waar AI gebruikt werd en met welk doel je dat hebt gedaan.
- Kies voor tools die toelichten hoe beslissingen tot stand kwamen.

3. Stop nooit gevoelige data in het model
In elke organisatie circuleert veel privacygevoelige informatie, van klantendata over personeelsgegevens tot vergaderverslagen. Als die data zonder afscherming in een AI-prompt terechtkomen, loop je het risico op schending van de privacy.
Zo gebruik je AI met respect voor gevoelige data:
- Plak geen persoonsgegevens of bedrijfsgeheimen zomaar in publieke AI-tools, maar anonimiseer je input waar mogelijk.
- Gebruik beveiligde of interne AI-tools.
- Kies de ‘no-training’-optie, zo worden jouw data niet gebruikt om het model verder te trainen.

4. Denk na over duurzaamheid
Grote taalmodellen draaien op datacenters die enorme hoeveelheden stroom en water verbruiken. Volgens Lode Lauwaert slorpt het trainen van één krachtig AI-model evenveel energie op als 500 vliegreizen.
De experts pleiten er daarom voor om altijd de vraag te stellen of AI wel de juiste oplossing is voor je specifieke vraag. Misschien voldoet een klassieke tool ook? Of sterker nog: misschien creëert AI net nieuwe risico’s qua dataveiligheid, correctheid of transparantie.
Wat kan je volgens de experts zelf doen om duurzamer met AI te werken?
- Gebruik AI alleen wanneer het meerwaarde biedt (bv. complexe vragen oplossen, grote hoeveelheiden data doorzoeken).
- Combineer AI slim met andere tools (bv. Google om feitelijke info op te zoeken).
- Stimuleer hergebruik van prompts en modellen in je organisatie.
Heb je AI echt nodig om die taak uit te voeren? Kan een andere tool het ook, dan moet je eerst die andere tool proberen.
5. Creëer een ethische AI-werkcultuur
AI ethisch gebruiken doe je niet alleen – het moet ingebed zijn in de werkcultuur van je bedrijf. Een interne AI-policy kan helpen om het bewustzijn te vergroten: wat kan wél? En wat doe je beter niet? In workshops over AI en ethiek kan je dan weer ervaringen uitwisselen en bijleren van elkaar.
Samen met AI evolueren ook de ethische uitdagingen razendsnel. Aan een ethische AI-cultuur hangt dus ook een belangrijk leeraspect vast. Beide experts wijzen daarom op het belang van bijleren over AI, ook over de technische kant ervan. Volgens Lode Lauwaert helpt dat inzicht in de technische werking van AI-modellen om er bewuster mee om te gaan en de ethische risico’s beter in te schatten.
Kortom, AI is krachtig, maar niet neutraal. Dus ethisch gebruik van AI is bewust gebruik. “Het is zoals met een auto”, besluit Lode Lauwaert. “Je krijgt geen bekeuring als je duizend kleine verplaatsingen maakt, maar toch gebruik je je auto het best verstandig. Daarvoor dient ons moreel kompas.”
Bijleren over een bewust AI-gebruik?
Bij Cevora ben je aan het juiste adres! Met ons uitgebreide leeraanbod beantwoorden we al jouw AI-vragen en zetten we je op weg om AI kritisch te gebruiken.
Wil je de laatste ontwikkelingen in AI volgen? Schrijf je dan meteen in voor een AI-flash.