Hoe je voorkomt dat GenAI de onhandelbare, dronken oom wordt

Generatieve artificiële intelligentie (GenAI) heeft onze interactie met technologie voorgoed veranderd.

Tools zoals ChatGPT kunnen in enkele seconden goed onderbouwde, duidelijke antwoorden genereren. De meeste gebruikers controleren AI-output in het begin zorgvuldig, maar na verloop van tijd is het makkelijk om GenAI blind te vertrouwen — en dan begint de miserie.

GenAI dringt steeds vaker door in kritieke sectoren zoals industrieel onderhoud. De voordelen zijn enorm, maar de risico’s zijn al even duidelijk zichtbaar.

In een recent interview vergeleek Tom Rombouts, Director of Reliability and Data-Driven Solutions bij I-care, GenAI met de dronken oom op een familiefeest. Laten we deze treffende metafoor ontrafelen en bekijken hoe je met zijn inzichten het gedrag van ‘losgeslagen’ AI binnen de perken houdt.

Hoe AI zich gedraagt als een dronken oom

Sir Winston Churchill zei ooit: “De grootste les in het leven is weten dat zelfs dwazen soms gelijk hebben.” GenAI heeft niet soms gelijk — het heeft meestal gelijk. En juist daarin schuilt het gevaar.

Tools zoals ChatGPT leveren bijna altijd grammaticaal perfecte antwoorden, mooi verwoord met een professionele toon. Dat wekt vertrouwen — zeker omdat de communicatie puur via tekst verloopt. En precies daar komt de vergelijking van Tom Rombouts met de dronken oom in beeld.

Stel je voor: je bent op een familiefeest. Iedereen discussieert levendig, en ook je oom mengt zich in het gesprek. Hij is normaal gezien een slimme man die vaak goede raad geeft. Maar vandaag heeft hij iets te veel gedronken.

Hij praat vol zelfvertrouwen over investeringen en deelt grote theorieën over de beurs. Gelukkig hoor je aan zijn geslurred en zie je hem wankelen — je beseft dat zijn advies op dit moment misschien niet zo betrouwbaar is.

Maar stel dat je enkel een uitgeschreven, netjes bewerkte versie van zijn woorden leest — zonder slordigheden of warrige zinnen. Dan klinkt hij plots weer overtuigend. Je zou zijn advies zomaar kunnen geloven.

Dat is exact het risico voor GenAI-gebruikers. De tekst lijkt correct en geloofwaardig, vooral als je zelf niet over de expertise beschikt om onzin van waardevolle inzichten te onderscheiden.

Waarom AI niet altijd te vertrouwen is

Generatieve AI is gebaseerd op enorme hoeveelheden data, maar niet al die informatie is accuraat of betrouwbaar. Soms sluipen er vooroordelen of ronduit foute gegevens in de antwoorden. Het resultaat? Misleidende output die ernstige gevolgen kan hebben voor je bedrijf.

Hoe je generatieve AI nuchter houdt

Om de neiging van AI om misleidende content te genereren tegen te gaan, zijn sterke kwaliteitscontroles nodig, waaronder:

  • Feitencontrole
  • Menselijke controle en validatie
  • Training van gebruikers om AI-fouten te herkennen
  • Geavanceerde AI-tools die onzekerheid kunnen aangeven

Daarnaast is het cruciaal om te testen of een AI-model goed data van slechte data kan onderscheiden. Door bewust foute informatie te voeden, kun je het “onzin-detectievermogen” van het model trainen.

Gebruik AI (maar controleer altijd)

Laat je niet afschrikken door de metafoor van de dronken oom — je bedrijf moet AI gebruiken. Zorg er alleen voor dat je de informatie die je ontvangt altijd controleert om pijnlijke fouten te vermijden.

Met de juiste controles kan AI een echte gamechanger zijn voor je organisatie.


Dit artikel werd geschreven door Tom Rombouts, Reliability Director.