Het gebruik van AI-tools zoals ChatGPT of andere generatieve modellen wordt steeds populairder. Ze kunnen je helpen bij het schrijven van teksten, beantwoorden van vragen en zelfs het genereren van creatieve ideeën. Toen ik voor het eerst ChatGPT opende om teksten te genereren, ging er een wereld voor me open. Toch ben ik wat terughoudend gebleven en check ik alle feiten áltijd dubbel. Veel mensen die ik spreek lijken (bijna) alles te geloven wat AI-modellen zeggen. Het is toch echt belangrijk om te beseffen dat ze niet altijd betrouwbare informatie geven. Ik neem je mee door vijf redenen en voorbeelden waarom je AI-gegenereerde teksten niet altijd kunt vertrouwen.
Uitgelichte afbeelding gemaakt met Midjourney:
check your facts --no people --ar 3:2 --sref 2296523579 --p --stylize 200 --v 6.1
1. AI heeft (bijna) geen begrip van context
AI-modellen zijn getraind op enorme hoeveelheden data, maar begrijpen de betekenis van die data niet echt. Ze herkennen patronen en gebruiken die om nieuwe teksten te genereren. Hierdoor kan de context van een vraag of onderwerp soms fout worden geïnterpreteerd.
Bijvoorbeeld, stel dat je vraagt: “Wat is het beste dieet voor gewichtsverlies?” Een AI-model kan antwoorden met: “Het keto-dieet is het beste.” Dit klinkt overtuigend, maar de AI houdt geen rekening met jouw specifieke situatie, voorkeuren, medische geschiedenis of andere factoren die belangrijk zijn bij het kiezen van een dieet. De context is niet goed begrepen, waardoor het antwoord potentieel onbetrouwbaar is. Toch brengt AI het zo overtuigend, dat je het zelf gaat geloven.
Hoe kan je dit voorkomen? Je kunt de AI helpen door je vraag specifieker te maken en relevante details te geven. Bijvoorbeeld in plaats van “Wat is het beste dieet voor gewichtsverlies?” kun je vragen: “Wat is het beste dieet voor gewichtsverlies voor iemand die 0,5 kg per week wil afvallen, 100 kg weegt en matig tot af en toe beweegt? De persoon mag geen lactose.” Hoe specifieker de context, hoe beter de AI in staat is om nuttig advies te geven. En daarna moet je nog steeds de feiten nakijken.
2. Feiten en fictie kunnen door elkaar lopen
Een AI heeft geen echt ingebouwd vermogen om te controleren of de informatie die het genereert waar is. Het geeft antwoorden gebaseerd op de patronen in de data waarmee het getraind is, ongeacht of die informatie feitelijk correct is. Dit betekent dat een AI soms onjuiste of zelfs verzonnen informatie kan geven. Dit fenomeen wordt “hallucinatie” genoemd.
![Hallucinatie AI](https://aikundig.nl/wp-content/uploads/2024/09/image-11.png)
Bijvoorbeeld, als je vraagt: “Wat was de prijs van een liter benzine in Nederland in 1950?” kan de AI een getal geven dat klinkt alsof het klopt, maar dit getal is vaak een gok. Het model heeft geen toegang tot een accurate historische databron en kan geen feitelijke controle uitvoeren. Daarom is het belangrijk om altijd kritische vragen te stellen en feiten te verifiëren. Ik moet er wel bij zeggen dat nieuwere versies van o.a. ChatGPT, Copilot en Gemini steeds beter worden en steeds vaker aangeven dat iets niet klopt. Toch hallucineert AI nog steeds enorm vaak.
Hoe kan je dit voorkomen? Gebruik AI niet als enige bron van informatie. Wanneer je een feitelijk antwoord ontvangt, probeer dan altijd zelf te controleren of de informatie klopt. Zoek betrouwbare bronnen om de gegeven feiten te verifiëren en wees je ervan bewust dat de AI geen feitelijke controle kan uitvoeren.
3. AI heeft geen moreel of ethisch oordeel
AI-modellen hebben geen moreel kompas. Ze zijn simpelweg ontworpen om patronen in tekst te volgen en te repliceren, en kunnen daarom ongepaste, ongewenste of zelfs gevaarlijke antwoorden geven als de vraagstelling dit uitlokt. Dit kan variëren van licht ongepaste grappen tot gevoelige en kwetsende onderwerpen.
Bijvoorbeeld, als je een controversiële vraag stelt over een sociaal of politiek onderwerp, kan de AI antwoorden geven die gebaseerd zijn op extreme of ongefundeerde standpunten, zonder rekening te houden met de nuance die vaak nodig is bij dit soort discussies. Het kan ook historische of culturele gevoeligheden missen en daardoor onbedoeld respectloos of kwetsend zijn.
Hoe kan je dit voorkomen? Stel vragen op een neutrale en informatieve manier. Vermijd extreme of gevoelige onderwerpen, en wees je bewust van hoe je de vraag stelt. Als je bijvoorbeeld discussiepunten wil verkennen, vraag dan naar verschillende perspectieven om te voorkomen dat je eenzijdige of ongepaste antwoorden krijgt.
4. AI mist actuele informatie
Hoewel sommige AI-modellen toegang hebben tot recente data, hebben veel van de generatieve modellen beperkte informatie die maar tot een bepaald moment reikt. Als het model bijvoorbeeld is getraind op data tot 2021, zal het geen actuele kennis hebben over gebeurtenissen of ontwikkelingen die daarna hebben plaatsgevonden.
Een voorbeeld hiervan is wanneer je vraagt naar de meest recente technologische ontwikkelingen of wereldnieuws. De AI kan informatie geven die achterhaald of irrelevant is, simpelweg omdat het niet over de meest actuele kennis beschikt. In snel veranderende domeinen, zoals technologie, politiek en wetenschap, is het risico groot dat de AI verouderde informatie levert.
Hoe kan je dit voorkomen? Als je op zoek bent naar actuele informatie, zorg dan dat je verder zoekt buiten de AI-tool. Kijk naar recent gepubliceerde artikelen, officiële websites of nieuwsbronnen om de meest actuele en betrouwbare informatie te verkrijgen. Je kan de informatie ook geven aan AI en bijvoorbeeld vragen om het voor je samen te vatten.
5. AI kan bevooroordeelde antwoorden geven
Omdat AI-modellen zijn getraind op menselijke data, kunnen ze de biases, vooroordelen en voorkeuren van die data overnemen. Dit betekent dat als bepaalde thema’s oververtegenwoordigd zijn in de trainingsdata, de AI een vertekend beeld kan schetsen van een onderwerp.
Bijvoorbeeld, als een AI-model wordt gevraagd naar de rol van vrouwen in de technologie, kan het antwoorden geven die gebaseerd zijn op stereotypen of verouderde opvattingen, afhankelijk van de inhoud van de data waarmee het is getraind. Het is daarom belangrijk om AI-antwoorden kritisch te bekijken en je af te vragen of de informatie objectief is of mogelijk beïnvloed door biases in de data.
Hoe kan je dit voorkomen? In plaats van vragen te stellen die kunnen leiden tot bevooroordeelde antwoorden, kun je vragen om een neutrale uitleg met verschillende invalshoeken. Bijvoorbeeld: “Welke uitdagingen en ontwikkelingen zijn er in de technologie-industrie met betrekking tot genderdiversiteit?” Door je vraag op een open en informatieve manier te stellen, stimuleer je de AI om informatie te geven die minder beïnvloed is door vooroordelen of stereotypen. Daarnaast kun je zelf onderzoek doen naar het onderwerp om meerdere perspectieven te ontdekken.