Je hoort mij wel eens zeggen: “AI wil nog wel eens hallucineren”. Dit is een uitspraak die je ook op veel andere plekken leest en hoort. Ik bedacht me vanochtend dat ik deze term nog nooit echt heb uitgelegd. Vandaar dat dit artikel! Wat is een AI hallucinatie en waarom doet AI het?
Teksten die door AI zijn geschreven
AI-gegenereerde teksten zijn teksten die zijn gecreëerd door kunstmatige intelligentie (AI). Deze technologie maakt gebruik van geavanceerde algoritmes en grote hoeveelheden data om menselijke taal te begrijpen en te produceren. Populaire toepassingen zijn chatbots, automatische vertalingen, en tekstschrijvende AI’s zoals GPT-4 van OpenAI. Deze systemen kunnen zeer overtuigende en mensachtige teksten schrijven, maar ze hebben ook hun beperkingen. En, neem maar van mij aan: dit zijn er nog heel erg veel.
Leuk: Wist je dat je AI geschreven teksten nog prima kan herkennen? Ik schreef er een uitgebreid artikel over.
Hoe werkt een AI-tekstgenerator?
Een AI-tekstgenerator werkt door patronen in grote datasets van tekst te analyseren. Het systeem wordt getraind met miljoenen teksten, zodat het kan leren hoe woorden en zinnen samenhangen. Wanneer je een prompt invoert, genereert de AI een tekst die gebaseerd is op de statistische waarschijnlijkheid van woorden en zinnen die op elkaar volgen. Dit proces vind ik technisch erg indrukwekkend, maar het is zeker niet perfect.
Een voorbeeld
Stel je voor dat je aan een AI-tekstgenerator vraagt: “Schrijf een kort verhaal over een kat die een avontuur beleeft in de stad.”
De AI begint met het genereren van de tekst door te kijken naar de meest waarschijnlijke woorden en zinnen die na jouw prompt komen. Dit is gebaseerd op patronen in de grote hoeveelheid verhalen en teksten die het heeft gelezen.
Hier is een eenvoudig voorbeeld van wat de AI zou kunnen schrijven:
Voorbeeldverhaal
Er was eens een kat genaamd Max. Max woonde in een klein huisje aan de rand van de stad. Op een zonnige dag besloot Max om op avontuur te gaan. Hij sloop stilletjes door de achterdeur en begon aan zijn ontdekkingstocht. Max liep door drukke straten, langs hoge gebouwen en door smalle steegjes. Onderweg ontmoette hij een vriendelijke hond en samen ontdekten ze een verborgen park. Max genoot van zijn avontuur en keerde aan het eind van de dag moe maar gelukkig terug naar huis.
In dit voorbeeld heeft de AI gekeken naar hoe verhalen meestal worden opgebouwd en welke woorden en zinnen vaak samen voorkomen in verhalen over katten en avonturen. Het resultaat is een samenhangend verhaal dat logisch klinkt, zelfs al heeft de AI geen echte ervaring of begrip van wat het beschrijft.
Tip: Wil je weten hoe dit precies werkt, bijvoorbeeld met het voorspellen van de woorden in een zin. Bekijk dan deze uitleg. Deze website geeft het echt op een fantastische manier weer.
Wat zijn hallucinaties in AI-gegenereerde teksten?
Hallucinaties in AI-gegenereerde teksten verwijzen naar het fenomeen waarbij de AI onjuiste of niet-bestaande informatie genereert. Deze ‘hallucinaties’ kunnen variëren van kleine feitelijke onjuistheden tot volledig verzonnen verhalen. Omdat de AI geen echt begrip heeft van de wereld, kan het soms plausibele maar incorrecte informatie produceren. Een jeugdvriend van mij was hier ook goed in. Hij kon soms zo goed liegen, dat hij het zelf ook geloofde. Dat hebben chatbots soms ook.
Andersom werkt het ook: soms is de AI chatbot erg goed van vertrouwen. Als je een antwoord krijgt, maar er zelf tegenin gaat, wil AI jou vaak al snel geloven. Gelukkig wordt dit wel met elke nieuwe versie beter. AI is dan steeds vaker wat standvastiger.
Waarom gebeuren deze hallucinaties?
Gebrek aan begrip
AI begrijpt de wereld niet zoals mensen dat doen. Het baseert zijn antwoorden op patronen in de data waarop het is getraind, zonder echt begrip van context of realiteit. Dit kan leiden tot fouten wanneer de AI informatie probeert uit te breiden.
Beperkte en verouderde data
AI-systemen worden getraind op datasets die op een bepaald moment zijn verzameld. Deze data kan verouderd zijn of specifieke gaten bevatten, waardoor de AI soms niet de meest actuele of correcte informatie heeft. In sommige gevallen gaat AI dit zelf opvullen met woorden waarvan het denkt dat deze er horen.
Overmatige creativiteit
Soms probeert de AI te creatief te zijn in het genereren van antwoorden. Dit kan leiden tot het produceren van originele, maar incorrecte en onlogische informatie. Dit komt doordat de AI is ontworpen om tekst te genereren die coherent en vloeiend lijkt, zelfs als de feitelijke inhoud onjuist is.
Voorbeelden van AI-hallucinaties
Feitelijke onjuistheden
Een AI kan bijvoorbeeld zeggen dat een historische figuur een bepaald jaar is geboren, terwijl dit feitelijk onjuist is. Dit komt doordat de AI de meest waarschijnlijke datum kiest op basis van de data die het heeft gezien, zonder dit te verifiëren.
Verzonnen bronnen
Af en toe verzint de AI bronnen of citaten die niet bestaan. Dit kan gebeuren wanneer de AI probeert een geloofwaardige tekst te maken zonder toegang te hebben tot echte bronnen.
Verkeerde conclusies
Een AI kan ook verkeerde conclusies trekken door verkeerde interpretatie van de context. Bijvoorbeeld, het kan een verkeerde medische diagnose suggereren op basis van een verkeerde interpretatie van symptomen.
Hoe kun je met hallucinaties omgaan?
Zelf na blijven denken
Ik begrijp dat het fijn zou zijn als AI teksten opschrijft die altijd waar zijn. Het is belangrijk om kritisch te blijven bij het lezen van AI-gegenereerde teksten. Controleer feiten en zoek aanvullende bronnen om de juistheid van de informatie te verifiëren.
Menselijke supervisie
AI-gegenereerde teksten moeten altijd worden nagelezen door mensen, vooral wanneer ze in een professionele of educatieve context worden gebruikt. Menselijke redactie kan helpen om fouten en hallucinaties te corrigeren. Vraag AI altijd om bronnen en kijk deze ook na.
Verbeterde training en data
Het trainen van AI met grotere en betere datasets kan helpen om hallucinaties te verminderen. Bovendien kunnen voortdurende updates en verbeteringen aan het algoritme bijdragen aan nauwkeurigere output. Dit is echter iets waar wij – als normale AI consument – geen invloed op hebben.