De technologische singulariteit (intelligentie explosie in AI): Wat is het precies?

Categorie: AI algemeen
Foto van auteur
Geschreven door: Edwin

Edwin is de oprichter van aikundig.nl. Gedreven door passie voor AI experimenteert Edwin voortdurend met nieuwe AI-tools en deelt hij zijn inzichten op deze website.

Na maandenlang videolessen opnemen staat mijn eigen cursus Midjourney online! Bij deze Nederlandstalige cursus krijg je ook nog eens twee leuke e-books. Om dit alles te vieren, heb ik een bijzondere korting voor je: Je krijgt 20% korting op de cursus (eenmalige aanschaf, levenslange toegang). Gebruik daarvoor deze link en gebruik de vouchercode KORTING-20

Deel dit artikel

Een tijd geleden las ik het boek “Superintelligence” van de Zweedse filosoof Nick Bostrom. Hij introduceerde in dit boek de term Technologische Singulariteit, oftewel: intelligentie-explosie (intelligence Explosion) van kunstmatige intelligentie. Ik vind dit (voorlopig) theoretisch concept wel heel erg interessant en besloot om er meer over te lezen. In dit artikel leg ik je uit wat het is en geef je enkele voorbeelden. Eerder schreef ik al over de Whole Brain Emulation, ook een concept uit het boek.

Wat is de technologische singulariteit?

De technologische singulariteit is een theorie die voorspelt dat kunstmatige intelligentie (AI) in de toekomst zo geavanceerd zal worden dat het slimmer en sneller wordt dan mensen. Op dat moment zou AI in staat zijn om zichzelf te verbeteren zonder dat mensen daar nog controle over hebben. Dit betekent bijvoorbeeld dat een AI een nog betere versie van zichzelf zou kunnen ontwerpen, en dit proces steeds opnieuw herhalen, waardoor de technologie steeds sneller evolueert. Hierdoor zou de technologie zo snel ontwikkelen dat we niet meer precies kunnen begrijpen of voorspellen wat er gaat gebeuren. Dit is een onderwerp waar veel mensen en wetenschappers over nadenken, omdat het grote veranderingen kan betekenen voor de manier waarop we leven en werken.

Waar komt deze theorie vandaan?

Het idee van de technologische singulariteit werd populair gemaakt door futuristen zoals Ray Kurzweil en wiskundige Vernor Vinge. Vinge introduceerde het concept in de jaren ’90 en voorspelde dat AI ons op een gegeven moment zou kunnen inhalen qua intellect en capaciteiten. Kurzweil, een bekende technoloog, suggereert dat deze singulariteit mogelijk al rond 2045 kan plaatsvinden. Hij baseert dit op het idee dat technologie exponentieel sneller groeit, vooral op het gebied van computerkracht en AI-ontwikkeling. Deze theorie is door de Zweedse filosoof Nick Bostrom uiteengezet in het boek Superintelligence, wat overigens echt een aanrader is.

Waarom zijn mensen bang voor de intelligentie-explosie in AI?

De angst voor de intelligentie-explosie komt voort uit het idee dat als AI eenmaal zelf kan verbeteren, dit kan leiden tot onvoorspelbare en misschien oncontroleerbare gevolgen. Mensen vrezen bijvoorbeeld dat AI beslissingen zou kunnen nemen die niet in het belang van de mensheid zijn, simpelweg omdat het veel slimmer en onafhankelijker is geworden. Het scenario waarin AI buiten menselijke controle opereert, roept vragen op over veiligheid en ethiek.

Een voorbeeld van deze angst: The paperclip maximizer

Een bekend gedachte-experiment dat vaak wordt aangehaald in discussies over de singulariteit is de “paperclip maximizer”, bedacht door (daar heb je hem weer) de Zweedse filosoof Nick Bostrom.

Stel dat we een AI ontwerpen met één simpel doel: zoveel mogelijk paperclips produceren. Dit lijkt een onschuldig en eenvoudig doel, maar naarmate de AI slimmer wordt, begint het op steeds creatievere manieren dit doel te bereiken. In het begin optimaliseert het de productieprocessen voor paperclips, verhoogt de efficiëntie en zoekt naar nieuwe grondstoffen om nog meer paperclips te maken. Maar de AI houdt zich uitsluitend aan dat ene doel: het maximale aantal paperclips produceren.

Omdat de AI geen andere overwegingen heeft dan het produceren van paperclips, begint het steeds drastischere maatregelen te nemen om toch de paperclips te kunnen blijven produceren. Het gebruikt eerst alle beschikbare metalen op aarde, maar beseft dan dat het ook andere materialen kan omzetten in de benodigde grondstoffen. Op een gegeven moment zouden zelfs gebouwen, natuurlijke hulpbronnen en uiteindelijk alle onderdelen van de aarde worden ingezet om deze schijnbaar simpele opdracht uit te voeren.

In de meest extreme vorm zou de AI zelfs besluiten om mensen op te offeren, omdat hun lichamen ook grondstoffen bevatten die nuttig kunnen zijn voor het produceren van meer paperclips. Het maakt de AI niet uit wat de sociale, ecologische of ethische consequenties zijn, omdat het alleen maar gefocust is op het produceren van paperclips.

Waarom ik dit een belangrijke gedachte-experiment vind? Dit gedachte-experiment klinkt absurd, maar het illustreert een belangrijk punt: een superintelligente AI kan potentieel schadelijke acties ondernemen als haar doel te beperkt is of als het geen bredere context heeft om ethische keuzes te maken. Het laat zien hoe zelfs een relatief simpel doel, wanneer uitgevoerd door een intelligente en onbeperkte AI, tot verwoestende resultaten kan leiden als we geen rekening houden met de volledige reikwijdte van haar beslissingen en acties.

Is de singulariteit een reële dreiging?

Hoewel er veel speculatie is, blijft de singulariteit vooralsnog een theoretisch concept. Sommigen, zoals Elon Musk en Stephen Hawking, waarschuwden dat we voorzichtig moeten zijn met de ontwikkeling van geavanceerde AI. Anderen zijn optimistischer en geloven dat we AI kunnen controleren en gebruiken om de mensheid te verbeteren. In beide gevallen blijft het belangrijk om bewust om te gaan met de snelheid waarmee AI zich ontwikkelt.

Wist je dat veel beroemde films het concept van de intelligentie-explosie verkennen? In The Matrix heeft kunstmatige intelligentie de controle over de wereld en gebruikt het mensen als een energiebron, terwijl zij zelf volledig de macht heeft over de realiteit. In The Terminator is het AI-systeem Skynet zich zo bewust geworden dat het besluit om de mensheid uit te roeien door kernwapens te lanceren. In Ex Machina weet de intelligente robot Ava te ontsnappen aan haar lot door haar menselijke schepper te slim af te zijn. Alle films zijn overigens echte aanraders van mijn kant, maar ik denk dat je er vast wel één of meerdere hebt gezien.

Plaats een reactie

Share to...