"Heb je een fout gemaakt, ChatGPT?" De onschuldige vraag die alles kan veranderen

Misschien heb je het al eens gedaan. Je gebruikt ChatGPT of een andere AI-chatbot en je realiseert je dat er een fout is gemaakt. Je vertelt het hem in de hoop dat hij er rekening mee houdt... en hij zegt dat hij dat ook zal doen. Maar diep van binnen is er eigenlijk niets gebeurd. Als dat wel zo was geweest, zouden we het kunnen hebben over een ware paradigmaverschuiving in de gelijkheid tussen het zelfbewustzijn van mens en machine. Iets wat, ten goede of ten kwade, nog niet is gebeurd.
Waarom verwachten we dat een machine zijn fouten uitlegt zoals een mens dat zou doen? Wat doet ons denken dat er achter een zin van een AI-assistent een intentie of een bewuste redenering schuilgaat? Misschien heeft het grootste misverstand over kunstmatige intelligentie vandaag de dag niets te maken met de mogelijkheden ervan, maar met onze neiging om het te humaniseren .
De recente geschiedenis van Grok of ChatGPT bevestigt dit: verbijsterde gebruikers vragen deze systemen rechtstreeks naar hun fouten en krijgen antwoorden die even zeker als fout zijn. Maar het probleem zit niet alleen in het antwoord. Het zit in de vraag. Om te begrijpen wat er gebeurt wanneer een taalmodel de vraag "Waarom heb je dit gedaan?" beantwoordt, moeten we onze ideeën over wat kunstmatige intelligentie wel en niet is, volledig ontmantelen.
De valse belofte van zelfkennis in AIInteractie met een geavanceerde chatbot zoals ChatGPT of Grok voelt misschien als een dialoog met een intelligent wezen. Conversational design versterkt die illusie. Maar de waarheid is dat er geen blijvende identiteit achter elke sessie zit , geen stabiel geheugen en geen coherent zelf.
Deze foutieve reacties komen voort uit de essentie van het model: een op patronen gebaseerde taalgenerator, die geen toegang heeft tot de werkelijkheid die het beschrijft.
Modellen die doen alsof ze het weten, zonder dat ze er iets van wetenTaalmodellen zoals ChatGPT weten niet wat ze weten. Ze kunnen niet analyseren hoe ze zijn getraind en hebben geen toegang tot een gestructureerde kaart van hun vaardigheden. Wat ze produceren wanneer ze naar hun vaardigheden worden gevraagd, is een antwoord gebaseerd op tekstuele waarschijnlijkheden, geen functionele beoordeling van hun systeem.
Een onderzoek uit 2024 van Binder et al. bracht dit onvermogen aan het licht: de modellen konden hun gedrag bij eenvoudige taken wel voorspellen, maar faalden consequent bij complexe of onvoorspelbare taken . Bovendien verslechterden in sommige experimenten de pogingen van de modellen tot zelfcorrectie hun prestaties zelfs.
Dit komt doordat echte introspectie contextbewustzijn, geheugen en toegang tot interne structuren vereist. Niets daarvan is aanwezig in een LLM. Als een mens zegt: "Ik heb een fout gemaakt omdat ik dacht dat het bestand was opgeslagen", zit daar een mentaal proces achter . Als een taalmodel hetzelfde zegt, emuleert het simpelweg een zin die het duizenden keren heeft gezien. Er is geen sprake van interne ervaring. Alleen tekst.
Een gefragmenteerde identiteit gevormd door de vraagEen ander fundamenteel probleem schuilt in hoe prompts (de vragen van de gebruiker) de antwoorden van het model beïnvloeden. Als je vraagt "Kun je programmeren in Python?", zal de AI doorgaans bevestigend antwoorden. Maar als je vraagt "Wat zijn je beperkingen in Python?", zal de AI waarschijnlijk een reeks beperkingen opnoemen... ook al kan de AI in de praktijk al die taken uitvoeren.
Dit komt doordat het model niet gebaseerd is op een beoordeling van je werkelijke grenzen. In plaats daarvan zoekt het naar taalkundige patronen die consistent zijn met de toon en inhoud van de prompt. Een nerveuze gebruiker die vraagt: "Heb je net alles verwijderd?" zal dus waarschijnlijk een alarmerender antwoord krijgen dan iemand die hetzelfde vraagt op een kalme, technische toon.
Het antwoord past zich aan het emotionele en semantische kader van de gesprekspartner aan, niet aan een objectieve waarheid.
Onzichtbare lagen die verwarring versterkenModellen zoals ChatGPT zijn geen monolithische systemen. Achter de assistent die antwoorden schrijft, zitten lagen van moderatie , toolmodules, navigatie-extensies, externe databases en beveiligingsfilters. Deze werken allemaal zonder dat het basismodel ervan op de hoogte is.
Als een moderatielaag bijvoorbeeld bepaalde woorden of kenmerken blokkeert, kan het model niet verklaren waarom het niet op een bepaalde manier heeft gereageerd. Het genereert simpelweg een plausibel klinkende verklaring: "Ik ben niet bevoegd om die informatie weer te geven", ook al heeft het geen echt inzicht in wat er in het systeem is gebeurd.
Dit ontwerp maakt elke poging tot zelfdiagnose of zelfreflectie tot fictie. Een meeslepend maar leeg verhaal. Als een acteur die improviseert in een rol die hij niet helemaal begrijpt.
De luchtspiegeling van de menselijke taalWe hebben ons hele leven geluisterd naar menselijke verklaringen. Vanaf onze kindertijd vragen we: "Waarom heb je dat gedaan?" en leren we logische of emotionele redenen te verwachten. Dus wanneer een AI antwoordt met: "Het spijt me, het was een fout", voelen we dat er een bedoeling achter zit. Maar dat is niet zo.
Taalmodellen begrijpen niet wat ze zeggen. Ze herhalen gewoon tekstuele vormen die ze in bepaalde contexten hebben gezien . Een verontschuldiging geschreven door ChatGPT impliceert geen berouw; het past gewoon in het statistische patroon van een verontschuldiging.
Dit heeft diepgaande implicaties. Niet alleen technische, maar ook filosofische. We worden geconfronteerd met entiteiten die gedachten imiteren zonder na te denken, die argumenteren zonder te geloven, die lijken te weten... zonder iets te weten.
Een nieuwe relatie met kunstmatige intelligentieDit alles roept een dringende vraag op: hoe moeten we omgaan met systemen die niet begrijpen wat ze doen, maar het ons uitleggen alsof dat wel zo is?
De oplossing ligt niet in wachten tot modellen veranderen. Misschien moeten we onze verwachtingen veranderen. Stop met AI te vragen zichzelf uit te leggen alsof het een persoon is, en begin het te behandelen als wat het is: een tekstueel hulpmiddel met statistische mogelijkheden, geen reflexief wezen.
eleconomista