ChatGPT-schaamte maakt ons schrijven zoveel slechter


Meld u aan voor de Slatest en ontvang dagelijks de meest inzichtelijke analyses, kritiek en adviezen in uw inbox.
Een paar weken geleden las ik een e-mail die ik had geschreven en kreeg ik een vreemde gedachte. Toen ik een kleine typefout zag, aarzelde ik even voordat ik hem corrigeerde. Zou het misschien beter zijn, fluisterde een verontrustende nieuwe stem plotseling, om hem erin te laten?
Dit is een gedachte die me een jaar geleden ook al zou hebben aangesproken. Als professioneel schrijver ben ik al lang trots op mijn onberispelijke grammatica, zorgvuldig gebruikte interpunctie en (soms toegeeflijke) woordspeling. Maar in het tijdperk van AI-paranoia – waarin de reacties op socialemediaberichten en online artikelen vol staan met beschuldigingen die de mensonterende vorm van ChatGPT aan de kaak stellen – wekt schrijven dat te gepolijst lijkt, te veel literaire trucjes bevat, om nog maar te zwijgen van een twijfelachtige affiniteit met het woord delve , nu argwaan.
In persoonlijke communicatie begon ik een hernieuwd zelfbewustzijn te ervaren. Was dat em-streepje echt nodig? Was de stem misschien een beetje onpersoonlijk? Het werkte ook andersom; alle teksten die ik digitaal tegenkwam, werden nu aan dezelfde ondervraging onderworpen. Was er iets aan dat een beetje vreemd aanvoelde? Een beetje... ChatGPT?
En ik ben niet de enige. Een collectieve paranoia zorgt ervoor dat mensen zogenaamde AI-boodschappen uit hun proza schrappen, zelfs als ze die volledig met hun menselijke brein hebben geschreven. Naast het inmiddels beruchte em-streepje , doen velen afstand van woorden waar ChatGPT een mysterieuze voorliefde voor heeft, zoals delve , nestled , boast en meticulous . De structurele uitdrukking "Het is niet zomaar X, het is Y" – nu beschouwd als een knipperend AI-waarschuwingssignaal – wordt massaal opgegeven.
John Gallagher, hoogleraar Engels aan de Universiteit van Illinois, beschreef zijn overgevoelige " AI-radar " en zei dat hij ervan overtuigd was dat een academisch artikel door AI was geschreven – voordat hij zich realiseerde dat het in 2019 was gepubliceerd, vóór de ChatGPT-hausse. In verschillende media, met de zintuigen aangescherpt door TikToks die de nieuwste "tells" beschrijven, staan AI-onderzoekers klaar om toe te slaan. "Online schrijven in 2025 voelt als een kijkoperatie terwijl mensen 'ROBOT! ROBOT! ROBOT!' in je oor schreeuwen", schreef schrijver en programmeur Jack McNamara onlangs over het fenomeen op Medium.
Steeds meer mensen laten formele schrijfconventies volledig links liggen ten gunste van een onvervalste stroom van bewustzijn – alles om hun menselijkheid te behouden en te benadrukken. Maar zijn we, naarmate AI zich blijft verbeteren, voorbestemd om deze taalkundige wapenwedloop te verliezen? En lopen we het risico om onderweg goed schrijven op te offeren?
Een onwaarschijnlijk gevolg van dit alles is de verheerlijking van de ooit zo gênante typfout. Tot voor kort beschouwd als een teken van slordigheid of zelfs domheid, wordt de fout nu door sommigen gezien als de onuitwisbare vingerafdruk van een menselijke tekstschrijver. Schrijver en ondernemer Thomas Smith vertelde me dat hij, hoewel hij weigert het em-streepje op te geven, tegenwoordig geneigd is om typfouten in zijn Medium-berichten te laten staan, omdat hij gelooft dat ze een geruststellend teken zijn van menselijk auteurschap. Zijn publiek lijkt het daarmee eens te zijn. Lezers stuurden Smith vroeger e-mails om kleine typfouten te melden. Ze zijn begonnen toe te voegen: "Maar misschien wil je het er wel in laten zitten", zegt hij lachend.
Contentstrateeg Larissa McCarty, die als ghostwriter voor LinkedIn werkt, heeft een vergelijkbare denkverandering ondergaan. Ze vertelde me dat ze nu bemoedigd is door een klein sprankje menselijke fout in de tekst en dat ze professionals zelfs zou aanraden om kleine foutjes in openbare berichten te laten staan om de authenticiteit ervan te benadrukken.
Smith, die ook parttime copywriter is, zegt dat merken hem hebben verzocht alle em-dashboards uit zijn werk te schrappen, vanwege de angst dat alles wat "op AI lijkt" zou kunnen leiden tot een downgrade van Googles ondoorzichtige SEO-rankingsysteem. Ondertussen circuleren er lijsten met "ChatGPT-woorden die je moet vermijden" in webpublicatiecommunity's, en is er op LinkedIn, TikTok en Reddit volop advies te vinden over hoe je niet als een chatbot kunt klinken.
Zorgelijk genoeg kan dit ertoe leiden dat anderszins sterke teksten worden ondermijnd. Sommige van de zogenaamde 'tells' zijn simpelweg gevestigde schrijfconventies die ChatGPT is aangeleerd na te bootsen: dingen zoals 'lijsten met drie voorbeelden' of het gebruik van overgangswoorden zoals echter .
"Ik weet dat er technieken en methoden zijn om je teksten aantrekkelijker te maken, maar dat is ook wat ChatGPT gebruikt", aldus McCarty. "Als ik iets typ, denk ik: oh, dat is een goed idee om dat te verwoorden . Maar dan, ergens achterin mijn hoofd, denk ik: het is bijna te mooi om waar te zijn ." Ze vermijdt nu bijvoorbeeld het schrijven van haar eigen metaforen, omdat ze denkt dat ChatGPT daar juist in uitblinkt.
Een inherent wantrouwen jegens goed schrijven is waarschijnlijk een gruwel voor het produceren van goed schrijven. Hoewel dieper nadenken over hoe we schrijven niet per se slecht is, kan deze door AI aangestuurde zelfcensuur corrosief zijn. Net als bij veel van de gevolgen van ChatGPT behoorden studenten tot de eersten die deze AI-paradox tegenkwamen: gepolijst, kundig proza wordt gevraagd, maar kan ook argwaan wekken, of dat nu met behulp van een chatbot is geproduceerd of niet.
In een recent wetenschappelijk artikel van een onderzoeker van de Hult International Business School over deze inherente spanning werd opgemerkt dat Montclair State University de faculteit had geïnstrueerd om goede grammatica als verdacht te beschouwen. "Door AI geschreven essays zijn over het algemeen atypisch correct in grammatica, taalgebruik en redactie", had de school het personeel geadviseerd.
Dit alles komt voort uit een breder stigma rond het gebruik van AI. Ondanks alle hype rond de technologie in de industrie, benadrukken steeds meer academische publicaties het fenomeen van “AI shaming.”
Uit een onderzoek van Duke University uit 2025 bleek dat professionals ervan overtuigd waren dat collega's hen luier en minder competent zouden vinden als ze AI zouden gebruiken, waardoor ze het gebruik ervan waarschijnlijk niet zouden onthullen. Deze verwachte sociale straf was reëel.
Dit komt doordat generatieve AI, in tegenstelling tot oudere productiviteitstools op de werkplek zoals Excel, niet wordt gezien als een vereiste voor gespecialiseerde vaardigheden, vertelde Jessica Reif, hoofdauteur van de studie en promovendus aan de Fuqua School of Business van Duke. Maar zelfs terwijl we ons ertegen verzetten, zijn er tekenen dat onze pogingen om de opmars van ChatGPT te ontlopen, gedoemd zijn te mislukken. Hoewel we misschien "ChatGPT-woorden" uit ons proza plukken, zijn er aanwijzingen dat het lege vocabulaire van AI zich ergens intiemer nestelt: in onze gedachten. Een onderzoek uit 2025 van onderzoekers van het Max Planck Instituut voor Menselijke Ontwikkeling stelde vast dat podcasters en YouTubers de laatste tijd de favoriete woorden van AI napraten, waaronder delve . Deze trend zette zich in na de lancering van ChatGPT en geldt zelfs voor spontane, ongeplande gesprekken.
Bovendien zal onze gereedschapskist vol AI-informatie waarschijnlijk slechts "tijdelijk nuttig" zijn, zegt Daphne Ippolito, universitair docent computerwetenschappen aan Carnegie Mellon University. "Bedrijven herzien voortdurend de recepten voor hun trainingsdata, dus al deze trends zullen veranderen", zei ze.
Hoewel AI belooft te verbeteren, is niet iedereen bang voor de toekomst. Smith heeft met plezier gezien hoe collega-schrijvers de afgelopen maanden meer gepersonaliseerde proza in de stijl van de stream-of-consciousness omarmden, en sommigen grapten zelfs dat ze nu zonder strenge redactie kunnen.
De eisen van SEO hebben in de eerste plaats bijgedragen aan de populariteit van een gelikte en onpersoonlijke stijl, benadrukt Smith. "Algoritmes zorgen er zeker voor dat dit soort dingen altijd beter worden." Hij denkt dat de toekomst zal draaien om "het delen van ideeën in plaats van je druk te maken over de vorm."
En in plaats van ChatGPT-tics onnadenkend uit ons proza te schrappen, kunnen we ze gebruiken als aanwijzingen voor introspectie. Gallagher, de professor Engels, schreef dat hij heeft geprobeerd minder afhankelijk te worden van lijstjes, niet alleen om te voorkomen dat hij als ChatGPT zou klinken, "maar ook om zorgvuldig te zijn met mijn woordkeuze."
Ik kon het zelf niet over mijn hart verkrijgen om een typefout in die e-mail te maken. Maar de volgende keer dat het spontaan gebeurt, denk ik niet dat het me zoveel zal storen als voorheen .
