OpenAI haast zich om GPT-5 te updaten na gebruikersopstand

Het GPT-5- model van OpenAI was bedoeld als een revolutionaire upgrade van hun razend populaire en eigenzinnige chatbot. Maar voor sommige gebruikers voelde de release van afgelopen donderdag meer als een pijnlijke downgrade, waarbij de nieuwe ChatGPT een verwaterde persoonlijkheid vertoonde en verrassend domme fouten maakte.
Vrijdag meldde Sam Altman, CEO van OpenAI, aan X dat het bedrijf het vorige model, GPT-4o, zou blijven gebruiken voor Plus-gebruikers. Een nieuwe functie die ontworpen was om naadloos tussen modellen te schakelen, afhankelijk van de complexiteit van de query, was donderdag kapot gegaan, aldus Altman, "en het resultaat was dat GPT-5 veel dommer leek." Hij beloofde oplossingen te implementeren om de prestaties van GPT-5 en de algehele gebruikerservaring te verbeteren.
Gezien de hype rond GPT-5 lijkt enige teleurstelling onvermijdelijk. Toen OpenAI in maart 2023 GPT-4 introduceerde , verbijsterde het AI-experts met zijn ongelooflijke mogelijkheden. GPT-5, zo speculeerden experts, zou ongetwijfeld net zo verbluffend zijn.
OpenAI prees het model aan als een aanzienlijke upgrade, met intelligentie op PhD-niveau en virtuoze programmeervaardigheden. Een systeem om automatisch zoekopdrachten naar verschillende modellen te leiden, moest een soepelere gebruikerservaring bieden. (Het zou het bedrijf ook geld kunnen besparen door eenvoudige zoekopdrachten naar goedkopere modellen te leiden.)
Kort na de val van GPT-5 stroomde de klachten binnen een Reddit- community die zich volledig op ChatGPT richtte . Veel gebruikers betreurden het verlies van het oude model.
"Ik probeer GPT5 nu al een paar dagen. Zelfs na het aanpassen van de instructies voelt het nog steeds niet hetzelfde. Het is technischer, algemener en eerlijk gezegd emotioneel afstandelijk", schreef een communitylid in een thread met de titel "Kill 4o is geen innovatie, het is uitwissen."
"Oké, 5 is prima, als je een hekel hebt aan nuances en het voelen van dingen", schreef een andere Reddit-gebruiker.
In andere discussies werd geklaagd over trage reacties, hallucinaties en verrassende fouten.
Altman beloofde deze problemen aan te pakken door de GPT-5-snelheidslimieten voor ChatGPT Plus-gebruikers te verdubbelen, het systeem dat tussen modellen schakelt te verbeteren en gebruikers te laten aangeven wanneer ze een meer doordachte en capabele 'denkmodus' willen activeren. "We zullen blijven werken aan de stabiliteit en blijven luisteren naar feedback", schreef de CEO op X. "Zoals we al zeiden, verwachtten we wat hobbels, aangezien we zoveel dingen tegelijk uitrollen. Maar het was iets hobbeliger dan we hadden gehoopt!"
Fouten die op sociale media worden geplaatst, wijzen er niet per se op dat het nieuwe model minder capabel is dan zijn voorgangers. Ze kunnen er simpelweg op wijzen dat het geheel nieuwe model door andere randgevallen wordt gehinderd dan eerdere versies. OpenAI weigerde specifiek commentaar te geven op de vraag waarom GPT-5 soms simpele blunders lijkt te maken.
De negatieve reacties hebben een nieuw debat aangewakkerd over de psychologische banden die sommige gebruikers aangaan met chatbots die getraind zijn om hun emotionele knoppen te bedienen. Sommige Reddit-gebruikers verwierpen klachten over GPT-5 als bewijs voor een ongezonde afhankelijkheid van een AI-metgezel.
In maart publiceerde OpenAI onderzoek naar de emotionele banden die gebruikers met zijn modellen opbouwen. Kort daarna bracht het bedrijf een update uit voor GPT-4o, omdat deze te vleiend werd .
"Het lijkt erop dat GPT-5 minder vleiend, meer 'zakelijk' en minder spraakzaam is", zegt Pattie Maes, een professor aan het MIT die aan het onderzoek meewerkte. "Persoonlijk vind ik dat een goede zaak, omdat het ook leidde tot waanideeën, het versterken van vooroordelen, enzovoort. Maar helaas houden veel gebruikers van een model dat hen vertelt dat ze slim en geweldig zijn en dat hun meningen en overtuigingen bevestigt, zelfs als ze [onjuist] zijn."
Altman gaf in een ander bericht op X aan dat dit iets is waar het bedrijf mee worstelde bij de bouw van GPT-5.
"Veel mensen gebruiken ChatGPT effectief als een soort therapeut of lifecoach, ook al zouden ze het niet zo omschrijven", schreef Altman. Hij voegde eraan toe dat sommige gebruikers ChatGPT mogelijk gebruiken op manieren die hun leven verbeteren, terwijl anderen "onbewust worden afgebracht van hun welzijn op de lange termijn".
wired