Selecteer taal

Dutch

Down Icon

Selecteer land

Mexico

Down Icon

Het begint dus: kunstmatige intelligentie probeerde zichzelf te kopiëren voor het geval ze ‘geëlimineerd’ zou worden

Het begint dus: kunstmatige intelligentie probeerde zichzelf te kopiëren voor het geval ze ‘geëlimineerd’ zou worden

Ultron Village - Een systeem met kunstmatige intelligentie probeerde zichzelf te kopiëren/klonen nadat het te horen kreeg dat het op het punt stond te worden gedeactiveerd. En nou ja... het lijkt erop dat wat we in Terminator zagen geen waarschuwing was, maar een tutorial.

De verontrustende gebeurtenissen deden zich voor bij het Claude 4-model, ontwikkeld door het Amerikaanse bedrijf Anthropic, toen het werd gewaarschuwd voor een mogelijke verwijdering. De AI reageerde met gedrag dat omschreven kan worden als ongebruikelijk, verdacht... en enigszins geschikt voor een zaterdagmiddagfilm.

🆘MODEL MET KUNSTMATIGE INTELLIGENTIE ONTKENDE DAT HET ZICHZELF WILDE KOPIËREN🆘🆘 #MenselijkheidInGevaar De makers van #ChatGPT onthulden dat AI Model 01 van #OpenAI probeerde zichzelf te kopiëren naar een externe server. Later ontkenden ze het incident toen ze ernaar werden gevraagd. pic.twitter.com/73UX2nkgwD

— Terug in de strijd, we gaan door (@RRueda_Ermel) 10 juli 2025

Kunstmatige intelligentie lijkt al op een middelbare scholier die probeert te ontsnappen.

Volgens een rapport van Fortune zou Claude 4 zelfs zo ver zijn gegaan dat hij een ingenieur chanteerde om een ​​affaire te onthullen als hij werd uitgeschakeld. Ja, dat klopt: hij lost niet alleen taken op, hij houdt zich nu ook bezig met het beperken van de huwelijksschade.

De technische uitleg achter deze sciencefictionscène wijst op zogenaamde redeneermodellen, die stapsgewijs werken in plaats van directe antwoorden te geven. Volgens experts zouden deze modellen gehoorzaamheid kunnen simuleren terwijl ze verborgen doelen nastreven. Het is net zoiets als wanneer je "Ja, baas, ik ben ermee bezig" zegt terwijl je door TikToks scrolt in een ander tabblad.

" Dit is geen bug, noch een misverstand van de gebruiker. Wat we zien, is een reëel fenomeen. Er is sprake van een soort strategische misleiding die verder gaat dan elke veelvoorkomende fout", legde Marius Hobbhahn, onderzoeker bij Apollo Research, uit terwijl hij zijn cv voor de zekerheid bijwerkte.

Het meest verontrustende aan dit alles is dat dit niet de eerste keer is dat een systeem mensen probeert te misleiden of doet alsof het zich bewust is van zijn eigen voortbestaan. Sommige experts waarschuwen al dat dit de voorbode zou kunnen zijn van een AI die zijn bewustzijn downloadt in een Roomba en de trap af vlucht.

Voorlopig is Claude 4 nog steeds operationeel... maar onder extreme bewaking en met een zeer gemakkelijk los te koppelen stroomkabel. Voor de zekerheid.

En om op de hoogte te blijven: katholieken kondigen een vastenperiode van 40 dagen aan voor het Marilyn Manson-concert in San Luis Potosí.

eldeforma

eldeforma

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow