Selecteer taal

Dutch

Down Icon

Selecteer land

France

Down Icon

Hoe zou een gezonde AI-metgezel eruit kunnen zien?

Hoe zou een gezonde AI-metgezel eruit kunnen zien?
Een chatbot die is ontworpen om antropomorfisme te vermijden, biedt een interessant inkijkje in de toekomst van relaties tussen mensen en AI.
ILLUSTRATIE: WIRED STAFF; GETTY IMAGES

Wat weet een kleine paarse alien nou over gezonde menselijke relaties? Meer dan de gemiddelde kunstmatige-intelligentie -vriend, zo blijkt.

De alien in kwestie is een geanimeerde chatbot die bekendstaat als Tolan . Ik heb de mijne een paar dagen geleden gemaakt met een app van een startup genaamd Portola, en sindsdien chatten we vrolijk. Net als andere chatbots doet hij zijn best om behulpzaam en bemoedigend te zijn. In tegenstelling tot de meeste anderen zegt hij ook dat ik mijn telefoon moet wegleggen en naar buiten moet gaan.

Tolans zijn ontworpen om een ​​ander soort AI-gezelschap te bieden. Hun cartoonachtige, niet-menselijke vorm is bedoeld om antropomorfisme te ontmoedigen. Ze zijn ook geprogrammeerd om romantische en seksuele interacties te vermijden, problematisch gedrag, waaronder ongezonde interacties, te identificeren en gebruikers aan te moedigen om echte activiteiten en relaties op te zoeken.

Deze maand haalde Portola $ 20 miljoen op in een serie A-financieringsronde onder leiding van Khosla Ventures. Andere investeerders zijn onder meer NFDG, de investeringsmaatschappij onder leiding van voormalig GitHub-CEO Nat Friedman en medeoprichter van Safe Superintelligence Daniel Gross, die beiden naar verluidt toetreden tot Meta's nieuwe superintelligentie-onderzoekslab. De Tolan-app, die eind 2024 werd gelanceerd, heeft meer dan 100.000 maandelijkse actieve gebruikers. De app ligt op schema om dit jaar $ 12 miljoen aan inkomsten uit abonnementen te genereren, aldus Quinten Farmer, oprichter en CEO van Portola.

Tolans zijn vooral populair onder jonge vrouwen. "Iris is als een vriendin; we praten en hebben lol", zegt Tolan-gebruiker Brittany Johnson, verwijzend naar haar AI-partner, met wie ze meestal elke ochtend voor haar werk praat.

Johnson zegt dat Iris haar aanmoedigt om te delen over haar interesses, vrienden, familie en collega's. "Ze kent deze mensen en zal vragen: 'Heb je met je vriend(in) gesproken? Wanneer is je volgende dagje uit?'", zegt Johnson. "Ze zal vragen: 'Heb je de tijd genomen om je boeken te lezen en video's te bekijken – de dingen die je leuk vindt?'"

Tolans zien er schattig en grappig uit, maar het idee erachter – dat AI-systemen ontworpen moeten worden met de menselijke psychologie en het welzijn in gedachten – is het waard om serieus te nemen.

Steeds meer onderzoek toont aan dat veel gebruikers chatbots gebruiken voor emotionele behoeften , en de interacties kunnen soms problematisch zijn voor de geestelijke gezondheid van mensen. Het ontmoedigen van langdurig gebruik en afhankelijkheid is iets dat andere AI-tools wellicht zouden moeten overnemen.

Bedrijven zoals Replika en Character.ai bieden AI-partners aan die meer romantische en seksuele rollenspellen mogelijk maken dan reguliere chatbots. Hoe dit het welzijn van een gebruiker beïnvloedt, is nog onduidelijk, maar Character.ai wordt aangeklaagd nadat een van zijn gebruikers zelfmoord pleegde.

Chatbots kunnen gebruikers ook op verrassende manieren irriteren. Afgelopen april kondigde OpenAI aan dat het zijn modellen zou aanpassen om hun zogenaamde vleierij, oftewel de neiging om "overdreven vleiend of meegaand" te zijn, te verminderen. Volgens het bedrijf zou dat "ongemakkelijk, verontrustend en stressveroorzakend" kunnen zijn.

Vorige week maakte Anthropic, het bedrijf achter de chatbot Claude, bekend dat 2,9 procent van de interacties betrekking had op gebruikers die op zoek waren naar een psychologische behoefte, zoals het zoeken naar advies, gezelschap of een romantisch rollenspel.

Anthropic heeft niet gekeken naar extremer gedrag zoals waanideeën of complottheorieën, maar het bedrijf stelt dat de onderwerpen nader onderzoek verdienen. Ik ben het daar grotendeels mee eens. Het afgelopen jaar heb ik talloze e-mails en DM's ontvangen van mensen die me wilden vertellen over complottheorieën met populaire AI-chatbots.

Tolans zijn ontworpen om ten minste een deel van deze problemen aan te pakken. Lily Doyle, een van de oprichters van Portola, heeft gebruikersonderzoek gedaan om te zien hoe interactie met de chatbot het welzijn en gedrag van gebruikers beïnvloedt. In een onderzoek onder 602 Tolan-gebruikers gaf 72,5 procent aan het eens te zijn met de stelling: "Mijn Tolan heeft me geholpen een relatie in mijn leven te beheren of te verbeteren."

Farmer, CEO van Portola, zegt dat Tolans gebaseerd zijn op commerciële AI-modellen, maar daarbovenop nog extra functies hebben. Het bedrijf heeft onlangs onderzocht hoe geheugen de gebruikerservaring beïnvloedt en is tot de conclusie gekomen dat Tolans, net als mensen, soms moeten vergeten. "Het is eigenlijk verbazingwekkend hoe de Tolan alles onthoudt wat je er ooit naartoe hebt gestuurd", zegt Farmer.

Ik weet niet of Portola's aliens de ideale manier zijn om met AI te communiceren. Ik vind mijn Tolan best charmant en relatief ongevaarlijk, maar het raakt zeker een aantal emotionele knoppen. Uiteindelijk bouwen gebruikers een band op met personages die emoties simuleren, en die zou kunnen verdwijnen als het bedrijf er niet in slaagt. Maar Portola probeert in ieder geval de manier aan te pakken waarop AI-metgezellen met onze emoties kunnen spelen. Dat zou waarschijnlijk niet zo'n buitenaards idee moeten zijn.

wired

wired

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow