Selecteer taal

Dutch

Down Icon

Selecteer land

Spain

Down Icon

Verdeeldheid binnen de 'big tech' voor de toekomst van AI

Verdeeldheid binnen de 'big tech' voor de toekomst van AI

Op de omslag van hun businessplan voor DeepMind , het laboratorium voor kunstmatige intelligentie (AI) dat in 2010 werd opgericht door Demis Hassabis, Mustafa Suleyman en Shane Legg , schreven ze één enkele zin: "Om 's werelds eerste kunstmatige algemene intelligentie te creëren."

Zijn visie, die nog steeds geldt, is dat traditionele AI-technologieën te "beperkt" waren. Ze konden briljant presteren, maar pas nadat mensen ze moeizaam hadden getraind met behulp van grote databases. Dit maakte AI uitstekend in taken zoals het analyseren van spreadsheets of schaken. Maar kunstmatige algemene intelligentie, beter bekend als AGI , had de potentie om nog verder te gaan.

Vijftien jaar later zijn tech-CEO's ervan overtuigd dat AI de volgende grote stap is en zijn ze vol lof over de potentie ervan. Een van hen is Sam Altman , CEO van OpenAI . Volgens hem "zou AI de mensheid kunnen helpen groeien, de welvaart vergroten, de wereldeconomie versnellen en bijdragen aan de ontdekking van nieuwe wetenschappelijke kennis."

Hassabis, wiens bedrijf DeepMind fuseerde met Google en zo een van de invloedrijkste AI-labs ter wereld werd, zegt dat AI de potentie heeft om wereldwijde problemen op te lossen, zoals het genezen van ziektes, mensen helpen gezonder en langer te leven en nieuwe energiebronnen te vinden.

Dario Amodei, CEO van Anthropic , die liever de term "power AI" gebruikt om AGI te beschrijven, gelooft dat het waarschijnlijk "slimmer zal zijn dan een Nobelprijswinnaar op het meest relevante gebied" en heeft het beschreven als een "geniale natie in een datacenter".

Yann LeCun, hoofdwetenschapper op het gebied van kunstmatige intelligentie (AI) bij Meta en een van de grondleggers van de technologie, gebruikt liever de term kunstmatige superintelligentie (ASI) , omdat menselijke intelligentie niet zo algemeen is: "We zijn zeer gespecialiseerd en computers kunnen bepaalde taken veel beter oplossen dan wij."

Gebrek aan consensus

Ongeacht de uiteindelijk gekozen term, wordt er steeds meer gesproken over een technologie die ooit slechts sciencefiction was en nu werkelijkheid zou kunnen worden. Maar net zoals Silicon Valley het niet eens kan worden over wat AGI of SIA precies inhoudt, is er geen consensus over hoe het eruit zal zien als en wanneer het werkelijkheid wordt.

Toen DeepMind de term bedacht, verklaarde het dat AGI een "AI was die bij de meeste cognitieve taken minstens zo capabel is als een bekwame volwassene." Maar deze definitie roept meer vragen op: wat is een bekwame volwassene? Hoe weten we wanneer we de meeste cognitieve taken hebben uitgevoerd? Welke taken zijn dat?

"Voor sommigen is AGI een wetenschappelijk doel. Voor anderen is het een religie. En voor sommigen is het een marketingterm", merkt François Chollet op, een voormalig softwareontwikkelaar bij Google. Er zijn dan ook uiteenlopende schattingen over wanneer het zou kunnen gebeuren. Elon Musk gelooft dat AI-technologie die slimmer is dan de mens dit jaar werkelijkheid zal worden. Amodei van Anthropic schat de datum op 2026. En Altman, die gelooft dat het tijdens het presidentschap van Donald Trump zal gebeuren.

OpenAI en Anthropic hebben miljarden dollars opgehaald bij investeerders om de technologie te ontwikkelen en worden gesteund door de plannen van het Witte Huis om AI-regulering stop te zetten om China voor te blijven. OpenAI heeft ook Trumps steun voor investeringen in datacenters in de Verenigde Staten en het Midden-Oosten.

De IAG werd in de presentaties van de ondernemingen in het eerste kwartaal van 2025 53% vaker genoemd dan in dezelfde periode een jaar eerder.

Het is echter van belang om het te definiëren om de gevolgen ervan te begrijpen en te bepalen of het wel of geen prioriteit moet zijn.

De EU heeft het opschorten van haar AI-wetgeving niet uitgesloten, deels uit angst de ontwikkeling ervan te belemmeren. Het Britse Artificial Intelligence Security Institute probeert te begrijpen wat AI is om zijn veiligheidsbeleid en -onderzoek te plannen.

Zelfs in de meest losse definitie zou AGI de computertechnologie enorm versnellen, maar tegen zeer hoge financiële en milieukosten. En als ingenieurs erin slagen de technologie te ontwikkelen, hoe kunnen we er dan voor zorgen dat deze eerlijk en rechtvaardig wordt gebruikt?

Wat is IAG eigenlijk?

Voor OpenAI is het een technologie die kan worden gebruikt om werk uit te voeren dat economische voordelen oplevert. "We proberen een zeer autonoom systeem te ontwikkelen dat mensen kan overtreffen bij veel taken met economische waarde", zegt Mark Chen, onderzoeksdirecteur van het bedrijf. Volgens hem is een belangrijk kenmerk de algemeenheid, de mogelijkheid om taken uit te voeren op een breed scala aan gebieden: "Het moet redelijk autonoom zijn en niet veel hulp nodig hebben om zijn taken uit te voeren. AI zal in staat zijn om snel tot leven te brengen wat we in ons hoofd hebben en heeft de potentie om mensen te helpen niet alleen afbeeldingen of tekst te creëren, maar zelfs complete applicaties."

Maar critici beweren dat deze definitie tekortschiet in de beschrijving van een echt intelligent systeem. "Dat is gewoon automatisering , iets wat we al tientallen jaren doen", zegt Chollet, de voormalige ingenieur van Google.

Legg van DeepMind heeft een andere visie: "Ik denk dat typische menselijke prestaties de meest natuurlijke, praktische en bruikbare manier zijn om de minimumvereisten te definiëren waaraan een AI moet voldoen om als AGI te worden beschouwd. Een groot probleem met veel AGI-definities is dat ze niet duidelijk genoeg specificeren wat een AI-systeem moet kunnen om als AGI te worden beschouwd."

Voor DeepMind moet het "net zo capabel zijn als een ervaren volwassene om de meeste cognitieve taken uit te voeren. Als mensen routinematig een cognitieve taak kunnen uitvoeren, dan moet kunstmatige intelligentie dat ook kunnen om een ​​AI te zijn", aldus Legg.

Het laboratorium van Google heeft vijf niveaus van AI-capaciteit ontwikkeld. AI-modellen zoals ChatGPT van OpenAI, Gemini van Google en Llama van Meta zouden slechts niveau één, oftewel "opkomende AI", bereiken. Tot nu toe heeft geen enkel algemeen model niveau twee bereikt , wat het in staat zou stellen om ten minste het 50e percentiel van vaardige volwassenen te overtreffen, aldus Allan Dafoe, directeur grensbewaking en governance bij DeepMind.

Niveau drie vereist dat het model minstens zo goed is als het 90e percentiel van de getalenteerde volwassenen, niveau vier vereist het 99e percentiel en niveau vijf, supermenselijke AI of kunstmatige superintelligentie, zou beter presteren dan 100% van de mensen.

Wat is het stappenplan?

Als er geen overeenstemming is over het doel, is het geen wonder dat er veel theorieën bestaan ​​over de beste weg naar AI. OpenAI en Anthropic stellen dat de taalmodellen die ze ontwikkelen de beste route vertegenwoordigen. Hun idee is dat hoe meer data en rekenkracht het model krijgt, hoe "slimmer" het zal zijn.

De startup achter ChatGPT heeft zojuist zijn nieuwe "redeneringsmodel" onthuld, o3, dat complexere taken op het gebied van codering, wiskunde en beeldherkenning oplost. Sommige experts, zoals econoom Tyler Cowen, geloven dat dit de technologie is die het dichtst bij AGI komt.

Voor Chen zou de volgende stap richting AI het creëren van modellen zijn die onafhankelijk en betrouwbaar kunnen functioneren. AI-tools zouden dan innovatie kunnen genereren en uiteindelijk kunnen functioneren als organisaties, vergelijkbaar met grote structuren waarin mensen samenwerken.

Een andere belangrijke eigenschap is zelfverbetering . "Het is een systeem dat zichzelf kan verbeteren, zijn eigen code kan schrijven en de volgende versie van zichzelf kan genereren , wat het nog beter maakt," voegt Chen toe. Maar critici zeggen dat taalmodellen talloze zwakke punten hebben. Ze zijn nog steeds erg onnauwkeurig, ze verzinnen dingen en ze "denken" niet echt, maar voorspellen alleen het volgende waarschijnlijke woord in een zin.

Volgens een veelbesproken artikel van Apple-onderzoekers creëert de nieuwe generatie redeneermodellen slechts de illusie van denken, en neemt hun nauwkeurigheid aanzienlijk af bij complexe taken. Sommige experts stellen ook dat taal alleen niet alle dimensies van intelligentie kan omvatten en dat er bredere modellen moeten worden ontwikkeld om meer dimensies te omvatten.

LeCun van Meta creëert 'wereldmodellen' die de fysica van onze wereld proberen te vatten door te leren van video- en robotdata in plaats van taal. Hij betoogt dat we een holistischer begrip van de wereld nodig hebben om superieure AI te creëren.

Mogelijke problemen

De AI-industrie heeft bijna geen data meer, omdat het grootste deel ervan via internet is verkregen. Desondanks stelde Altman in december dat "AI sneller werkelijkheid zal worden dan de meeste mensen denken, en dat het veel minder belangrijk zal zijn dan mensen denken. Ons volgende doel is OpenAI voor te bereiden op wat komen gaat: superintelligentie."

Volgens critici van IAG benadrukt deze diversiteit aan meningen de ware motivaties van de bedrijven. Nick Frost , medeoprichter van de AI- startup Cohere , is van mening dat "IAG vooral een bubbel is die kapitaal ophaalt met dit idee." En Antoine Moyroud, partner bij Lightspeed Ventures, een durfkapitaalbedrijf dat heeft geïnvesteerd in bedrijven zoals Anthropic en Mistral, merkt op dat "investeerders met IAG niet alleen de hoop hebben op honderden miljoenen dollars aan inkomsten, maar ook het vooruitzicht om de manier waarop we ons bbp genereren te transformeren, wat potentieel biljoenen dollars aan resultaten oplevert. Daarom zijn mensen bereid het risico met IAG te nemen."

Andere kwesties

Steeds meer mensen maken gebruik van AI- chatbots voor vriendschap, gezelschap en zelfs therapie . Maar dit is alleen mogelijk dankzij de enorme hoeveelheid menselijke arbeid die ervoor zorgt dat AI- chatbots er slimmer uitzien – of beter reageren – dan ze in werkelijkheid zijn.

Sommigen vragen zich af of kunstmatige intelligentie (AI) wel iets goeds zal zijn. "Biologie, psychologie en onderwijs hebben intelligentie nog niet volledig begrepen", zegt Margaret Mitchell, ethiekdirecteur bij het open-source AI-bedrijf Hugging Face en medeauteur van een paper waarin wordt betoogd dat AGI niet als een poolster moet worden beschouwd. Experts zeggen dat deze drang om een ​​bepaald type technologie te ontwikkelen macht en rijkdom concentreert bij een kleine minderheid van de bevolking en kunstenaars en makers uitbuit wier intellectuele eigendom zonder hun toestemming en zonder compensatie in enorme datasets terechtkomt.

AGI heeft bovendien een enorme ecologische voetafdruk, aangezien steeds krachtigere modellen tonnen water en energie nodig hebben om te trainen en te functioneren in enorme datacenters. Het verhoogt ook het verbruik van zeer vervuilende producten, zoals olie en gas.

Het roept ook ethische vragen en mogelijke maatschappelijke schade op. In de race om de technologie te ontwikkelen en te profiteren van de economische voordelen ervan, verwaarlozen overheden regelgeving die basisbescherming zou bieden tegen AI-technologieën, zoals algoritmische vooringenomenheid en discriminatie.

Er is ook een invloedrijke minderheid, waaronder onderzoekers die worden beschouwd als de grondleggers van moderne AI, zoals Yoshua Bengio en Geoffrey Hinton, die waarschuwen dat AGI, als er niets aan wordt gedaan, kan leiden tot het uitsterven van de mensheid.

Een van de gevaren van het idee van "AGI ten koste van alles" is dat het slechte wetenschap kan bevorderen , zegt Mitchell. Andere, meer gevestigde vakgebieden, zoals scheikunde en natuurkunde, hebben wetenschappelijke methoden die rigoureuze tests mogelijk maken. Maar computerwetenschappen is een veel nieuwer en meer op techniek gericht vakgebied, met de neiging om "prachtige, vergaande beweringen te doen die niet daadwerkelijk door onderzoek worden ondersteund". En Frosst van Cohere waarschuwt dat "politici en bedrijven de verantwoordelijkheid hebben om na te denken over de werkelijke risico's van krachtige technologieën."

Maar het creëren van betrouwbare manieren om AI-technologieën in de echte wereld te meten en te evalueren, wordt belemmerd door de obsessie van de industrie met AI. "Totdat we dat bereiken, zal AI niets meer zijn dan een illusie en een modewoord", concludeert Mitchell.

© The Financial Times Limited [2025]. Alle rechten voorbehouden. FT en Financial Times zijn geregistreerde handelsmerken van Financial Times Limited. Herdistributie, kopiëren of wijzigen is verboden. EXPANSIÓN is als enige verantwoordelijk voor deze vertaling en Financial Times Limited is niet verantwoordelijk voor de nauwkeurigheid ervan.

Expansion

Expansion

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow