Hebben we in 2030 denkende robots? Of is dit gewoon hype van de grote technologiebedrijven?

Tegenwoordig maken veel mensen gebruik van chatbots met kunstmatige intelligentie (AI) voor allerlei doeleinden, van suggesties voor het avondeten tot de strijd tegen eenzaamheid. Maar staat de mensheid op het punt om machines te creëren die zelfstandig kunnen denken, en daarmee hun makers te slim af kunnen zijn?
Sommige grote techbedrijven beweren dat zo'n doorbraak, bekend als algemene kunstmatige intelligentie (AGI), nog maar een paar jaar op zich laat wachten. Maar sceptici zeggen dat je de hype niet moet geloven.
"Wanneer je iemand over AGI hoort praten, denk dan aan de tandenfee of de Kerstman", aldus Ed Zitron, presentator van de technologiepodcast Better Offline en bedenker van de nieuwsbrief Where's Your Ed At?
"Dit zijn allemaal fictieve concepten, inclusief AGI. Het verschil is dat je idioten uit het bedrijfsleven hebt die er miljarden dollars in steken omdat ze niets anders hebben om hun geld in te investeren", vertelde hij aan The Current .
Deskundigen zijn het oneens over de precieze details van wat onder AGI wordt verstaan, maar over het algemeen wordt het beschouwd als een kunstmatige intelligentie die net zo slim of slimmer is dan de mens, met het vermogen om autonoom te leren en te handelen. Die intelligentie zou vervolgens in een robotlichaam kunnen worden geïnstalleerd dat een veelvoud aan taken kan uitvoeren.
Demis Hassabis, CEO van Google's AI-lab DeepMind, zei onlangs dat zijn bedrijf AGI tegen 2030 zal bereiken.
"Mijn tijdlijn is behoorlijk consistent sinds de start van DeepMind in 2010, dus we dachten dat het een missie van ongeveer 20 jaar zou zijn, en wonderbaarlijk genoeg liggen we op schema", vertelde hij in mei aan de New York Times .
Zitron is niet overtuigd. Hij zei dat Hassabis "direct gemotiveerd" is om de vooruitgang van zijn bedrijf te promoten, en wees op de onzekerheid over de winstgevendheid van AI-chatbots zoals Gemini van Google of ChatGPT van OpenAI.
"Geen van deze bedrijven verdient echt geld met generatieve AI, dus ze hebben een nieuwe magische truc nodig om mensen ervan te weerhouden ermee te stoppen", zei hij.
AGI 'altijd 10 jaar verwijderd'Volgens AI-expert Melanie Mitchell worden er al sinds de jaren zestig voorspellingen gedaan over dit soort intelligente AI, maar die voorspellingen zijn altijd fout geweest.
"AGI of het equivalent daarvan duurt altijd 10 jaar, maar dat is altijd zo geweest en misschien zal dat altijd zo blijven", aldus Mitchell, hoogleraar aan het Santa Fe Institute in New Mexico, gespecialiseerd in kunstmatige intelligentie, machinaal leren en cognitiewetenschap.
Ze zei dat er geen universele overeenstemming is over wat een werkende AGI zou moeten kunnen doen, maar dat het niet verward moet worden met grote taalmodellen zoals ChatGPT of Claude, die een type generatieve AI zijn.
Grote taalmodellen (LLM's) die generatieve AI-programma's aandrijven, zijn getraind op "een enorme hoeveelheid door mensen gegenereerde taal, afkomstig van websites, boeken of andere media", en zijn daardoor "in staat om zeer menselijk klinkende taal te genereren", vertelde ze aan The Current .
Zitron zei dat dit onderscheid belangrijk is, omdat het benadrukt dat generatieve AI geen intelligentie is, maar een beroep doet op een corpus van informatie dat door mensen is gevoed.
Hij definieert AGI als "een bewuste computer … iets dat volledig autonoom kan denken en handelen" en dat het vermogen heeft om te leren.
"We weten niet hoe het menselijk bewustzijn werkt," zei hij. "Hoe moeten we dat in vredesnaam met computers doen? En het antwoord is: we weten het niet."

Mitchell maakt zich zorgen dat er zonder een breed gedragen definitie het risico bestaat dat grote technologiebedrijven "AGI opnieuw definiëren".
"Ze zullen zeggen: 'Oh, nou, wat we hier hebben, dat is AGI. En daarom hebben we AGI bereikt', zonder dat het echt een diepere betekenis heeft dan dat," zei ze.
AGI zou 'een zelfmoordrace' kunnen zijnEr zijn mensen buiten de techsector die geloven dat AGI binnen handbereik zou kunnen liggen.
"Als ons brein een biologische computer is, dan betekent het dat het mogelijk is om dingen te maken die op menselijk niveau kunnen denken", aldus Max Tegmark, hoogleraar aan het MIT en voorzitter van het Future of Life Institute, een non-profitorganisatie die zich ten doel stelt de risico's van nieuwe technologieën te beperken.
"En er is geen enkele natuurkundige wet die zegt dat het niet beter kan", zei hij.
Tegmark is van mening dat er sprake is van arrogantie of buitensporige trots als men beweert dat AGI niet kan worden bereikt, net zoals veel mensen ooit dachten dat bemande vluchten onmogelijk waren.
Sommige vroege uitvinders hadden tevergeefs geprobeerd machines te creëren die de snelle vleugelslagen van kleinere vogels nabootsten. Maar succes kwam met een beter begrip van vogelvleugels en het idee van een machine die zweeft.
"Het bleek een veel eenvoudigere manier te zijn om vliegmachines te bouwen", aldus Tegmark.
We hebben hier nu hetzelfde zien gebeuren: de huidige geavanceerde AI-systemen zijn veel eenvoudiger dan hersenen. We hebben een andere manier gevonden om machines te maken die kunnen denken.
Tegmark zegt dat het hem niet zou verbazen als "dit binnen twee tot vijf jaar gebeurt", maar dat betekent niet dat we per se robots moeten creëren die slimmer zijn dan mensen.
Hij beschreef deze intelligente machines als een nieuwe soort, een soort die de plaats van de mensheid in de voedselketen gemakkelijk zou kunnen bedreigen, "omdat het natuurlijk is dat de slimmere soort de controle overneemt."

"De race om superintelligentie te bouwen is een zelfmoordrace, maar we hoeven die race niet te rennen", zei hij.
"We kunnen nog steeds geweldige AI bouwen die kanker geneest en ons allerlei fantastische hulpmiddelen biedt – zonder superintelligentie."
cbc.ca