AI-experts roepen regeringen dringend op om na te denken over mogelijke maatregelen

Iedereen lijkt te erkennen dat kunstmatige intelligentie een snel ontwikkelende en opkomende technologie is die enorme schade kan aanrichten als deze zonder waarborgen wordt gebruikt. Maar eigenlijk kan niemand (behalve de Europese Unie , min of meer) het eens worden over hoe dit gereguleerd moet worden. Dus in plaats van te proberen een duidelijk en strikt pad uit te stippelen voor hoe we AI mogen gebruiken, hebben experts op dit gebied gekozen voor een nieuwe aanpak: wat dacht je ervan om gewoon te bepalen welke extreme voorbeelden we allemaal slecht vinden en daar gewoon mee in te stemmen?
Maandag kwam een groep politici, wetenschappers en academici bijeen in de Algemene Vergadering van de Verenigde Naties om de Global Call for AI Red Lines aan te kondigen. Dit is een oproep aan regeringen wereldwijd om samen te komen en zo breed mogelijke maatregelen te treffen om "universeel onaanvaardbare risico's" te voorkomen die zouden kunnen voortvloeien uit de inzet van AI. Het doel van de groep is om deze rode lijnen uiterlijk eind 2026 te hebben vastgesteld.
Het voorstel heeft tot nu toe meer dan 200 handtekeningen verzameld van experts uit de industrie, politieke leiders en Nobelprijswinnaars. De voormalige president van Ierland, Mary Robinson, en de voormalige president van Colombia, Juan Manuel Santos, doen mee, evenals Nobelprijswinnaars Stephen Fry en Yuval Noah Harari. Geoffrey Hinton en Yoshua Bengio, twee van de drie mannen die algemeen bekend staan als de " Godfathers of AI " vanwege hun fundamentele werk in de sector, hebben ook hun naam aan de lijst toegevoegd.
Wat zijn die rode lijnen? Nou, dat is nog steeds aan overheden om te bepalen. De oproep bevat geen specifieke beleidsvoorschriften of aanbevelingen, maar noemt wel een paar voorbeelden van wat een rode lijn zou kunnen zijn. Het verbieden van de lancering van kernwapens of het gebruik ervan voor grootschalige surveillance zou een potentiële rode lijn zijn voor AI-toepassingen, zegt de groep, terwijl het verbieden van de creatie van AI die niet door menselijke tussenkomst kan worden uitgeschakeld, een mogelijke rode lijn zou zijn voor AI-gedrag. Maar ze zijn heel duidelijk: leg deze regels niet vast, het zijn slechts voorbeelden, je kunt je eigen regels maken.
Het enige wat de groep concreet voorstelt, is dat elke mondiale overeenkomst op drie pijlers moet worden gebouwd: ‘een duidelijke lijst met verboden; robuuste, controleerbare verificatiemechanismen; en de benoeming van een onafhankelijk orgaan dat door de partijen wordt opgericht om toezicht te houden op de uitvoering.’
De details moeten echter door regeringen worden overeengekomen. En dat is nou net het lastige. De oproep beveelt aan dat landen een aantal topconferenties en werkgroepen organiseren om dit allemaal uit te zoeken, maar er spelen ongetwijfeld veel tegenstrijdige motieven mee in die gesprekken.
De Verenigde Staten hebben zich er bijvoorbeeld al toe verbonden AI geen kernwapens te laten besturen (een afspraak die is gemaakt onder de regering-Biden, dus god mag weten of die nog steeds bestaat). Maar recente berichten gaven aan dat delen van de inlichtingendienst van de regering-Trump al geïrriteerd zijn geraakt door het feit dat sommige AI-bedrijven hen hun tools niet laten gebruiken voor binnenlandse surveillance . Zou Amerika instemmen met zo'n voorstel? Misschien weten we het eind 2026... als we het zo lang volhouden.
gizmodo