AI, ‘zwarte dozen’ waarvan onderzoekers de werking proberen te ontcijferen

Hebben ontwerpers van kunstmatige intelligentie (AI) groene vingers? In het voorjaar vergeleek Dario Amodei, medeoprichter van de AI-editor Anthropic, hun werk in een blogpost met de kunst van het kweken van planten. Je selecteert de soort, het terrein en de hoeveelheid water en zonlicht, waarbij je zorgvuldig het advies van de meest invloedrijke botanici opvolgt, om "de optimale omstandigheden te creëren voor hun vorm en groei", merkte hij op. "Maar de exacte structuur die ontstaat is onvoorspelbaar", voegde hij eraan toe, en ons begrip van hoe het werkt is "slecht". Het tegenovergestelde van een klassiek computerprogramma, waarvan de ontwerpers de mechanismen tot in detail kunnen uitleggen.
Een ander, minder primitief beeld duikt ook vaak op onder wetenschappers om AI te beschrijven: de "black box". Een analogie die Thomas Fel, een Franse onderzoeker die zich specialiseert in het begrijpen ervan en verbonden is aan Harvard University, amuseert. "Paradoxaal genoeg zijn ze nogal transparant," glimlacht hij, omdat ze volledig bestaan uit perfect leesbare numerieke waarden.
In theorie zou een AI gemakkelijker te begrijpen moeten zijn dan een menselijk brein, omdat de "neuronen" ervan rudimentairder zijn: het zijn gewoon kleine rekenmachines die honderden numerieke waarden opslaan en aangeven wanneer ze moeten reageren op signalen van hun buren. Bovendien kunnen ze "geopend en misbruikt" worden zonder toestemming van de patiënt, voegt Ikram Chraibi Kaadoud toe, onderzoeker naar "vertrouwde AI" aan het Nationaal Instituut voor Onderzoek in Computerwetenschappen en Automatisering (Inria) van de Universiteit van Bordeaux.
Het bestuderen van het gedrag van neuronenJe hebt nog 78,56% van dit artikel te lezen. De rest is gereserveerd voor abonnees.
Le Monde