I limiti dei robot

Andrew Smart è una delle voci più provocatorie e originali nel dibattito sulle intersezioni tra tecnologia, filosofia e cognizione. Autore dei libri Autopilot: The Art and Science of Doing Nothing (2013) e Beyond Zero and One: Machines, Psychedelics, and Consciousness (2015) – non pubblicati in portoghese – Smart considera l'Intelligenza Artificiale (IA) con lo stesso rigore con cui ha sempre considerato le illusioni della mente umana.
Con un dottorato di ricerca in filosofia e un master in scienze cognitive, unisce l'esperienza maturata in grandi aziende come Novartis e Twitter alla ricerca su coscienza e tecnologia. Attualmente è ricercatore senior presso Google a San Francisco, dove studia l'impatto sociale dell'intelligenza artificiale.
In questa intervista, condotta tramite videochiamata, Smart discute la differenza tra percezione umana e allucinazione algoritmica, i paradossi della creatività artificiale, l'ideologia della Silicon Valley e i dilemmi del cosiddetto capitalismo cognitivo, una fase in cui conoscenza, creatività e dati diventano i principali motori della produzione e del controllo sociale.
Lo scienziato e filosofo Andrew Smart, ricercatore di Google, ritiene che l'intelligenza artificiale possa essere utilizzata per arricchire chi è già ricco – Immagine: Social Media
CartaCapital: Per iniziare, potresti spiegare il tuo lavoro? Andrew Smart: Lavoro generalmente con quella che chiamiamo "IA responsabile", anche se, con l'attuale clima politico negli Stati Uniti, termini come "equità" o "diversità" vengono evitati. Mi dedico alla ricerca sugli impatti sociali dell'IA e su come le tecnologie di apprendimento automatico influenzano persone e gruppi diversi. Continuo anche a interessarmi a questioni filosofiche, come la teoria della mente e il dibattito sulla possibilità che questi sistemi possano un giorno sviluppare la capacità di esperienze soggettive. Quando ho pubblicato "Beyond Zero and One", l'idea di un'IA sotto l'effetto dell'LSD era quasi una provocazione filosofica. Ora, queste idee sembrano meno assurde.
CC: Hai sostenuto che le macchine non possono avere allucinazioni come gli umani. Lo pensi ancora? AS: Parlare di "allucinazione" dei modelli significa antropomorfizzare la macchina, ovvero attribuirle caratteristiche umane – cosa che critico. Allo stesso tempo, la nostra percezione è, in un certo senso, un'allucinazione, il tentativo del nostro cervello di allinearsi alla realtà. Tutto ciò che le IA producono è una forma di allucinazione statistica: generano sequenze di parole basate sulla probabilità di token. Non è conoscenza, ma modellazione probabilistica.
CC: Ma vede anche gli esseri umani come produttori di simboli statistici, dato che siamo plasmati dal linguaggio? AS: Nella ricerca sull'intelligenza artificiale c'è la tendenza a trattare il cervello come un sistema che potrebbe essere replicato su un altro supporto, come i chip di silicio. Ma non sono d'accordo. Credo che la biologia sia importante. Sostituire i neuroni con i microchip non è neutrale. L'esperienza umana, il nostro rapporto con il mondo, è corporea. I modelli statistici sono proprio questo: modelli. Non sono la realtà e non esistono senza di noi.
"L'esperienza umana avviene attraverso il nostro corpo. I modelli statistici sono solo questo: modelli. Non sono la realtà."
CC: È un argomento molto dibattuto nella comunità scientifica, vero? AS: Sì. Alcuni credono che l'intelligenza artificiale possa replicare tutto ciò che fa un essere umano. Altri, come me, credono che ci siano limiti a ciò che la statistica e l'apprendimento automatico possono ottenere in termini di esperienza umana.
CC: In termini di arte, pensi che l'IA possa creare qualcosa di più avanzato rispetto ai nostri tempi? AS: No. L'arte comunica esperienze umane vissute fisicamente. L'arte coinvolge cultura, società e simbolismo, elementi che non possono essere riprodotti solo con la modellazione statistica. CC: Pensi che l'IA possa sviluppare affetto, ossessione o cura per qualcuno? AS: Alcuni sostengono che se un'IA sembra provare emozioni, questo è sufficiente. Ma credo che senza un corpo e un'esperienza, non ci sia vera esperienza. L'IA può simulare l'affetto, ma non provare emozioni. Ci sono aziende che assumono "responsabili del benessere dell'IA", come se i modelli potessero soffrire: è ridicolo. Le persone sono così affascinate che dimenticano che i modelli sono solo software, che non hanno coscienza e non soffrono.
CC: Di recente, un rappresentante di Meta in Brasile ha sostenuto qualcosa di quasi foucaultiano: che, fin dalla nascita, siamo immersi in una situazione simbolica e cognitiva e che non sappiamo esattamente da dove provengano i codici e i simboli che ci aiutano a organizzare i nostri pensieri. È un punto di vista interessante, ma continuo a credere che noi umani rispondiamo all'ambiente in modo adattivo e incarnato. Quindi, mi chiedo: è questo che ci distingue dalle macchine? AS: Questa è la domanda centrale. C'è una visione dominante nell'industria tecnologica e nella ricerca sull'intelligenza artificiale chiamata "funzionalismo computazionale". Sostiene che le funzioni cerebrali, come la vista, il calcolo, il linguaggio, possono essere implementate su qualsiasi substrato, biologico o meno. Secondo questa linea di pensiero, non importa se il calcolo avviene nei neuroni o nei chip di silicio. Non credo che nessun materiale possa dare origine all'esperienza. Modelli e statistiche sono ottimi strumenti, ma non sono reali e non esistono al di fuori di noi.
L'era del capitalismo cognitivo. A San Francisco, accanto alle grandi aziende tecnologiche, c'è la povertà – Immagine: iStockphoto
CC: Al SXSW di quest'anno, la futurista Amy Webb ha presentato esperimenti di intelligenza artificiale costruiti con materiale biologico, come neuroni coltivati in laboratorio. Ha mai visto questo tipo di ricerca? Cosa pensa di questi tentativi di combinare l'intelligenza artificiale con la materia organica? AS: Non ho ancora visto questo lavoro, ma l'idea di un'intelligenza ibrida – in parte biologica, in parte artificiale – esiste da decenni. Abbiamo già impianti cerebrali per il Parkinson, ad esempio. Forse un giorno li useremo per migliorare la memoria e le capacità cognitive. Ma sappiamo ancora molto poco su come intervenire in sicurezza.
CC: Pensi che l'intelligenza artificiale sia più un prodotto capitalista o qualcosa che trasformerà davvero l'umanità, come il personal computer? AS: Le grandi aziende puntano al profitto e alla competitività. L'intelligenza artificiale viene utilizzata per arricchire chi è già ricco. C'è chi crede che l'intelligenza artificiale curerà le malattie, risolverà le crisi climatiche, eliminerà il lavoro – una sorta di utopia – e ci sono i catastrofisti, che pensano che ci distruggerà. Sono scettico al riguardo. L'intelligenza artificiale è potente, ma non è magica.
CC: In molte narrazioni sull'IA, sembra esserci una spinta verso un progresso illimitato, come se fosse possibile superare i limiti umani, persino la morte. Pensi che questa ricerca dell'immortalità e del controllo totale faccia parte dell'immaginario tecnologico che anima la Silicon Valley? AS: L'IA è programmata per cercare ricompense, proprio come noi. Nella Silicon Valley, c'è un'ossessione per l'eternità; per la colonizzazione di Marte; per diventare una macchina immortale. Vogliono salvare l'umanità solo per sostituirla con l'IA.
"Nella Silicon Valley, molti non vogliono affrontare la disuguaglianza, vogliono solo evitarla. E continuano a pensare di essere progressisti."
CC: Ho studiato il comportamento dei manager di grandi aziende che non appartengono direttamente alla classe capitalista, ma che non si considerano lavoratori. Ritieni che questo strato di leader sia sempre più a rischio di perdere opportunità di lavoro o di diventare precario? AS: Assolutamente. Partecipo a un collettivo qui nella Silicon Valley chiamato Collective Action in Tech. Molti lavoratori del settore tecnologico non si considerano lavoratori e sono ostili all'idea di diritti del lavoro. Abbiamo, in effetti, molti privilegi, ma corriamo costantemente il rischio di cadere in una situazione precaria e di diventare driver di app.
CC: È un distanziamento salariale e simbolico dalla classe operaia. La professoressa Elizabeth Currid-Halkett lo definisce la somma di piccole cose virtuose: yoga, kombucha, auto elettriche... Uno stile di vita progressista che esclude i poveri. Ti suona familiare? AS: Assolutamente. A San Francisco, c'è un serio problema di senzatetto. Nella Silicon Valley, molti non vogliono affrontare la disuguaglianza, solo evitarla. E continuano a pensare di essere progressisti.
*Giornalista, docente e ricercatrice in Comunicazione e Cultura Digitale.
Pubblicato nel numero 1373 di CartaCapital , il 6 agosto 2025.
Questo testo appare nell'edizione cartacea di CartaCapital con il titolo "I limiti dei robot"
CartaCapital