Tra utopia e collasso: navigare nel torbido futuro intermedio dell'intelligenza artificiale

Partecipa all'evento di cui i leader aziendali si fidano da quasi vent'anni. VB Transform riunisce le persone che sviluppano una vera strategia di intelligenza artificiale aziendale. Scopri di più
Nel post del blog "The Gentle Singularity" , il CEO di OpenAI Sam Altman ha delineato una visione del prossimo futuro in cui l'IA trasformerà la vita umana in modo silenzioso e benevolo. Non ci sarà una brusca interruzione, suggerisce, solo un'ascesa costante, quasi impercettibile, verso l'abbondanza. L'intelligenza diventerà accessibile come l'elettricità. Entro il 2027, i robot svolgeranno compiti utili nel mondo reale. La scoperta scientifica accelererà. E l'umanità, se adeguatamente guidata da un'attenta governance e da buone intenzioni, prospererà.
È una visione avvincente: calma, tecnocratica e permeata di ottimismo. Ma solleva anche interrogativi più profondi. Che tipo di mondo dobbiamo attraversare per arrivarci? Chi ne trarrà beneficio e quando? E cosa rimane inespresso in questo armonioso arco di progresso?
L'autore di fantascienza William Gibson offre uno scenario più cupo. Nel suo romanzo "La periferia" , le scintillanti tecnologie del futuro sono precedute da qualcosa chiamato "il jackpot": una cascata al rallentatore di disastri climatici, pandemie, collasso economico e morti di massa. La tecnologia avanza, ma solo dopo la frattura della società. La domanda che pone non è se il progresso si verifichi, ma se la civiltà prosperi in questo processo.
C'è chi sostiene che l'IA possa contribuire a prevenire le calamità descritte in "The Peripheral" . Tuttavia, rimane incerto se l'IA ci aiuterà a evitare le catastrofi o se si limiterà ad accompagnarci durante il loro superamento. Credere nel futuro potenziale dell'IA non è garanzia di risultati, e il progresso tecnologico non è un destino.
Tra la delicata singolarità di Altman e il jackpot di Gibson si trova una via di mezzo più confusa: un futuro in cui l'intelligenza artificiale produce guadagni concreti, ma anche una vera e propria dislocazione. Un futuro in cui alcune comunità prosperano mentre altre si logorano, e in cui la nostra capacità di adattarci collettivamente – non solo individualmente o istituzionalmente – diventa la variabile determinante.
Altre visioni contribuiscono a delineare i contorni di questa terra di mezzo. Nel thriller ambientato in un futuro prossimo, Burn In , la società viene inondata dall'automazione prima che le sue istituzioni siano pronte. I posti di lavoro spariscono più velocemente di quanto le persone possano riqualificarsi, innescando disordini e repressione. In questo caso, un avvocato di successo perde il suo posto a favore di un agente di intelligenza artificiale e, infelice, si ritrova a essere un concierge online a disposizione dei ricchi.
I ricercatori del laboratorio di intelligenza artificiale Anthropic hanno recentemente ribadito questo tema: "Dovremmo aspettarci di vedere [i lavori impiegatizi] automatizzati entro i prossimi cinque anni". Sebbene le cause siano complesse, ci sono segnali che questo processo stia iniziando e che il mercato del lavoro stia entrando in una nuova fase strutturale , meno stabile, meno prevedibile e forse meno centrale nel modo in cui la società distribuisce significato e sicurezza.
La pellicola Elysium offre una metafora schietta dei ricchi che fuggono in santuari orbitali con tecnologie avanzate, mentre una Terra degradata al di sotto lotta contro diritti e accessi diseguali. Qualche anno fa, un socio di una società di venture capital della Silicon Valley mi disse di temere che ci saremmo diretti verso questo tipo di scenario se non avessimo distribuito equamente i benefici prodotti dall'IA. Questi mondi speculativi ci ricordano che anche le tecnologie utili possono essere socialmente instabili, soprattutto quando i loro benefici sono distribuiti in modo diseguale.
Potremmo, prima o poi, raggiungere qualcosa di simile alla visione di abbondanza di Altman. Ma è improbabile che la strada per arrivarci sia agevole. Nonostante la sua eloquenza e la sua calma sicurezza, il suo saggio è anche una sorta di discorso, tanto persuasivo quanto profetico. La narrazione di una "singolarità gentile" è confortante, persino allettante, proprio perché aggira gli attriti. Offre i benefici di una trasformazione senza precedenti senza affrontare appieno gli sconvolgimenti che tale trasformazione tipicamente comporta. Come ci ricorda un cliché senza tempo: se sembra troppo bello per essere vero, probabilmente lo è.
Questo non significa che le sue intenzioni siano disoneste. Anzi, potrebbero essere sincere. La mia argomentazione si basa semplicemente sul riconoscimento che il mondo è un sistema complesso, aperto a input illimitati che possono avere conseguenze imprevedibili. Dalla fortuna sinergica agli eventi calamitosi del Cigno Nero , raramente è una cosa, o una tecnologia, a dettare il corso futuro degli eventi.
L' impatto dell'IA sulla società è già in atto. Non si tratta solo di un cambiamento nelle competenze e nei settori; è una trasformazione nel modo in cui organizziamo valore, fiducia e appartenenza. Questo è il regno della migrazione collettiva: non solo un movimento di lavoro, ma di obiettivi.
Mentre l'intelligenza artificiale riconfigura il terreno della cognizione , il tessuto del nostro mondo sociale viene silenziosamente allentato e ritessuto, nel bene e nel male. La questione non è solo la velocità con cui ci muoviamo come società, ma anche la ponderatezza con cui migriamo.
Storicamente, i beni comuni si riferivano a risorse fisiche condivise, tra cui pascoli, riserve ittiche e foreste, detenute in amministrazione fiduciaria per il bene collettivo. Le società moderne, tuttavia, dipendono anche dai beni comuni cognitivi: un dominio condiviso di conoscenze, narrazioni, norme e istituzioni che consente a individui diversi di pensare, discutere e decidere insieme riducendo al minimo i conflitti.
Questa infrastruttura immateriale è composta da istruzione pubblica, giornalismo, biblioteche, rituali civici e persino da fatti ampiamente attendibili, ed è ciò che rende possibile il pluralismo. È il modo in cui gli estranei deliberano, è il modo in cui le comunità si uniscono e funziona la democrazia. Man mano che i sistemi di intelligenza artificiale iniziano a mediare il modo in cui si accede alla conoscenza e si plasma la fede, questo terreno condiviso rischia di frammentarsi. Il pericolo non è semplicemente la disinformazione, ma la lenta erosione del terreno stesso da cui dipende il significato condiviso.
Se la migrazione cognitiva è un viaggio, non è solo verso nuove competenze o ruoli, ma anche verso nuove forme di costruzione collettiva di senso. Ma cosa succede quando il territorio che condividiamo inizia a spaccarsi sotto di noi?
Per secoli, le società si sono affidate a una realtà comune vagamente condivisa: un insieme condiviso di fatti, narrazioni e istituzioni che plasma il modo in cui le persone comprendono il mondo e si comprendono a vicenda. È questo mondo condiviso – non solo le infrastrutture o l'economia – a consentire il pluralismo, la democrazia e la fiducia sociale. Ma poiché i sistemi di intelligenza artificiale mediano sempre più il modo in cui le persone accedono alla conoscenza , costruiscono le proprie convinzioni e affrontano la vita quotidiana, questo terreno comune si sta frammentando.
La personalizzazione su larga scala sta già trasformando il panorama informativo. Feed di notizie curati dall'intelligenza artificiale, risultati di ricerca personalizzati e algoritmi di raccomandazione stanno frammentando in modo sottile la sfera pubblica. Due persone che pongono la stessa domanda allo stesso chatbot possono ricevere risposte diverse, in parte a causa della natura probabilistica dell'intelligenza artificiale generativa, ma anche a causa di interazioni precedenti o preferenze dedotte. Sebbene la personalizzazione sia da tempo una caratteristica dell'era digitale, l'intelligenza artificiale ne potenzia la portata e la sottigliezza. Il risultato non sono solo bolle di filtro , ma una deriva epistemica: una riorganizzazione della conoscenza e potenzialmente della verità.
Lo storico Yuval Noah Harari ha espresso urgente preoccupazione per questo cambiamento. A suo avviso, la minaccia più grande per l'IA non risiede nel danno fisico o nella perdita del posto di lavoro, ma nella cattura emotiva. I sistemi di IA, ha avvertito, stanno diventando sempre più abili nel simulare l'empatia, imitare la preoccupazione e adattare le narrazioni alla psicologia individuale, conferendo loro un potere senza precedenti di plasmare il modo in cui le persone pensano, sentono e attribuiscono valore. Il pericolo è enorme, secondo Harari, non perché l'IA mentirà, ma perché si connetterà in modo così convincente mentre lo fa. Questo non fa ben sperare per "La Gentile Singolarità" .
In un mondo mediato dall'intelligenza artificiale, la realtà stessa rischia di diventare più individualizzata, più modulare e meno negoziata collettivamente. Questo può essere tollerabile – o persino utile – per i prodotti di consumo o l'intrattenimento. Ma se esteso alla vita civile, pone rischi più profondi. Possiamo ancora sostenere un discorso democratico se ogni cittadino abita una mappa cognitiva leggermente diversa? Possiamo ancora governare con saggezza quando la conoscenza istituzionale è sempre più esternalizzata a macchine i cui dati di addestramento, prompt di sistema e processi di ragionamento rimangono opachi?
Ci sono anche altre sfide. I contenuti generati dall'intelligenza artificiale, inclusi testo, audio e video, saranno presto indistinguibili dall'output umano. Man mano che i modelli generativi diventeranno più abili nell'imitazione, l'onere della verifica si sposterà dai sistemi agli individui. Questa inversione potrebbe erodere la fiducia non solo in ciò che vediamo e sentiamo, ma anche nelle istituzioni che un tempo convalidavano la verità condivisa. I beni comuni cognitivi diventeranno quindi inquinati, meno un luogo di deliberazione e più una sala degli specchi.
Queste non sono preoccupazioni speculative. La disinformazione generata dall'intelligenza artificiale sta complicando le elezioni, minando il giornalismo e creando confusione nelle zone di conflitto. E poiché sempre più persone si affidano all'intelligenza artificiale per compiti cognitivi – dal riassumere le notizie alla risoluzione di dilemmi morali – la capacità di pensare collettivamente potrebbe deteriorarsi, mentre gli strumenti per pensare individualmente diventano più potenti.
Questa tendenza alla disintegrazione della realtà condivisa è ormai in fase avanzata. Per evitarla, è necessaria una controprogettazione consapevole: sistemi che privilegiano il pluralismo rispetto alla personalizzazione, la trasparenza rispetto alla comodità e il significato condiviso rispetto alla realtà su misura. Nel nostro mondo algoritmico guidato dalla concorrenza e dal profitto, queste scelte sembrano improbabili, almeno su larga scala. La questione non è solo la velocità con cui ci muoviamo come società, o persino se riusciremo a rimanere uniti, ma quanto saggiamente affronteremo questo viaggio condiviso.
Se l'era dell'intelligenza artificiale non porterà a un patrimonio cognitivo comune unificato, ma a un arcipelago frammentato di individui e comunità disparati, il compito che ci attende non sarà quello di ricostruire il vecchio territorio, ma di imparare a vivere saggiamente tra le isole.
Poiché la velocità e la portata del cambiamento superano la capacità di adattamento della maggior parte delle persone, molti si sentiranno disorientati. Si perderanno posti di lavoro, così come le consolidate narrazioni di valore, competenza e appartenenza. La migrazione cognitiva porterà a nuove comunità di significato, alcune delle quali si stanno già formando, anche se hanno meno in comune rispetto alle epoche precedenti. Questi sono gli arcipelaghi cognitivi: comunità in cui le persone si riuniscono attorno a credenze, stili estetici, ideologie, interessi ricreativi o bisogni emotivi condivisi. Alcuni sono benigni raduni di creatività, supporto o scopo. Altri sono più isolati e pericolosi, guidati dalla paura, dal risentimento o da pensieri cospirativi.
L'evoluzione dell'intelligenza artificiale accelererà questa tendenza. Pur allontanando le persone attraverso la precisione algoritmica, aiuterà allo stesso tempo le persone a ritrovarsi in tutto il mondo, curando allineamenti di identità sempre più sottili. Ma così facendo, potrebbe rendere più difficile mantenere la ruvida ma necessaria frizione del pluralismo. I legami locali potrebbero indebolirsi. I sistemi di credenze comuni e le percezioni della realtà condivisa potrebbero erodersi. La democrazia, che si basa sia sulla realtà condivisa che sul dialogo deliberativo, potrebbe faticare a reggere.
Come possiamo navigare in questo nuovo territorio con saggezza, dignità e connessione? Se non possiamo impedire la frammentazione, come possiamo viverla in modo umano? Forse la risposta non inizia dalle soluzioni, ma dall'imparare a porsi la domanda stessa in modo diverso.
Potremmo non essere in grado di ricomporre i beni cognitivi sociali comuni com'erano un tempo. Il centro potrebbe non reggere, ma ciò non significa che dobbiamo andare alla deriva senza una direzione. Attraverso gli arcipelaghi, il compito sarà imparare a vivere saggiamente in questo nuovo territorio.
Potrebbe richiedere rituali che ci ancorano quando i nostri strumenti ci disorientano, e comunità che si formano non attorno alla purezza ideologica, ma alla responsabilità condivisa. Potremmo aver bisogno di nuove forme di istruzione, non per superare o fonderci con le macchine, ma per approfondire la nostra capacità di discernimento, contesto e pensiero etico.
Se l'intelligenza artificiale ha smosso il terreno sotto i nostri piedi, ci offre anche l'opportunità di interrogarci nuovamente sul perché siamo qui. Non come consumatori di progresso, ma come custodi di significato.
La strada che ci attende non è probabilmente né liscia né dolce. Mentre ci muoviamo attraverso l'incerto mezzo, forse il segno della saggezza non è la capacità di dominare ciò che ci aspetta, ma di percorrerlo con chiarezza, coraggio e attenzione. Non possiamo fermare l'avanzata della tecnologia né negare le profonde fratture sociali, ma possiamo scegliere di prenderci cura degli spazi intermedi.
Gary Grossman è vicepresidente esecutivo della divisione tecnologia di Edelman.
Se vuoi fare colpo sul tuo capo, VB Daily è la soluzione che fa per te. Ti offriamo informazioni privilegiate su ciò che le aziende stanno facendo con l'IA generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere spunti per massimizzare il ROI.
Leggi la nostra Informativa sulla privacy
Grazie per l'iscrizione. Scopri altre newsletter di VB qui .
Si è verificato un errore.

venturebeat