Un giorno ChatGpt potrebbe ricordare tutta la nostra esistenza

Sam Altman immagina un’intelligenza artificiale capace di documentare e ricordare l’intera esistenza di una persona. Un’idea che, per quanto possa sembrare inquietante, ha una sua logica. O meglio: ha perfettamente senso che sia proprio il CEO di OpenAI a proporla.
Intervenendo qualche giorno fa a un evento organizzato da Sequoia Capital, Altman ha spiegato alla platea la sua visione di IA “personalizzata”.
Tutta la vita in un’IAL’ideale, ha detto Altman, è un “modello di ragionamento molto piccolo, con un trilione di token di contesto, dentro cui metti tutta la tua vita”.
“Questo modello – ha spiegato il leader di OpenAI - è in grado di ragionare su tutto il tuo contesto in modo efficiente. Ogni conversazione che hai avuto nella tua vita, ogni libro che hai letto, ogni email che hai ricevuto, tutto ciò che hai guardato è lì dentro, connesso anche a tutti i tuoi dati provenienti da altre fonti. E la tua vita continua ad aggiungersi a quel contesto”.
“Le società in fondo fanno la stessa cosa con i loro dati aziendali”, ha aggiunto.
Con queste parole Altman ha di fatto descritto un'intelligenza artificiale essenziale, alimentata da un flusso di informazioni enorme, che diventa la lente attraverso cui una persona guarda il mondo o prende decisioni.
I ricordi affidati a un chatbotLa memoria di un chatbot è l’elemento più affascinante, e insieme controverso, di un’intelligenza artificiale.
Il fatto che un’IA sia in grado di ricordare ogni singola conversazione avuta con l’utente, ed estrarre da queste informazioni utili per offrire risposte sempre più personalizzate ed efficaci, rappresenta un’evoluzione tanto naturale quanto inevitabile di questa tecnologia.
Per diventare un assistente davvero completo, capace di prenotare un viaggio ma anche di offrire consigli personali, l’IA deve conoscerci. A fondo.
I rischi legati alla privacyI dati che condividiamo con l’IA sono davvero al sicuro? Come vengono trattati? Dove vengono archiviati? Contribuiscono all’addestramento di modelli futuri? E soprattutto: esiste il rischio che, un giorno, possano essere trafugati o utilizzati in modo improprio?
Le risposte a queste domande esistono, ma non sempre sono chiare né rassicuranti. Stiamo vivendo un momento di transizione, in cui i confini tra comodità, sicurezza e controllo dei dati sono ancora sfumati.
In alcune aree del mondo si stanno muovendo i primi passi verso una regolamentazione più solida — come nel caso dell’AI Act europeo — ma, al momento, la responsabilità della gestione dei dati ricade in larga parte sugli utenti e sulle strategie delle aziende che operano nel settore dell’intelligenza artificiale.
La Repubblica