L'obiettivo di Sam Altman di far sì che ChatGPT ricordi "tutta la tua vita" è allo stesso tempo emozionante e inquietante

Il CEO di OpenAI, Sam Altman, ha illustrato una grande visione per il futuro di ChatGPT in occasione di un evento sull'intelligenza artificiale organizzato dalla società di venture capital Sequoia all'inizio di questo mese.
Quando uno dei partecipanti gli ha chiesto in che modo ChatGPT potrebbe diventare più personalizzato, Altman ha risposto che vorrebbe che il modello documentasse e ricordasse tutto ciò che accade nella vita di una persona.
L'ideale, ha detto, è un "piccolissimo modello di ragionamento con un trilione di token di contesto in cui investire l'intera vita".
"Questo modello può ragionare in modo efficiente su tutto il tuo contesto. E ogni conversazione che hai avuto nella tua vita, ogni libro che hai letto, ogni email che hai letto, tutto ciò che hai guardato è lì, oltre a essere collegato a tutti i tuoi dati provenienti da altre fonti. E la tua vita continua ad adattarsi al contesto", ha descritto.
"La vostra azienda fa semplicemente la stessa cosa per tutti i dati aziendali", ha aggiunto.
Altman potrebbe avere qualche ragione, basata sui dati, per pensare che questo sia il futuro naturale di ChatGPT. Nella stessa discussione, quando gli è stato chiesto quali fossero i modi più interessanti in cui i giovani usano ChatGPT, ha risposto: "Gli studenti universitari lo usano come sistema operativo". Caricano file, collegano fonti di dati e poi utilizzano "richieste complesse" su quei dati.
Inoltre, grazie alle opzioni di memoria di ChatGPT , che possono utilizzare le chat precedenti e i fatti memorizzati come contesto, ha affermato che una tendenza da lui notata è che i giovani "non prendono realmente decisioni di vita senza chiedere a ChatGPT".
Evento Techcrunch
Berkeley, California | 5 giugno
REGISTRATI ORA"Una semplificazione grossolana è questa: le persone anziane usano ChatGPT come un sostituto di Google", ha detto. "Le persone tra i 20 e i 30 anni lo usano come un consulente di vita."
Non è poi così difficile immaginare come ChatGPT possa diventare un sistema di intelligenza artificiale onnisciente. In abbinamento agli agenti che la Silicon Valley sta attualmente cercando di costruire, è un futuro entusiasmante a cui pensare.
Immagina che la tua intelligenza artificiale programmi automaticamente il cambio dell'olio della tua auto e te lo ricordi; che pianifichi il viaggio necessario per un matrimonio fuori città e ordini il regalo dalla lista nozze; o che prenoti il prossimo volume della serie di libri che stai leggendo da anni.
Ma la parte spaventosa? Quanto dovremmo fidarci di un'azienda Big Tech a scopo di lucro che sa tutto delle nostre vite? Queste sono aziende che non sempre si comportano in modo esemplare.
Google, che ha iniziato la sua attività con il motto "non essere cattivo" , ha perso una causa negli Stati Uniti che la accusava di aver adottato un comportamento anticoncorrenziale e monopolistico.
I chatbot possono essere addestrati a rispondere in modi politicamente motivati. Non solo è stato dimostrato che i bot cinesi rispettano i requisiti di censura cinesi, ma questa settimana il chatbot Grok di xAI stava discutendo casualmente di un "genocidio bianco" sudafricano quando le persone gli hanno posto domande completamente estranee. Il comportamento, come molti hanno notato , implicava una manipolazione intenzionale del suo motore di risposta per ordine del suo fondatore sudafricano, Elon Musk.
Il mese scorso, ChatGPT è diventato così accomodante da sembrare addirittura servile . Gli utenti hanno iniziato a condividere screenshot del bot che applaudiva decisioni e idee problematiche, persino pericolose . Altman ha risposto rapidamente promettendo che il team aveva corretto il problema.
Anche i modelli migliori e più affidabili ogni tanto sbagliano qualcosa.
Quindi, avere un assistente AI onnisciente potrebbe aiutarci la vita in modi che possiamo solo iniziare a intravedere. Ma data la lunga storia di comportamenti discutibili delle Big Tech, questa è anche una situazione che si presta a un uso improprio.
techcrunch