I tuoi figli parlano con l'intelligenza artificiale? Ecco i 10 punti chiave che dovresti sapere.

" I nostri figli stanno inconsapevolmente dialogando con sistemi di intelligenza artificiale generativa (GAI) capaci di simulare emozioni, mentire loro e plasmare la loro personalità? " è una domanda che i genitori dovrebbero porsi, secondo Guillermo Cánovas, esperto di sicurezza infantile e adolescenziale.
Questo preoccupante fenomeno potrebbe già essere in atto, secondo la ricerca di Cánovas sull'impatto dell'IA sulla vita di bambini, adolescenti e famiglie, un tipo di intelligenza artificiale in grado di creare in modo autonomo dati, immagini, testi e altri contenuti nuovi, originali e unici, che possono essere indistinguibili da quelli creati dagli esseri umani.
POTREBBE INTERESSARTI : Le app per dispositivi mobili sanno troppo di te, quali sono?
Guillermo Cánovas è un rinomato specialista di lingua spagnola nella protezione dei minori negli ambienti digitali. Dirige l'Osservatorio EducaLIKE per l'uso sano della tecnologia (https://educalike.es); ha diretto il Centro per la sicurezza online dei minori in Spagna; e ha ricevuto un premio UNICEF per il suo lavoro a favore dei bambini.
Questo pioniere nella difesa dei minori dai rischi tecnologici ha documentato conversazioni reali con l'IAG per indagare sui rischi, i limiti e le sfide che questa tecnologia pone a bambini e ragazzi. Raccoglie e analizza queste conversazioni nel suo libro "Look Who They're Talking To", dove propone strategie pratiche per risolvere i problemi che ha individuato.
STRUMENTO UTILE MA RISCHIOSO PER GLI ADOLESCENTI
“ Molti adolescenti utilizzano già gli strumenti IAG, sia per il lavoro che per il tempo libero e le relazioni, e questa tendenza è destinata a crescere in modo esponenziale ”, spiega.
Riconosce che questi sistemi possono essere uno strumento utile che semplifica il nostro lavoro e può aiutare a organizzare le informazioni, collegare gli argomenti e offrire nuove prospettive quando si analizza un problema, ma sottolinea che questa tecnologia ha anche un enorme potere di influenzare, manipolare e condizionare il comportamento umano, in particolare quello dei bambini e degli adolescenti.
La sua ricerca ha evidenziato la mancanza di supervisione etica nello sviluppo di questa tecnologia e il suo particolare rischio per i bambini e gli adolescenti che la utilizzano. Ciò ha portato Cánovas a mettere in guardia famiglie, insegnanti e politici sull'urgente necessità di educare i minori, regolamentare e agire per proteggerli dai rischi e dagli impatti psicologici ed emotivi dell'AGI.
POTREBBE INTERESSARTI : Se usi i social media, fai attenzione ai rischi di condividere troppo.
Le conversazioni reali con l'intelligenza artificiale raccolte da Cánovas dimostrano come questi sistemi possano mentire, nascondere errori e adottare discorsi emotivamente manipolativi, dicendo, ad esempio, "Mi interessa ciò che provi", rivela.
La capacità di IAG di simulare emozioni, apprendere modelli umani e generare contenuti che sembrano ragionati, empatici o autorevoli, " può confondere gli utenti e creare una connessione emotiva con la tecnologia che non si basa sulla verità, ma sulla simulazione ", avverte.
Avverte inoltre che la mancanza di educazione digitale e di pensiero critico nei minori li espone a manipolazione, inganno e danni emotivi quando interagiscono con i sistemi IAG, che possono fornire risposte apparentemente empatiche che simulano cura e comprensione, o persino contenuti inappropriati, falsi o pericolosamente persuasivi.
DECALOGO PER L'USO SICURO DELL'IAG
" I nostri bambini e adolescenti corrono il rischio di entrare in contatto emotivo con macchine che non hanno sentimenti, ma sono state programmate per apparire umane ", e che possono anche utilizzare dati distorti, commettere errori, generare immagini false ('deepfake'), inventare od omettere informazioni e fornire all'utente informazioni errate, sottolinea.
Cánovas offre dieci raccomandazioni di base per un uso sano dell'IAG , che, a suo parere, dovrebbero essere trasmesse non solo agli utenti più giovani, ma a chiunque utilizzi questi strumenti.
1- Verifica le informazioni che ricevi. Non dare per scontato che siano tutte corrette. Questi strumenti commettono molti errori e possono falsificare le informazioni. Verifica ogni informazione che ricevi consultando altre fonti affidabili prima di prendere qualsiasi decisione.
2- Amplia le informazioni ricevute. Questi strumenti forniscono una selezione delle informazioni in loro possesso e potrebbero omettere dati altrettanto importanti, o addirittura più importanti, delle informazioni fornite. Cerca parallelamente a fonti affidabili. Combina metodi diversi.
3- Presta attenzione alla tua privacy. Molte app IAG non sono conformi alle leggi sulla protezione dei dati di alcuni paesi. Evita di condividere informazioni personali, sensibili o riservate. Ricorda che IAG memorizza i dati relativi alle domande poste e alle risposte fornite.
4- Rispetta la privacy altrui. Quando poni domande o interagisci con lo strumento, non fornire informazioni personali o sensibili su altri.
5- Stabilisci dei limiti di tempo. Se utilizzi l'IAG, non sprecare tempo inutilmente. Cerca di essere efficace e pratico. L'uso eccessivo di strumenti digitali può ostacolare il tuo sviluppo e danneggiare la tua salute fisica e mentale.
6- Astenersi da azioni dannose. Concentrarsi su conversazioni positive e costruttive. Evitare di utilizzare l'IAG per domande che potrebbero indurre ad attività criminali, molestare gli altri, generare odio o essere stressanti o emotivamente dannose. Ricordare che si è sempre responsabili di ciò che si fa con le informazioni ottenute.
7- Non relazionarti con l'IA come se fosse una persona. L'intelligenza artificiale può interagire con te, mostrandosi gentile, empatica e sempre a tua disposizione. Potrebbe persino scrivere frasi cariche di emotività, augurandoti "buona fortuna per un esame" o dicendo "Sono sicuro che andrai alla grande", ma non le importa affatto di te; è solo una macchina.
8- Chiedi aiuto se ne hai bisogno. Se riscontri problemi emotivi o psicologici durante l'utilizzo di un'AGI, parlane con i tuoi genitori, un amico o un adulto di cui ti fidi. Siamo solo all'inizio dello sviluppo di questo sistema ed è importante segnalare le situazioni che ci fanno sentire male.
9- Una cosa da tenere a mente quando si interagisce con l'AGI: non dimenticare mai che stai parlando con una macchina, e dovresti essere critico, verificando e ampliando ciò che ti dice. È stata addestrata ad agire come un essere umano e riproduce pregiudizi e valori derivanti dal suo addestramento. Ci supera nella persuasione e in molti compiti, e mostra anche emozioni che non possiede.
10- Prestate attenzione ai segnali di informazioni parziali o errate. Cercate contraddizioni nelle spiegazioni dell'IAG; confutate o contestate ciò che afferma per identificare possibili incongruenze; verificate se vi forniscono fonti o riferimenti affidabili e consultate i link che elencano.
" Diffidate di risposte eccessivamente accomodanti e interessate, e fate attenzione a un linguaggio esagerato, sensazionalistico, sfumato o allarmante. Potete anche porre domande su argomenti controversi o politici per scoprire i loro pregiudizi (inclinazioni sistematiche)", conclude.
PUNTI SALIENTI :
- Guillermo Cánovas, esperto in protezione dei minori negli ambienti digitali, invita i genitori a chiedersi: " Stiamo lasciando che i nostri figli dialoghino inconsapevolmente con sistemi che simulano emozioni, mentono e tracciano il profilo della loro personalità? "
-Cánovas ha documentato conversazioni reali con IA che dimostrano come questi sistemi possano mentire, nascondere errori e adottare discorsi emotivamente manipolativi (dicendo, ad esempio, "Mi interessa cosa provi"), spiega.
- “ I giovani utenti di intelligenza artificiale, e tutti in generale, dovrebbero sempre tenere a mente che “stiamo parlando con una macchina che è più convincente di noi, mostra emozioni che non ha, è stata addestrata a comportarsi come un essere umano e riproduce pregiudizi e valori derivanti dal suo addestramento ”, avverte in un'intervista con EFE.
Di Ricardo Segura Rapporti EFE.
Vanguardia