Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Russia

Down Icon

Gli scienziati hanno svelato il meccanismo dell'autoisolamento nello spazio digitale

Gli scienziati hanno svelato il meccanismo dell'autoisolamento nello spazio digitale

Uno studio su larga scala condotto su 10.000 persone ha dimostrato che anche le query di ricerca neutrali vengono inconsciamente distorte dalle nostre convinzioni e che gli algoritmi tradizionali non fanno altro che amplificare questo effetto.

In un'epoca in cui le tecnologie digitali permeano ogni aspetto della vita umana, il fenomeno delle bolle informative è diventato uno dei problemi più urgenti della società moderna. Un nuovo studio fa luce sullo straordinario meccanismo attraverso il quale le persone stesse, spesso senza rendersene conto, creano camere di risonanza informative attorno a sé. Scienziati americani hanno condotto 21 esperimenti che hanno coinvolto quasi 10.000 persone per comprendere come i pregiudizi delle persone influenzino le query di ricerca e come gli algoritmi dei motori di ricerca e gli assistenti AI amplifichino questo effetto, creando un circolo vizioso di autoisolamento nello spazio informativo.

Lo studio è iniziato con uno degli autori, Eugene Leung, che ha notato come la formulazione di una query di ricerca cambiasse radicalmente le informazioni ricevute. "Cercare 'effetti collaterali dei farmaci per il raffreddore' mi ha dato risultati molto diversi e molto più inquietanti rispetto a cercare 'miglior farmaco per il raffreddore'", afferma Leung. "Questa osservazione è diventata il punto di partenza per uno studio sistematico su come le nostre convinzioni plasmano la realtà digitale in cui ci troviamo".

In una serie di esperimenti, ai partecipanti è stato chiesto di esprimere le proprie opinioni su argomenti che spaziavano dagli effetti della caffeina sulla salute alle prospettive dell'energia nucleare, e poi di formulare le proprie query di ricerca per saperne di più. I risultati sono stati sorprendenti: le persone convinte che la caffeina facesse bene hanno cercato "benefici della caffeina", mentre gli scettici hanno digitato "pericoli della caffeina". Questo schema si è rivelato valido per ogni argomento studiato, inclusi i prezzi della benzina, i tassi di criminalità e i cambiamenti nelle capacità cognitive legati all'età.

Particolarmente rivelatore è stato l'esperimento sull'energia nucleare, in cui i partecipanti sono stati divisi casualmente in due gruppi: a uno è stato chiesto di cercare "l'energia nucleare è positiva", all'altro è stato chiesto di cercare "l'energia nucleare è negativa". Dopo aver visualizzato i risultati della ricerca, le convinzioni dei partecipanti sono cambiate in direzioni opposte, dimostrando la potente influenza della formulazione della query sulla formazione dell'opinione. Allo stesso tempo, quando ai partecipanti sono stati mostrati risultati identici con la scusa di corrispondere alle loro query, le loro convinzioni non sono cambiate, il che dimostra il ruolo chiave del contenuto dei risultati di ricerca e non la scelta di determinate parole chiave.

"Tutti noi creiamo le nostre mini camere dell'eco senza nemmeno rendercene conto", afferma Leung. "Le nostre convinzioni esistenti influenzano inconsciamente le parole che digitiamo in una barra di ricerca, e gli algoritmi basati sulla pertinenza ci mostrano risultati che confermano tali convinzioni".

I risultati più promettenti sono emersi modificando gli algoritmi stessi. In esperimenti condotti con un motore di ricerca personalizzato che restituiva risultati bilanciati (ad esempio, informazioni sia sui benefici che sui rischi della caffeina anche cercando "benefici della caffeina"), i partecipanti hanno mostrato opinioni più moderate, pur continuando a valutare le informazioni ricevute come ugualmente pertinenti e utili.

"Nel mondo della tecnologia è diffusa la percezione che gli utenti desiderino informazioni estremamente pertinenti e mirate", afferma Leung. "Ma la nostra ricerca dimostra che non è così. Le persone attribuiscono la stessa importanza ai risultati mirati e a quelli più equilibrati, il che apre opportunità per progettare algoritmi che ci aiutino a costruire un quadro più oggettivo del mondo".

Lo studio ha inoltre evidenziato un importante paradosso: la maggior parte dei partecipanti non era consapevole che le proprie query di ricerca fossero parziali e negava intenzionalmente di confermare le proprie convinzioni.

Gli autori sottolineano che l'effetto non si verifica in tutte le situazioni: per argomenti con elevata visibilità pubblica, in cui la maggioranza utilizza le stesse query neutre, o nei casi in cui le informazioni sono già prefiltrate dalle piattaforme, la differenza nei risultati potrebbe essere meno pronunciata.

"Il nostro obiettivo finale è utilizzare questa conoscenza per creare un ecosistema informativo più sano", afferma Leung. "Vediamo potenziale nello sviluppo di nuovi standard di ricerca e intelligenza artificiale che tengano conto della psicologia umana in modo predefinito, offrendo una prospettiva più ampia senza sacrificare la pertinenza".

mk.ru

mk.ru

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow