Home / Scienze / Navigare sui social ci rende tutti uguali (e diventiamo una tribù). Lo studio

Navigare sui social ci rende tutti uguali (e diventiamo una tribù). Lo studio

//?#

Si chiamano echo chamber (camere d’eco) e sono degli ambienti virtuali che si creano sulle piattaforme di condivisione online, una sorta di bolla all’interno della quale le nostre idee possono solo essere confermate. 
Le aziende che operano sul web conoscono il meccanismo: grazie agli algoritmi, ovvero una serie di istruzioni che un computer segue per risolvere un problema o eseguire un compito in modo automatico, imparano preferenze e interessi attraverso i nostri comportamenti digitali (clic, like, visualizzazioni). Il passo successivo è proporci contenuti e contatti con altri utenti simili a noi per farci rimanere il più possibile sulla loro piattaforma. L’essere umano poi ci mette del suo: tende a ritenere vere solo quelle informazioni che si avvicinano alle sue convinzioni (bias di conferma). Ecco spiegato perché sui social si formano tribù di utenti, in cui tutti sono d’accordo e nessuno si rende conto che il mondo esterno è spesso diverso da come lo si vede online.

L’analisi 

Il recente studio americano Algorithmic personalization of information can cause inaccurate generalization and overconfidence, pubblicato sul Journal of Experimental Psycology: General, suggerisce che la personalizzazione possa distorcere la comprensione dell’ambiente, influenzare la raccolta delle informazioni e indurre una generalizzazione errata delle conoscenze. L’indagine ha coinvolto 143 partecipanti per un totale di 346 sessioni sperimentali e ha indagato come le persone imparino quando ricevono informazioni personalizzate. L’esperimento consisteva in fasi di apprendimento e di verifica. Il primo step riguardava l’osservazione di alcune immagini di alieni e le loro caratteristiche, inizialmente nascoste, che dovevano essere rivelate con un clic. È stato poi chiesto ai soggetti di categorizzare le informazioni e segnalare il loro grado di convinzione. 
Per studiare al meglio gli effetti della personalizzazione non sono state svelate tutte le opzioni in anticipo, mantenendo una rappresentazione più fedele alla realtà. L’algoritmo di personalizzazione usato in questo studio si ispira a quello di YouTube: mostra agli utenti i contenuti che, in base alle loro abitudini, hanno maggiore probabilità di essere visualizzati, così da aumentarne il consumo. I soggetti dello studio hanno fatto generalmente fatica ad ammettere di non aver mai ricevuto alcune notizie durante la fase di apprendimento e il loro livello di fiducia era sorprendentemente alto anche per gruppi mai visti. Lo studio mostra, infatti, che chi ha imparato solo un sottoinsieme delle categorie tende a essere troppo fiducioso anche quando deve classificare elementi del tutto sconosciuti. I risultati indicano come gli algoritmi di personalizzazione possono quindi restringere fortemente lo spazio di conoscenza e distorcere la nostra percezione. 

I pericoli

L’impatto della personalizzazione desta preoccupazione perché contribuisce a sviluppare eccessivamente l’attenzione selettiva, ovvero la capacità del nostro cervello di concentrarsi su alcune informazioni o stimoli ritenuti importanti, ignorando tutto il resto, una sorta di “filtro” applicato ai vari segnali ricevuti dall’ambiente. Quella che è sicuramente una risorsa può diventare un pericolo se sovra-sviluppata, in quanto risulta difficile da correggere e rende difficile l’esplorazione di nuove aree di conoscenza. Un rischio soprattutto per le nuove generazioni, che si ritrovano intrappolati in un meccanismo di comprensione parziale e distorta, che si autoalimenta.

26 novembre 2025 ( modifica il 26 novembre 2025 | 16:29)

26 novembre 2025 ( modifica il 26 novembre 2025 | 16:29)

Fonte Originale