Home / Sintomi / FILTER BUBBLE

FILTER BUBBLE

Classe Architettura dell’isolamento informativo

Livello di diffusione Universale


Definizione

Ambiente informativo personalizzato in cui gli algoritmi mostrano all’utente contenuti coerenti con le sue preferenze, opinioni e comportamenti passati, escludendo progressivamente le informazioni dissonanti. Non vedi il mondo — vedi il mondo che l’algoritmo pensa tu voglia vedere.

Origine del termine

Il termine filter bubble (bolla di filtraggio) fu coniato dall’attivista Eli Pariser nel libro omonimo (2011). Pariser notò che due persone diverse che cercavano “Egitto” su Google ottenevano risultati completamente diversi — una vedeva notizie sulla rivoluzione, l’altra informazioni turistiche. L’algoritmo decideva cosa era rilevante per te.

Da allora, la personalizzazione è diventata ancora più pervasiva e invisibile.

Evoluzione del concetto

2009 — Google personalizza i risultati di ricerca per tutti, anche senza login. Non esiste più “la” ricerca Google — esistono miliardi di ricerche personalizzate.

2011 — Eli Pariser lancia l’allarme: se ognuno vede solo ciò che conferma le sue idee, la sfera pubblica si frammenta. Non c’è più un mondo condiviso su cui discutere.

2016 — Brexit e Trump vengono parzialmente attribuiti alle filter bubble: comunità online che vivono in realtà informative separate, incapaci di comprendere (o persino vedere) le ragioni dell’altra parte.

Oggi — Bolle algoritmiche totali. Non solo ricerca: social media, news feed, raccomandazioni video, suggerimenti musicali, pubblicità. L’intero ambiente informativo è filtrato per massimizzare l’engagement — e l’engagement premia la conferma, non la sfida.

«La democrazia richiede cittadini che vedano le cose dal punto di vista degli altri. La filter bubble produce cittadini che non sanno nemmeno che esistono altri punti di vista.» — Eli Pariser

Sintomi nel presente

Come riconoscere la filter bubble nella vita quotidiana:

Sorpresa elettorale Non conosci nessuno che abbia votato per il candidato che ha vinto. “Com’è possibile?” Il tuo feed non te li ha mai mostrati.

Echo chamber Ogni tuo post riceve approvazione. Le opinioni diverse non appaiono, o appaiono già ridicolizzate. Il consenso sembra unanime.

Rabbit hole Guardi un video, l’algoritmo ne suggerisce altri simili, sempre più estremi. Tre ore dopo sei in un territorio informativo che non sapevi esistesse.

Incomprensione reciproca Non capisci come “quelli” possano pensare così. Loro non capiscono te. Vivete in realtà informative che non si toccano.

Personalizzazione invisibile Non sai cosa ti viene nascosto. L’algoritmo non ti dice “non ti mostro questo” — semplicemente non lo mostra. L’assenza non si nota.

Conferma infinita Ogni tua opinione trova conferme online. Ogni tua preoccupazione trova community. La dissonanza cognitiva viene eliminata dall’algoritmo.

Nota clinica

La filter bubble è spesso presentata come un problema di “polarizzazione politica”. Ma il problema è più profondo: riguarda la possibilità stessa di una realtà condivisa.

La democrazia presuppone che i cittadini, pur avendo opinioni diverse, vivano nello stesso mondo fattuale e possano discuterne. La filter bubble dissolve questo presupposto: non siamo più in disaccordo sulle opinioni — siamo in disaccordo sui fatti, perché vediamo fatti diversi.

E c’è un’asimmetria di potere: tu non controlli i filtri. Non sai come funzionano. Non puoi scegliere di vedere “tutto”. L’algoritmo decide cosa è rilevante per te — e la definizione di “rilevante” è: ciò che ti tiene sulla piattaforma più a lungo.

Nella collana Stanza101

1984 di George Orwell Il Partito controlla l’informazione centralmente: tutti vedono la stessa propaganda. La filter bubble è il contrario — ognuno vede propaganda personalizzata. Il risultato (manipolazione della percezione) è simile, il metodo opposto.

Democrazia Low Cost di Mario Burri Marco Ferretti vive in una bolla civica: il PCA gli mostra i suoi progressi, i suoi badge, la sua posizione in classifica. Non vede i 14.000 casi senza appello, gli 11 che hanno rinunciato su 460 moderatori. I dati esistono — ma non entrano nella sua bolla.

L’estetica del silenzio Syme vive nella bolla del Partito Interno: sa cose che i membri esterni non sanno, vede documenti che altri non vedono. Anche in Oceania esistono bolle — gerarchiche invece che algoritmiche.

Letture di approfondimento

Eli Pariser, Il filtro (2011)

Cass R. Sunstein, #Republic: Divided Democracy in the Age of Social Media (2017)

Zeynep Tufekci, Twitter and Tear Gas: The Power and Fragility of Networked Protest (2017)


«Un tempo eravamo tutti esposti agli stessi media. Ora ognuno vive nel proprio universo informativo personalizzato.» — Eli Pariser


Condividi:

I Sintomi