La Nuova Censura Invisibile: Come l’Algoritmo Sta Riscrivendo la Libertà di Espressione Online

censura algoritmo

L’algoritmo come nuovo arbitro della visibilità

La percezione che i social media siano piazze libere è ormai un’illusione. Ogni contenuto pubblicato è soggetto a filtri non dichiarati, a ranking opachi e a regole di moderazione automatica che sfuggono al controllo pubblico. I post che non rientrano nei parametri – spesso vaghi e soggetti a interpretazione automatica – vengono derubricati, de-indicizzati o silenziati del tutto. Questo meccanismo, noto come censura algoritmica, non si manifesta con la rimozione esplicita del contenuto, ma attraverso la sua invisibilità forzata. Il fenomeno è particolarmente evidente nei casi di shadow banning, in cui l’utente ignora di essere stato escluso dalla visibilità organica, pur continuando a pubblicare normalmente.

L’ideologia dietro il codice

Non esistono algoritmi neutrali. Ogni scelta ingegneristica riflette una visione del mondo, e nel caso delle grandi piattaforme, tali visioni coincidono con interessi economici e geopolitici ben precisi. I sistemi di raccomandazione vengono addestrati per incentivare l’engagement, ma anche per evitare conflitti normativi e mantenere relazioni diplomatiche. I contenuti “borderline” – anche se legittimi – sono spesso penalizzati per ridurre il rischio di escalation. Questo comporta la normalizzazione algoritmica: una selezione selettiva dei punti di vista, che tende a favorire posizioni moderate o mainstream, penalizzando l’analisi critica o la voce fuori dal coro. È una forma di censura strutturale, invisibile ma pervasiva.

Il paradosso della moderazione automatica

Le piattaforme si trovano in un paradosso: da un lato, sono accusate di non fare abbastanza contro la disinformazione; dall’altro, rischiano di censurare legittimi contenuti informativi. Per rispondere alla pressione normativa (soprattutto in UE, con il Digital Services Act), si sono dotate di strumenti automatizzati di moderazione. Tuttavia, questi strumenti, basati su intelligenza artificiale, operano su pattern e probabilità, non su comprensione semantica o contestuale. Un termine ironico, una citazione storica, o una critica articolata può essere identificata come “violazione”, con conseguenze dirette sulla portata del contenuto. Si genera così una moderazione disfunzionale, spesso più dannosa che utile: errata, opaca e non appellabile.

Verso un nuovo patto sociale digitale

Occorre ripensare la relazione tra utente, algoritmo e libertà. La trasparenza del codice non è più un’opzione, ma una necessità democratica. Serve un cambio di paradigma: dalle black box algoritmiche a sistemi di moderazione spiegabili, tracciabili e, dove possibile, partecipati. Le piattaforme devono essere riconosciute non come semplici “servizi”, ma come infrastrutture di rilevanza pubblica. E come tali, sottoposte a principi di diritto, accountability e controllo democratico. In caso contrario, ci troveremo a vivere in una società dove la censura non ha più bisogno di divieti, perché funziona attraverso l’indifferenza programmata. L’invisibilità è la nuova forma di silenzio. E oggi, nel digitale, essere invisibili significa non esistere.

Guarda anche:

Fonte: AppassionataMente BLOG, Science (ottobre 2024)