L’algoritmo come nuovo arbitro della visibilità
La percezione che i social media siano piazze libere è ormai un’illusione. Ogni contenuto pubblicato è soggetto a filtri non dichiarati, a ranking opachi e a regole di moderazione automatica che sfuggono al controllo pubblico. I post che non rientrano nei parametri – spesso vaghi e soggetti a interpretazione automatica – vengono derubricati, de-indicizzati o silenziati del tutto. Questo meccanismo, noto come censura algoritmica, non si manifesta con la rimozione esplicita del contenuto, ma attraverso la sua invisibilità forzata. Il fenomeno è particolarmente evidente nei casi di shadow banning, in cui l’utente ignora di essere stato escluso dalla visibilità organica, pur continuando a pubblicare normalmente.
L’ideologia dietro il codice
Non esistono algoritmi neutrali. Ogni scelta ingegneristica riflette una visione del mondo, e nel caso delle grandi piattaforme, tali visioni coincidono con interessi economici e geopolitici ben precisi. I sistemi di raccomandazione vengono addestrati per incentivare l’engagement, ma anche per evitare conflitti normativi e mantenere relazioni diplomatiche. I contenuti “borderline” – anche se legittimi – sono spesso penalizzati per ridurre il rischio di escalation. Questo comporta la normalizzazione algoritmica: una selezione selettiva dei punti di vista, che tende a favorire posizioni moderate o mainstream, penalizzando l’analisi critica o la voce fuori dal coro. È una forma di censura strutturale, invisibile ma pervasiva.
Il paradosso della moderazione automatica
Le piattaforme si trovano in un paradosso: da un lato, sono accusate di non fare abbastanza contro la disinformazione; dall’altro, rischiano di censurare legittimi contenuti informativi. Per rispondere alla pressione normativa (soprattutto in UE, con il Digital Services Act), si sono dotate di strumenti automatizzati di moderazione. Tuttavia, questi strumenti, basati su intelligenza artificiale, operano su pattern e probabilità, non su comprensione semantica o contestuale. Un termine ironico, una citazione storica, o una critica articolata può essere identificata come “violazione”, con conseguenze dirette sulla portata del contenuto. Si genera così una moderazione disfunzionale, spesso più dannosa che utile: errata, opaca e non appellabile.
Verso un nuovo patto sociale digitale
Occorre ripensare la relazione tra utente, algoritmo e libertà. La trasparenza del codice non è più un’opzione, ma una necessità democratica. Serve un cambio di paradigma: dalle black box algoritmiche a sistemi di moderazione spiegabili, tracciabili e, dove possibile, partecipati. Le piattaforme devono essere riconosciute non come semplici “servizi”, ma come infrastrutture di rilevanza pubblica. E come tali, sottoposte a principi di diritto, accountability e controllo democratico. In caso contrario, ci troveremo a vivere in una società dove la censura non ha più bisogno di divieti, perché funziona attraverso l’indifferenza programmata. L’invisibilità è la nuova forma di silenzio. E oggi, nel digitale, essere invisibili significa non esistere.
Guarda anche:
- Importante sito paleontologico del Permiano riscoperto in Brasile dopo 70 anni
- Eccezionale ritrovamento del tratto gastrointestinale di un teropode vissuto nella Cina del Cretaceo
- Uovo nell’uovo di un titanosauro rivela più similitudini con gli uccelli che con i rettili
- Il più grande dinosauro predatore d’Europa emerge dall’isola di Wight
Fonte: AppassionataMente BLOG, Science (ottobre 2024)



