Nella narrativa dominante, l’intelligenza artificiale è una macchina che apprende da sola.
Impara, si evolve, crea.
È la frontiera della tecnologia che promette di liberarci dal lavoro ripetitivo e di migliorare la produttività umana.
Ma la realtà è molto diversa.
Dietro i chatbot che rispondono alle nostre domande, dietro le immagini generate con un clic, dietro gli algoritmi che filtrano i contenuti o riconoscono volti, si nasconde un esercito invisibile di lavoratori umani, spesso malpagati e dimenticati.
Sono loro — non l’intelligenza artificiale — a costruire i dati che alimentano la rivoluzione digitale.
Il lavoro invisibile dell’intelligenza artificiale
Ogni modello di IA, per essere “intelligente”, ha bisogno di milioni di esempi.
Frasi da comprendere, immagini da etichettare, testi da correggere, audio da trascrivere.
Un compito che nessuna macchina può svolgere senza l’aiuto umano.
E così, decine di migliaia di persone lavorano ogni giorno nell’ombra: controllano risposte, classificano contenuti, rimuovono errori, etichettano emozioni.
Si tratta di un lavoro frammentato, impersonale e spesso psicologicamente estenuante.
Le grandi aziende dell’IA — da OpenAI a Google, da Meta a Anthropic — si affidano a una rete globale di appaltatori in paesi come Kenya, India, Filippine, Venezuela o Madagascar.
Queste persone vengono pagate tra 1 e 3 dollari l’ora per addestrare i sistemi che generano miliardi di dollari di valore nelle capitali occidentali.
I “data labelers”: gli operai della mente digitale
I lavoratori che etichettano i dati vengono chiamati data labelers.
Il loro compito è definire ciò che l’IA deve imparare: se una frase è offensiva, se un’immagine mostra violenza, se una risposta è utile o fuorviante.
Per ChatGPT, ad esempio, questi labeler hanno dovuto leggere e classificare migliaia di testi violenti, pornografici o discriminatori per addestrare il sistema a riconoscerli e censurarli.
Un’indagine del Time del 2023 ha rivelato che i lavoratori kenioti incaricati di “ripulire” i dataset di OpenAI soffrivano di stress post-traumatico, ansia e insonnia, dopo aver passato mesi a leggere contenuti di abusi e torture.
Eppure, senza di loro, l’IA non potrebbe esistere.
L’economia del micro-task
Le piattaforme che coordinano questo lavoro si chiamano Microworkers, Remotasks, Clickworker, Appen, Scale AI.
Offrono migliaia di micro-attività da pochi centesimi ciascuna: descrivere un’immagine, correggere un testo, classificare un tono di voce.
Ogni micro-task dura pochi minuti.
Ogni errore riduce il punteggio del lavoratore.
Ogni ritardo può significare l’espulsione dal sistema.
È un lavoro invisibile, precario e impersonale, ma rappresenta l’infrastruttura cognitiva della nostra epoca.
Secondo l’Organizzazione Internazionale del Lavoro, oggi oltre 250 milioni di persone nel mondo partecipano, in modo diretto o indiretto, a forme di lavoro digitale legato all’IA.
Le capitali del lavoro cognitivo: Nairobi, Manila, Hyderabad
In un call center di Nairobi, John, 27 anni, racconta di aver lavorato per mesi senza sapere chi fosse il cliente finale.
«Ci dicevano solo che stavamo aiutando un sistema a imparare. Poi ho capito che si trattava di un chatbot americano. Lavoravamo di notte, sei giorni su sette. A fine mese prendevo circa 180 dollari.»
A Hyderabad, in India, centinaia di lavoratori addestrano modelli linguistici in inglese e hindi, rispondendo a prompt e valutando la qualità delle risposte.
A Manila, le lavoratrici delle content farms passano ore a etichettare immagini mediche, mentre in Venezuela il lavoro digitale è diventato la principale fonte di reddito dopo il collasso economico del paese.
In ognuno di questi luoghi, l’intelligenza artificiale è sinonimo di sopravvivenza, non di innovazione.
Etica e ipocrisia
Le grandi aziende tecnologiche parlano spesso di “IA etica”, “trasparente” e “sostenibile”.
Ma raramente menzionano la catena umana che la sostiene.
Nel linguaggio pubblico, le parole “machine learning” evocano automazione, non lavoro umano.
Eppure, dietro ogni algoritmo “che impara da sé”, ci sono persone che insegnano cosa è giusto, sbagliato, offensivo o accettabile.
Sono lavoratori invisibili che incarnano un paradosso morale: rendono l’IA “più umana” a costo della propria salute mentale.
L’illusione della piena automazione serve a nascondere un sistema produttivo profondamente diseguale, dove il capitale cognitivo viene estratto come un minerale grezzo, lavorato a basso costo nei paesi poveri e rivenduto come innovazione nei paesi ricchi.
Il peso psicologico del lavoro invisibile
Molti di questi lavoratori, dopo mesi di esposizione a contenuti traumatici, sviluppano disturbi psicologici cronici.
Non esistono tutele né assistenza sanitaria, perché nella maggior parte dei casi sono contrattisti esterni, privi di assicurazione o protezione legale.
Alcuni raccontano di essere stati istruiti a “non leggere troppo a fondo”, a “non empatizzare con i contenuti”.
Ma la mente umana non funziona così.
Chi corregge per ore immagini di violenza o insulti razzisti non può restare indifferente.
L’intelligenza artificiale che ne risulta appare neutra e sicura solo perché qualcuno, lontano da noi, ha filtrato il dolore al suo posto.
Il capitalismo dell’attenzione e del linguaggio
Dietro tutto questo si nasconde una nuova forma di capitalismo: quello linguistico.
Ogni parola, immagine o reazione diventa materia prima per addestrare i modelli di IA.
Il nostro linguaggio è diventato un giacimento industriale, e i lavoratori digitali sono i minatori.
Un minatore invisibile, isolato, ma connesso al mondo intero da un cavo di fibra ottica.
Non estrae carbone o oro, ma senso.
Dà forma al pensiero delle macchine.
I primi segnali di ribellione
Negli ultimi anni sono nati collettivi di lavoratori digitali che chiedono trasparenza e diritti.
A Nairobi è stato creato il Data Workers Union, il primo sindacato dei lavoratori dell’intelligenza artificiale.
In Sud America, il progetto Turkopticon monitora e denuncia abusi delle piattaforme di micro-lavoro.
Anche in Europa, università come Oxford e Amsterdam studiano nuove forme di tutela per il “lavoro cognitivo globale”.
Ma le grandi aziende restano evasive: riconoscere questi lavoratori significherebbe ammettere che l’intelligenza artificiale non è autonoma, ma dipendente da migliaia di esseri umani.
Un futuro da riscrivere
La domanda è inevitabile: può esistere un’intelligenza artificiale davvero etica se si fonda sullo sfruttamento invisibile di altri esseri umani?
Può esserci progresso tecnologico senza giustizia sociale?
La sfida del XXI secolo non sarà costruire macchine più potenti, ma costruire un sistema di valori capace di riconoscere il contributo umano nascosto dietro ogni algoritmo.
Perché l’IA non è magia. È lavoro.
E ogni volta che chiediamo a una macchina di “scrivere come un umano”, stiamo, in realtà, parlando con le voci di centinaia di persone reali che hanno insegnato alle macchine a parlare come noi.



