C’erano tutti gli ingredienti per la solita favola tecnologica: un giovane visionario, un algoritmo rivoluzionario e milioni di dollari pronti a finanziare “il futuro”. Builder.ai, la startup londinese che prometteva di costruire app con un clic grazie all’intelligenza artificiale, era diventata il simbolo del nuovo miracolo tech.
Ma dietro le slide patinate e le interviste al fondatore c’era tutt’altro: non un cervello digitale, ma un esercito umano di oltre 700 programmatori in India.
La promessa era quella di “creare software in modo automatico, senza scrivere una riga di codice”. La realtà? Un meccanismo di outsourcing spacciato per innovazione. E un fallimento che oggi sta riscrivendo le regole della Silicon Valley — e della fiducia negli unicorni dell’intelligenza artificiale.
Un sogno miliardario nato nel cuore di Londra
Era il 2016 quando Sachin Dev Duggal, imprenditore anglo-indiano con un passato in Deutsche Bank, fondò Builder.ai.
Il pitch era perfetto: “Chiunque potrà costruire un’app come ordina una pizza.”
Un’interfaccia semplice, un assistente virtuale che capiva le richieste e un motore d’intelligenza artificiale capace di sviluppare, testare e distribuire applicazioni in modo automatico.
Il mondo tech impazzì. In pochi anni, Builder.ai raccolse centinaia di milioni di dollari da fondi internazionali, con partner del calibro di Microsoft e investitori dal Medio Oriente.
Nel 2023 la valutazione stimata sfiorava il miliardo e mezzo di dollari: un “unicorno” europeo con quartier generale a Londra e team globali sparsi tra Europa, India e Stati Uniti.
Ma già allora, dietro le quinte, qualcosa non tornava.
L’intelligenza artificiale che non esisteva
Builder.ai diceva di possedere un sistema capace di generare codice in modo autonomo. In realtà, come hanno rivelato numerosi ex-dipendenti e documenti interni, la maggior parte dei progetti era affidata a programmatori umani, pagati a basso costo in India.
Ogni volta che un cliente ordinava un’app, l’IA non “scriveva” alcun software. Si limitava a smistare il lavoro a team umani che, dietro monitor anonimi a Bangalore o Hyderabad, traducevano manualmente le richieste in codice.
L’assistente virtuale “Natasha”, che Builder.ai presentava come un sofisticato agente conversazionale, non era altro che un’interfaccia di coordinamento gestita da operatori reali.
Una macchina perfettamente sincronizzata per apparire automatizzata.
Molti sviluppatori interni raccontano di aver lavorato su decine di progetti contemporaneamente, con scadenze impossibili e richieste di riservatezza assoluta. “Ci dicevano di non parlare mai del numero di persone coinvolte, di dire che tutto era gestito dall’IA”, ha riferito uno di loro sotto anonimato.
Il marketing faceva il resto: conferenze, premi, articoli patinati su riviste di settore. Tutti convinti che Builder.ai avesse davvero risolto l’enigma dello sviluppo automatico.
I conti che non tornavano
Mentre la reputazione cresceva, i numeri di bilancio raccontavano una storia molto diversa.
Le entrate ufficiali dichiaravano ricavi annuali superiori ai 200 milioni di dollari.
Le fonti interne, però, parlano di valori reali tra i 40 e i 60 milioni.
Le pratiche di “contabilità creativa” erano sofisticate: vendite fittizie, ricavi incrociati con partner compiacenti e stime gonfiate sul valore dei contratti futuri.
L’obiettivo era uno solo — mantenere l’immagine di startup in crescita costante per attirare nuovi round di investimento.
Quando alcuni revisori esterni iniziarono a chiedere chiarimenti, Builder.ai rispose con una mossa classica da Silicon Valley: un rebranding e l’annuncio di “una nuova fase di espansione globale”.
Nessuno, in quel momento, volle guardare davvero sotto il cofano dell’IA.
Le prime crepe: l’inizio della fine
Nel 2024 le voci iniziarono a circolare più insistentemente.
Dipendenti in fuga, ritardi nei pagamenti, e soprattutto clienti delusi da prodotti incompleti.
L’IA non funzionava come promesso, i tempi di consegna si allungavano e i bug aumentavano.
Un gruppo di sviluppatori indipendenti pubblicò una serie di testimonianze che descrivevano Builder.ai come “una catena di montaggio mascherata da algoritmo”.
Il colpo definitivo arrivò quando, nel 2025, un’inchiesta rivelò che gran parte dell’output “automatico” era in realtà prodotto da un’enorme forza lavoro umana nascosta dietro il marketing dell’IA.
A quel punto, i partner commerciali cominciarono a ritirarsi. Microsoft chiuse la collaborazione, gli investitori richiesero la restituzione dei fondi, e il capitale circolante si prosciugò.
In meno di sei mesi, la startup crollò come un castello di carte.
I volti dietro lo scandalo
Non si tratta solo di un fallimento finanziario, ma di una crisi etica e culturale.
Builder.ai non è il primo caso di startup che vende illusioni, ma è forse il più eclatante della nuova corsa all’oro dell’intelligenza artificiale.
Centinaia di programmatori in India raccontano di aver lavorato per anni sotto la promessa di un “progetto rivoluzionario” che in realtà era un sistema tradizionale di outsourcing spacciato per IA.
Molti non sono mai stati pagati integralmente, altri sono stati vincolati da clausole di riservatezza che impedivano di denunciare la realtà.
Nel frattempo, i fondatori e i principali dirigenti si sono difesi parlando di “malintesi tecnici” e “comunicazioni travisate”. Ma le indagini interne rivelano email, memo e documenti che dimostrano la consapevolezza del problema ai vertici già dal 2021.
Il simbolo di una bolla
Builder.ai non è un’eccezione: è il sintomo di un’industria che confonde innovazione con narrazione.
Negli ultimi anni, centinaia di startup hanno promesso intelligenze artificiali capaci di scrivere, disegnare, programmare, pensare.
Ma la verità è che molti di questi sistemi non sono affatto autonomi: si basano su lavoro umano nascosto, su reti di micro-task, su algoritmi “assistiti” che dipendono da operatori reali.
Il caso Builder.ai ha aperto un vaso di Pandora: quanti altri progetti oggi presentati come “AI-driven” sono in realtà sorretti da lavoratori invisibili?
Il confine tra automazione e sfruttamento, tra innovazione e menzogna, si fa sempre più sottile.
Il dopo Builder.ai
Oggi la società è in stato di amministrazione controllata.
Gli investitori principali hanno avviato azioni legali per frode e false comunicazioni finanziarie.
I fondatori cercano nuovi fondi per ripartire con un progetto “rivisto”, ma il danno d’immagine è irreparabile.
Nel frattempo, il caso sta diventando un precedente giudiziario: le autorità di regolamentazione del Regno Unito e degli Stati Uniti stanno valutando norme più rigide per impedire alle aziende di “etichettare” come intelligenza artificiale ciò che non lo è.
La stampa parla di “Enron dell’IA”.
Un paragone azzardato, forse, ma efficace: perché come Enron, anche Builder.ai ha costruito un impero sull’apparenza, non sulla sostanza.
Il vero significato di questa storia
Il crollo di Builder.ai non è solo il fallimento di un’azienda. È il fallimento di un’idea di progresso costruita sull’hype, sulla fretta di investire e sulla fiducia cieca nella parola “intelligenza artificiale”.
In un mondo in cui ogni startup si proclama “AI company”, la vicenda di Builder.ai ci ricorda che la tecnologia senza etica è solo marketing travestito da futuro.
E mentre il mercato continua a cercare il prossimo unicorno, la lezione resta lì, incisa nella cronaca:
dietro ogni “miracolo dell’IA” potrebbe nascondersi una semplice, umanissima bugia.



