18 marzo 2026
AI Washing: quando l'intelligenza artificiale diventa una scusa
Licenziamenti, startup fallite e promesse non mantenute: come l'AI è diventata lo schermo narrativo più comodo del momento, e perché questo riguarda tutti.
C’è una storia che si ripete con una frequenza inquietante. Un’azienda annuncia migliaia di licenziamenti e la comunicazione ufficiale parla di “transizione verso l’intelligenza artificiale”, di “ottimizzazione dei processi abilitata dall’AI”, di “riallocazione delle risorse verso ruoli AI-focused”. I mercati reagiscono bene, il titolo tiene, gli investitori applaudono. Poi arrivano le domande scomode: quale AI, esattamente? Su quali processi? Con quali risultati misurabili? Spesso, non c’è risposta.
Quando un termine entra nel dizionario
Il primo febbraio 2026, il New York Times ha dedicato un articolo, a firma di Lora Kelley, al fenomeno, includendo perfino la pronuncia fonetica ufficiale: /ā-ī wȯ-shiŋ/. Non è un dettaglio ornamentale. I giornali come il NYT inseriscono la trascrizione fonetica solo quando un termine ha attraversato la soglia del lessico comune. È il modo in cui la cultura anglofona certifica: questo concetto è qui per restare.
Il termine nasce per analogia con il greenwashing, la pratica di presentarsi più ecologici di quanto si sia in realtà, e con l’ethics washing, ovvero dichiarare principi etici senza che questi si traducano in comportamenti reali. In origine indicava aziende che dichiaravano di usare l’AI senza farlo davvero. Negli ultimi mesi si è allargato a coprire qualcosa di più sottile e sistematico: invocare l’intelligenza artificiale per giustificare decisioni aziendali che hanno motivazioni molto più ordinarie.
Come riporta il New York Times citando un report di Forrester Research (gennaio 2026): “Molte aziende che annunciano licenziamenti legati all’AI non dispongono di applicazioni mature e verificate pronte a ricoprire quei ruoli”, rivelando una tendenza ad “attribuire tagli motivati finanziariamente alla futura implementazione dell’intelligenza artificiale”.
Due fenomeni, una stessa radice
L’AI washing si manifesta in due forme distinte, ma entrambe radicate nella stessa logica: l’intelligenza artificiale è diventata un’etichetta di legittimazione così potente da risultare più utile come strumento narrativo che come strumento operativo.
La prima riguarda le persone: un’azienda invoca l’AI come causa di licenziamenti che hanno invece motivazioni finanziarie, strategiche o gestionali. L’AI non è assente, è usata come schermo narrativo per giustificare decisioni già prese per altre ragioni. Secondo Challenger, Gray & Christmas, nel solo 2025 l’intelligenza artificiale è stata citata negli annunci di oltre 54.000 esuberi negli Stati Uniti. Amazon ha annunciato fino a 30.000 esuberi, poi ridimensionati a circa 14.000 in via ufficiale, collegando inizialmente i tagli all’AI per poi ritrattare parzialmente, sostenendo che la ragione principale fosse “ridurre la burocrazia”; la maggior parte degli analisti ritiene tuttavia che quei fondi servano a finanziare i data center. Pinterest ha ridotto il 15% del personale per “riallocare risorse verso ruoli AI-focused”. HP prevede 6.000 esuberi adducendo “una significativa opportunità di integrare l’AI”. In tutti questi casi il giudizio dei ricercatori converge: i tagli erano già strutturalmente necessari, per ragioni finanziarie, eccesso di assunzioni post-pandemia o cattive decisioni strategiche. L’AI è arrivata dopo, come giustificazione.
La seconda riguarda il prodotto: un’azienda afferma di offrire una soluzione basata sull’intelligenza artificiale quando, in realtà, i processi sono manuali o il ruolo dell’AI è marginale rispetto a quanto dichiarato. È una forma di frode tecnologica verso clienti e investitori, e il caso Builder.AI ne è l’esempio più eclatante, e per certi versi più istruttivo.
Fondata nel 2016 da Sachin Dev Duggal, la startup britannica prometteva di rendere lo sviluppo software accessibile a chiunque grazie a Natasha, un assistente AI che costruiva applicazioni su richiesta. La storia era convincente: Microsoft come partner, centinaia di milioni raccolti da SoftBank e dalla Qatar Investment Authority, una valutazione da 1,5 miliardi di dollari. Il problema è che Natasha non era un sistema AI, secondo le inchieste del Financial Times e di Bloomberg, il lavoro veniva in realtà svolto manualmente da circa 700 sviluppatori sotto contratto in India, istruiti a seguire script che simulavano un sistema automatizzato. Il Financial Times ha evocato il “Mechanical Turk” del Settecento, l’automa da scacchi che celava un essere umano al suo interno, come metafora perfetta. Già nel 2020 il Wall Street Journal aveva sollevato dubbi sulla tecnologia, senza conseguenze. Il castello è crollato nel maggio 2025, quando le indagini interne hanno rivelato che i ricavi dichiarati ($220M) erano circa quattro volte superiori a quelli reali ($50M). L’azienda ha dichiarato fallimento, lasciando oltre 1.000 dipendenti senza lavoro e milioni di debiti con Amazon e Microsoft per servizi cloud non pagati. La domanda che resta aperta è forse più inquietante della vicenda stessa: com’è possibile che in pieno boom dell’AI nessuno abbia verificato cosa ci fosse davvero dietro? Sul fronte regolatorio, la Securities and Exchange Commission (SEC) americana ha sanzionato due società d’investimento, Delphia e Global Predictions, per 400.000 dollari complessivi, per aver pubblicizzato capacità AI inesistenti. Un segnale che le autorità stanno iniziando a muoversi, anche se la velocità del mercato resta, per ora, ben superiore a quella della regolamentazione.
Nel primo caso si mente su ciò che si intende fare, nel secondo su ciò che si sta già facendo. Sono inganni diversi per natura e destinatari, ma costruiti sulla stessa materia prima: il fatto che l’intelligenza artificiale sia oggi abbastanza potente come concetto da renderla credibile in qualsiasi contesto, anche quando non c’è.
Perché funziona
Vale la pena chiedersi non solo chi pratica l’AI washing, ma perché funziona con tale efficacia. Le ragioni sono almeno tre.
La prima è finanziaria. Come ha spiegato Molly Kinder, ricercatrice della Brookings Institution che studia il rapporto tra AI e lavoro, dire “ho adottato l’AI e ottimizzato i costi” è un messaggio enormemente più attraente di “l’azienda è in difficoltà”. In un earnings call, la parola “intelligenza artificiale” funziona oggi come una garanzia di visione strategica, indipendentemente da quanto quella visione sia concreta o verificabile.
La seconda ragione è di natura contestuale. In un clima in cui le aziende valutano con attenzione ogni dichiarazione pubblica su temi economici e politici sensibili, l’AI offre una giustificazione percepita come tecnica e neutrale, difficile da contestare e priva di ricadute reputazionali immediate. “Non è così rischioso inquadrare i licenziamenti come legati all’intelligenza artificiale”, ha ammesso Kinder al Guardian, “anche se potenzialmente il vero colpevole è qualcos’altro.”
La terza ragione sta nella natura stessa dell’AI: è una tecnologia reale, in rapida evoluzione, con impatti concreti già documentati in molti settori. Questo la rende una giustificazione quasi imperforabile: chi può escludere con certezza che quei ruoli non vengano automatizzati tra due anni?
Il problema dell‘“anticipatory layoff”
ll contributo più interessante emerso dall’articolo del New York Times è la descrizione di quello che potremmo chiamare “anticipatory layoff”: licenziare oggi in nome di una trasformazione che non è ancora avvenuta. Non è una bugia nel senso classico del termine, è qualcosa di più sottile: una promessa futura impiegata retroattivamente come giustificazione presente.
Peter Cappelli, professore alla Wharton School, lo dice con chiarezza disarmante: “Le aziende affermano che prevedono di introdurre un’AI che sostituirà questi lavori. Ma non è ancora successo. E questo è un motivo per essere scettici.” Forrester Research stima che sostituire il 20-30% del personale con sistemi AI senza applicazioni pronte e testate richieda tra i 18 e i 24 mesi, ammesso che funzioni.
I dati dello Yale Budget Lab confermano questa lettura: l’AI, ad oggi, non ha ancora modificato in modo significativo il mercato del lavoro nel suo complesso. I 700.000 licenziamenti nel settore tech registrati dal 2022 (dato aggregato dal tracker Layoffs.fyi e ripreso dal New York Times) sono stati principalmente una correzione delle assunzioni gonfiate durante la pandemia, non una conseguenza dell’automazione. Nessuna tecnologia ha mai trasformato il mercato del lavoro nel giro di pochi anni. “ChatGPT è stato rilasciato solo tre anni fa”, ha osservato Martha Gimbel del Budget Lab al Guardian, tre anni sono troppo pochi perché una tecnologia, per quanto dirompente, possa aver già ridisegnato il mercato del lavoro nel suo complesso.
Il confine esiste, e va cercato
Sarebbe però sbagliato concludere che ogni azienda che cita l’AI nei propri tagli stia necessariamente mentendo. Il confine tra washing e innovazione reale esiste, ed è tracciato da un elemento preciso: la misurabilità.
Il caso Salesforce è citato dagli stessi ricercatori come uno dei più credibili: l’azienda ha ridotto il team di customer service da 9.000 a 5.000 persone dopo aver effettivamente implementato agenti AI su processi di supporto online, attività che rientrano tra quelle che i sistemi AI attuali sanno svolgere con sufficiente affidabilità. Non una promessa, ma un risultato documentato su un perimetro definito. La differenza non sta tra chi usa l’AI e chi non la usa. Sta tra chi sa rispondere alla domanda “quale processo, con quale sistema, con quali risultati misurabili” e chi non lo sa, o non vuole rispondere.
Il rischio di diventare una buzzword vuota
Il pericolo più profondo non è che alcune aziende mentano. È che l’AI diventi, nel giro di pochi anni, una buzzword vuota come blockchain o NFT: evocata, venduta, promessa, ma non compresa, non misurata, non responsabile verso nessuno. Il caso Klarna è illuminante: l’azienda aveva automatizzato gran parte del customer service con chatbot AI per poi tornare ad assumere operatori umani, a causa della qualità scadente del servizio. Non è un fallimento dell’AI in senso assoluto, è il fallimento di un’implementazione affrettata, guidata dall’immagine più che dai risultati. Come riportato dal Corriere della Sera, persino Sam Altman, CEO di OpenAI, lo ha riconosciuto all’India AI Impact Summit di New Delhi: “C’è un po’ di AI washing - la tendenza a dare la colpa all’intelligenza artificiale per licenziamenti che altrimenti sarebbero stati effettuati comunque.”
Cosa significa fare AI sul serio
L’AI washing non danneggia solo chi lo pratica. Danneggia l’intero ecosistema: erode la fiducia dei clienti, distorce le aspettative del mercato e alza il costo della credibilità per chi lavora con rigore e trasparenza. Ogni volta che un’azienda invoca l’AI per coprire una decisione già presa, rende un po’ più difficile per chi fa innovazione reale farsi ascoltare senza dover prima smontare lo scetticismo accumulato dagli altri. C’è poi una dimensione che i comunicati stampa non nominano mai: quella umana. Il Guardian ha intervistato un’ex Principal Program Manager di Amazon, licenziata a gennaio 2026 e rimasta anonima per ragioni legate al trattamento di fine rapporto. Si definiva una forte utilizzatrice dell’AI, aveva persino costruito strumenti AI per il proprio team. La sua lettura della vicenda è disarmante nella sua semplicità: “Sono stata licenziata per risparmiare sul costo del lavoro umano.” La risposta a tutto questo non è diffidare dell’intelligenza artificiale. È pretendere che chi la usa, o dice di usarla, risponda a domande concrete: quale processo, quale sistema, quali risultati, in quale arco di tempo. Non la promessa di una trasformazione futura, ma la documentazione di un cambiamento presente. Tra “l’AI trasformerà il lavoro” e “l’AI ha già trasformato questo processo, in questo modo, con questi risultati” c’è una distanza che non è solo semantica. È la distanza tra chi costruisce e chi racconta di costruire. Ed è esattamente lì che si gioca la credibilità del settore nei prossimi anni.
Fonti :
-
Corriere della Sera, “AI-washing, la nuova scusa delle big tech per licenziare migliaia di persone”, Eugenio Spagnuolo (23 febbraio 2026). https://www.corriere.it/tecnologia/26_febbraio_23/ai-washing-la-nuova-scusa-delle-big-tech-per-licenziare-migliaia-di-persone-7db4b9e0-ddc2-4a1a-b28e-bbea9df98xlk.shtml
-
La Repubblica, “Il clamoroso fallimento di Builder, la startup che invece di un’AI aveva 700 programmatori indiani”, Arcangelo Rociola (6 giugno 2025). https://www.repubblica.it/tecnologia/2025/06/06/news/builder_ai_fallimento_indiani_intelligenza_artificiale-424651787/
-
The Guardian, “US companies accused of ‘AI washing’ in citing artificial intelligence for job losses”, Eric Berger (8 febbraio 2026). https://www.theguardian.com/us-news/2026/feb/08/ai-washing-job-losses-artificial-intelligence
-
The New York Times, “Did A.I. Take Your Job? Or Was Your Employer ‘A.I.-Washing’?”, Lora Kelley (1 febbraio 2026). https://www.nytimes.com/2026/02/01/business/layoffs-ai-washing.html
-
Forrester Research, “Forrester: AI-Led Job Disruption Will Escalate, While Fears Of A Job Apocalypse Are Overstated” (13 gennaio 2026). https://www.forrester.com/press-newsroom/forrester-impact-ai-jobs-forecast/
-
Challenger, Gray & Christmas, Report annuale 2025 (dicembre 2025 / pubblicato gennaio 2026). https://www.challengergray.com/wp-content/uploads/2026/01/Challenger-Report-December-2025.pdf
-
Yale Budget Lab, “Evaluating the Impact of AI on the Labor Market: Current State of Affairs”, Martha Gimbel, Molly Kinder, Joshua Kendall and Maddie Lee (1 ottobre 2025). https://budgetlab.yale.edu/research/evaluating-impact-ai-labor-market-current-state-affairs
-
Agenda Digitale, “Aziende AI che ingannano il mondo: ecco l’AI Washing”, Maurizio Carmignani (13 giugno 2025). https://www.agendadigitale.eu/cultura-digitale/aziende-ai-che-ingannano-il-mondo-ecco-lai-washing/
-
Fanpage, “L’intelligenza artificiale è un’ottima scusa per licenziarvi: benvenuti nell’era dell’AI Washing”, Valerio Berra (13 marzo 2026). https://www.fanpage.it/innovazione/tecnologia/lntelligenza-artificiale-e-unottima-scusa-per-licenziarvi-benvenuti-nellera-dellai-washing/

Marta Magnini
Digital Marketing & Communication Assistant in Aidia, laureata in Scienze della Comunicazione e appassionata delle arti performative.
In Aidia sviluppiamo soluzioni software basate su IA, soluzioni di NLP, Big Data Analytics e Data Science. Soluzioni innovative per ottimizzare i processi ed efficientizzare i flussi di lavoro. Per saperne di più, contattaci o inviaci una mail a info@aidia.it.
Ultime notizie

25 marzo 2026
Architetture digitali nel manifatturiero: dalla ISA-95 alla convergenza IT/OT

18 marzo 2026
AI Washing: quando l'intelligenza artificiale diventa una scusa

12 marzo 2026
Mecspe 2026: cosa ci ha confermato l'industria manifatturiera sull'IA
