L’intelligenza artificiale sta rivoluzionando il mondo del lavoro, ma il suo impatto sulla salute mentale e fisica dei lavoratori resta poco esplorato. Il National Forum for Health and Wellbeing at Work ha pubblicato nel 2025 un report che indaga questa relazione cruciale. Tra dati empirici, interviste e letteratura scientifica, il documento restituisce un quadro sfaccettato: l’IA può migliorare la produttività e ridurre lo stress, ma può anche alimentare ansia, isolamento e perdita di autonomia.
Analizziamo le principali evidenze del report, aprendo una riflessione sulle implicazioni etiche e organizzative del lavoro che cambia con l’implementazione rapida della IA nei processi interni aziendali.
I numeri non bastano: dentro la realtà quotidiana di chi lavora con l’IA
Nelle aziende moderne, tra riunioni su Zoom, chat interne e report automatizzati, qualcosa di profondo sta cambiando. Non è solo la velocità con cui lavoriamo o la quantità di dati che analizziamo. È il nostro stesso rapporto con il lavoro, con le decisioni che prendiamo, con la nostra identità professionale. In questo scenario in rapida trasformazione, l’intelligenza artificiale — fino a ieri materia da convegni tecnici — è diventata presenza quotidiana, silenziosa e a volte invisibile. Ma che impatto ha, davvero, sull’equilibrio psicofisico di chi lavora?
È la domanda da cui è partito il National Forum for Health and Wellbeing at Work, un consorzio britannico che dal 2016 riunisce HR, accademici, manager e operatori della salute per promuovere ambienti di lavoro più sani. Nel 2025, il Forum ha pubblicato un report che fa luce su un aspetto spesso trascurato del dibattito sull’IA: non tanto cosa può fare, ma cosa provoca nelle persone che la usano, o che si trovano a conviverci.
Il documento, costruito in modo rigoroso e multidisciplinare, combina tre strumenti di indagine: una revisione della letteratura accademica, un sondaggio somministrato a lavoratori britannici e una serie di casi studio aziendali. L’obiettivo è comprendere come l’intelligenza artificiale stia modificando non solo l’organizzazione del lavoro, ma il vissuto soggettivo di chi quel lavoro lo fa ogni giorno.
Le applicazioni più comuni? Generazione di testi, revisione linguistica, presentazioni, sintesi di documenti. Pochi invece usano l’IA per compiti decisionali o operativi complessi.
E la formazione? Solo l’8% dei lavoratori ha ricevuto corsi specifici dall’azienda. Nella maggior parte dei casi, l’apprendimento avviene in modo spontaneo, per curiosità o necessità. Un paradosso, se si pensa alla portata della trasformazione in atto.
Tra stress e produttività: il fragile equilibrio della trasformazione del lavoro
Ma nonostante la scarsità di formazione, molti dichiarano di usare già l’IA con discreta padronanza. Alcuni la descrivono come “un collega silenzioso”, capace di suggerire idee, strutturare testi, alleggerire la routine. Altri sottolineano come l’IA consenta di concentrarsi su compiti più creativi, spostando il carico cognitivo verso attività di maggiore valore. Eppure, accanto a questi entusiasmi, emergono anche dubbi e timori.
Uno dei più ricorrenti è il timore di non riuscire a stare al passo. Il 54% dei partecipanti si dichiara preoccupato per la velocità del cambiamento tecnologico. Un’ansia che, in molti casi, si somma a quella legata all’età o alla scarsa familiarità con le nuove interfacce. Il cosiddetto technostress — termine che indica il disagio psicologico causato dall’esposizione continua alla tecnologia — è uno dei fenomeni più citati nella letteratura recente. Le sue manifestazioni vanno dalla frustrazione all’insonnia, dal senso di inadeguatezza alla riduzione della soddisfazione lavorativa.
Proprio su quest’ultimo punto, il report offre dati interessanti. Un quarto dei lavoratori ritiene che l’IA abbia un impatto negativo sulla propria salute mentale. Il 21% prevede un aumento dello stress, mentre il 30% segnala una possibile diminuzione della soddisfazione. Questi numeri non vanno letti in chiave allarmistica, ma come segnali da non ignorare. Il benessere mentale, oggi più che mai, è un indicatore fondamentale della sostenibilità organizzativa.
Eppure, il quadro non è univoco. Se da un lato ci sono timori, dall’altro il 64% dei rispondenti afferma che l’IA migliora l’efficienza. Il 54% nota un aumento della performance complessiva. Il 51% lavora in modo più produttivo. L’IA, insomma, può essere anche uno strumento di empowerment. Molti lavoratori la vedono come un alleato: consente di risparmiare tempo, automatizzare compiti ripetitivi, rispondere più rapidamente ai clienti, generare analisi sofisticate.
La chiave, allora, sta nel come. Il modo in cui l’IA viene introdotta e vissuta all’interno delle organizzazioni fa la differenza tra una tecnologia abilitante e una fonte di stress. Se viene imposta senza coinvolgimento, genera ansia e rifiuto. Se invece è accompagnata da formazione, ascolto e trasparenza, può diventare un’occasione di crescita.
In questo senso, il ruolo dei responsabili HR è cruciale. Ma secondo il report, solo il 28% dei lavoratori si sente davvero supportato dal proprio manager nelle evoluzioni legate all’IA nel proprio ambito professionale.
Tecnologia e relazioni: saremo semplici esecutori o prenderemo decisioni più rapide e consapevoli?
Un altro aspetto delicato riguarda l’autonomia. I dati mostrano una divisione netta: il 46% non teme una riduzione della propria autonomia decisionale, ma il 35% sì. E lo stesso vale per l’uso del giudizio personale. La percezione del controllo — o della sua perdita — è uno degli indicatori più forti di benessere lavorativo. Quando l’IA viene percepita come un sistema che monitora, suggerisce, e in fondo decide, allora il rischio è che il lavoratore si senta esautorato, trasformato in semplice esecutore.
Il tema si riflette anche nella dimensione sociale. Il 35% degli intervistati teme che l’IA riduca la qualità delle interazioni umane sul lavoro. In un’epoca in cui si parla molto di intelligenza emotiva e cultura aziendale, questo dato interroga profondamente le organizzazioni. L’IA può essere utile contro la solitudine, ad esempio tramite chatbot per il supporto psicologico. Ma non può sostituire il valore della relazione umana. Soprattutto in ambienti digitalizzati o remoti, l’isolamento può diventare un rischio silenzioso.
Eppure, il report non manca di mettere in luce esperienze positive. Nei casi studio citati — Morrison Water Services, Southern Water, Lua Health — l’adozione dell’IA ha portato a miglioramenti concreti: riduzione degli errori, maggiore sicurezza, comunicazioni più rapide, decisioni più consapevoli. In alcuni contesti, come quello della salute mentale, l’IA ha addirittura facilitato l’emersione precoce di segnali di disagio, consentendo interventi tempestivi. “Ci permette di concentrare le energie sulle cose che contano davvero”, dichiara un dirigente intervistato all’interno del report.
Questa polarità tra rischio e opportunità attraversa tutto il report. Non esistono risposte semplici, né soluzioni universali.
Le raccomandazioni finali del report: come guidare l’innovazione senza perdere il benessere
Alla fine del suo percorso analitico, il report del National Forum for Health and Wellbeing at Work non si limita a fotografare lo stato delle cose. Propone una direzione, una bussola etica e organizzativa per attraversare la trasformazione digitale con consapevolezza. Le raccomandazioni che emergono non sono prescrizioni tecniche, ma inviti alla riflessione e all’azione, pensati per aziende che vogliono coniugare l’adozione dell’intelligenza artificiale con la tutela del capitale umano.
La prima raccomandazione riguarda l’urgenza di uno sviluppo etico dell’IA. Troppe organizzazioni, spinte dall’entusiasmo per l’innovazione, introducono strumenti intelligenti senza interrogarsi a fondo sui loro effetti. Serve invece una governance responsabile, che includa policy chiare sull’uso dell’IA, audit periodici, supervisione umana nei processi decisionali automatizzati e linee guida sull’accesso ai dati sensibili.
L’etica tecnologica non è un lusso accademico: è la condizione per evitare diseguaglianze, discriminazioni algoritmiche o decisioni opache che minano la fiducia dei dipendenti.
La seconda linea d’azione proposta è la costruzione di una cultura organizzativa trasparente. Le tecnologie, per quanto intelligenti, non possono funzionare in contesti opachi. Ogni cambiamento rilevante — dall’adozione di un nuovo software predittivo alla ridefinizione dei flussi di lavoro — deve essere accompagnato da una comunicazione chiara, aperta, accessibile. I lavoratori devono sapere non solo cosa cambia, ma perché, con quali obiettivi, con quali strumenti di supporto. Solo così si può prevenire quella diffidenza strisciante che spesso accompagna l’innovazione, soprattutto quando cala dall’alto.
La terza raccomandazione pone l’accento sul coinvolgimento attivo dei lavoratori. Il report sottolinea con forza che l’IA funziona meglio — ed è meno temuta — quando viene co-progettata con chi dovrà usarla. Ascoltare le esigenze dei dipendenti, raccogliere feedback continui, valorizzare le competenze esistenti e offrire percorsi di aggiornamento mirati sono pratiche che rafforzano il senso di controllo, l’autonomia e il legame con l’organizzazione. L’IA non dovrebbe mai essere percepita come un’imposizione, ma come uno strumento al servizio delle persone.
Infine, c’è una quarta raccomandazione che chiama in causa in modo esplicito la connessione tra tecnologia e salute mentale. Troppo spesso, l’innovazione digitale procede su un binario separato rispetto alle politiche di benessere. Il report invita a integrare l’intelligenza artificiale nei programmi di supporto psicologico e fisico, utilizzandola per monitorare segnali di disagio, facilitare l’accesso a risorse terapeutiche, automatizzare funzioni ripetitive che causano burnout. Ma sempre con una regola chiave: l’IA non deve mai sostituire la relazione umana, soprattutto quando si tratta di cura, ascolto e prevenzione del malessere.
In sintesi, il messaggio è chiaro: l’adozione dell’IA nelle aziende non può essere guidata solo da logiche di efficienza. È necessario un nuovo paradigma, dove l’innovazione sia accompagnata da responsabilità, trasparenza e ascolto. Perché un’organizzazione che ignora il benessere delle sue persone, anche quando innova, rischia di diventare più fragile — non più forte.
Queste indicazioni non sono semplici buone pratiche. Sono, piuttosto, le condizioni per far sì che l’innovazione non sia solo efficiente, ma anche sostenibile. Perché ogni trasformazione tecnologica, per essere umana, ha bisogno di cura.
Forse la lezione più profonda di questo report non sta nei grafici o nelle percentuali, ma nella consapevolezza che ogni innovazione è, prima di tutto, un cambiamento culturale. L’intelligenza artificiale non è un’entità astratta: è uno specchio delle nostre scelte, delle nostre paure e delle nostre speranze. Il modo in cui la accogliamo o la respingiamo racconta chi siamo come società e come individui.
In un tempo in cui la produttività sembra contare più del tempo di qualità, fermarsi a riflettere sul benessere dei lavoratori è un atto politico. Vuol dire rimettere al centro le persone, le loro fragilità, la loro capacità di adattamento.
E vuol dire ricordarsi che nessuna tecnologia, per quanto avanzata, può sostituire la dignità e il senso di appartenenza che ogni persona cerca nel proprio lavoro.
Fonte Dati: ambs-nfhw-artificial-intelligence-report-2025
Nota metodologica del report
Il report “The Impact of Artificial Intelligence on Health and Wellbeing” del National Forum for Health and Wellbeing at Work si basa su un approccio qualitativo e misto, articolato in tre componenti principali: revisione della letteratura scientifica, indagine sul campo e casi studio.
L’indagine empirica è stata condotta tramite un sondaggio online, anonimo, distribuito tra ottobre e dicembre 2024 su piattaforme professionali (LinkedIn, X) e riviste HR. Hanno risposto 186 partecipanti, prevalentemente occupati nel Regno Unito, con una distribuzione bilanciata per genere (55% uomini, 41% donne) e un’ampia varietà di settori, ruoli e livelli di anzianità. La maggioranza era costituita da lavoratori impiegati in aziende medio-grandi e con un profilo professionale “knowledge-based”.
Il questionario ha incluso sia domande chiuse (su scala Likert da 1 a 5) che aperte, incentrate su sei aree: uso dell’IA, insicurezza lavorativa, carichi di lavoro, autonomia, salute e relazioni sociali. Le domande sono state tratte da strumenti validati per misurare fattori psicosociali di rischio.
Accanto al sondaggio, il team di ricerca ha condotto interviste con rappresentanti di tre aziende (Morrison Water Services, Southern Water, Lua Health) al fine di integrare le percezioni dei lavoratori con il punto di vista organizzativo. Nessuno dei casi studio ha partecipato al sondaggio.