AI e SICUREZZA sul LAVORO: cosa cambia con la Legge 132/2025
- 21 nov 2025
- Tempo di lettura: 3 min
Aggiornamento: 30 dic 2025

Un nuovo quadro normativo che ridisegna responsabilità, procedure e competenze nel sistema prevenzionistico italiano.
La Legge 132/2025, recante disposizioni e deleghe al Governo in materia di Intelligenza Artificiale, è entrata in vigore il 10 ottobre 2025 e rappresenta un importante passo in avanti nel processo di integrazione delle tecnologie intelligenti all’interno dei luoghi di lavoro. La norma, pur non intervenendo direttamente sulla struttura del D.Lgs. 81/08, introduce un insieme di principi e obblighi che incidono in maniera significativa sulla gestione della sicurezza aziendale, sulla valutazione dei rischi e sulle responsabilità dei diversi attori del sistema prevenzionistico.
L’impianto della legge adotta una visione dichiaratamente antropocentrica: l’Intelligenza Artificiale deve costituire un supporto utile al miglioramento delle condizioni di lavoro e della sicurezza, senza mai sostituire il controllo umano né diventare strumento di discriminazione o pressione indebita sui lavoratori. L’IA, in altri termini, deve integrare il processo decisionale, non sostituirlo.
INQUADRAMENTO DELLA LEGGE 132/2025 NEL SISTEMA DI SICUREZZA
La Legge 132/2025 introduce innovazioni rilevanti in materia di utilizzo dell’Intelligenza Artificiale nei luoghi di lavoro, rafforzando il principio previsto dall’articolo 28 del D.Lgs. 81/08, secondo cui il datore di lavoro deve procedere alla valutazione di tutti i rischi, compresi quelli derivanti dall’adozione di tecnologie avanzate.
L’impiego di sistemi basati sull’IA genera infatti nuovi fattori di rischio di natura tecnologica, organizzativa e psicosociale, che richiedono un aggiornamento strutturato del Documento di Valutazione dei Rischi.
RISCHI ALGORITMICI E RICADUTE SUI LAVORATORI
Uno degli elementi più significativi introdotti dalla legge riguarda il riconoscimento dei rischi algoritmici, ossia delle criticità connesse al funzionamento e agli errori dei sistemi intelligenti o ai possibili bias dei dati. Tali rischi non incidono soltanto sugli aspetti operativi, ma hanno un peso rilevante anche sul benessere psicologico dei lavoratori, potenzialmente influenzato da dinamiche come la sorveglianza algoritmica, la pressione sulla produttività o la percezione di riduzione dell’autonomia lavorativa. Simili effetti rientrano pienamente tra i rischi psicosociali da valutare, anche in relazione al tecnostress.
OBBLIGHI DI TRASPARENZA E CORRETTO UTILIZZO DELL’IA
La normativa prevede un dovere di trasparenza informativa, imponendo al datore di lavoro di comunicare in modo chiaro finalità, modalità operative e limiti dei sistemi di IA introdotti in azienda. Tali strumenti possono essere utilizzati solo per finalità compatibili con la sicurezza e con il buon andamento organizzativo, restando escluso qualsiasi uso discriminatorio o sanzionatorio. Laddove i sistemi rientrino nell’ambito dell’IA ad alto rischio definita dall’AI Act europeo, l’obbligo informativo diviene ancora più stringente.
PRIMATO DEL CONTROLLO UMANO E RESPONSABILITÀ GIURIDICHE
La legge ribadisce il principio della non sostituzione dell’essere umano, stabilendo che l’IA non può assumere ruoli decisionali autonomi in materia di salute e sicurezza sul lavoro. Il controllo umano deve essere costante, effettivo e prevalente. Le responsabilità prevenzionistiche attribuite dal D.Lgs. 81/08 al datore di lavoro, ai dirigenti e ai preposti restano immutate: la presenza di sistemi automatizzati non solleva in alcun modo le figure della sicurezza dai loro obblighi giuridici.
COMPETENZE RICHIESTE AI PROFESSIONISTI DELLA SICUREZZA
L’evoluzione normativa comporta anche un ampliamento delle competenze richieste ai professionisti della sicurezza (RSPP, ASPP, consulenti). Essi devono acquisire capacità di analisi dei rischi tecnologici, interpretazione dei processi algoritmici, individuazione dei bias e valutazione delle implicazioni connesse alla cybersicurezza. La formazione dei lavoratori, prevista dall’articolo 37 del D.Lgs. 81/08, deve essere aggiornata includendo moduli dedicati al funzionamento dell’IA, ai suoi limiti e al ruolo della supervisione umana, specialmente nelle fasi critiche.
DOCUMENTAZIONE, TRACCIABILITÀ E ADEMPIMENTI
La Legge 132/2025 rafforza gli obblighi di documentazione e tracciabilità, stabilendo che tutte le attività collegate alla valutazione e gestione dei rischi derivanti dall’IA devono essere formalizzate. L’azienda deve essere in grado di dimostrare di aver individuato i rischi, di aver definito misure adeguate e di aver applicato criteri coerenti con i principi di trasparenza, non discriminazione e tutela della dignità del lavoratore.
CONCLUSIONI
La Legge 132/2025 rappresenta un passaggio significativo nel sistema prevenzionistico italiano, imponendo un’integrazione dell’Intelligenza Artificiale che sia pienamente coerente con i principi del D.Lgs. 81/08 e che mantenga centrale la responsabilità e la supervisione dell’essere umano. L’impatto sui processi aziendali, sulle professionalità coinvolte e sulla tutela del lavoratore rende indispensabile un approccio consapevole e pienamente conforme alle nuove disposizioni.



Commenti