Home » Normative » Legge 132/2025: come funziona la prima legge su AI in Italia

Legge 132/2025: come funziona la prima legge su AI in Italia

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by Alexandra_Koch – Pixabay
Lettura: 4 minuti

Il provvedimento punta a definire responsabilità chiare per le imprese che utilizzano algoritmi nel ciclo produttivo. Trasparenza e vigilanza umana diventano i pilastri fondamentali per proteggere i diritti e la salute dei dipendenti.

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by RonaldCandonga – Pixabay

L’Italia si prepara a gestire la transizione digitale con un quadro normativo che mette al centro la tutela della persona. L’integrazione dell’intelligenza artificiale nei processi aziendali non è più solo una questione di efficienza, ma un tema di civiltà giuridica e sicurezza operativa. In questo scenario, il Governo delinea un percorso dove l’innovazione deve necessariamente camminare di pari passo con la prevenzione dei rischi, garantendo che ogni sistema automatizzato resti sotto il controllo consapevole dell’uomo per evitare derive discriminatorie o incidenti sul campo.

Il Consiglio dei Ministri punta a disciplinare l’uso dell’intelligenza artificiale nei contesti produttivi, mettendo al centro prevenzione, trasparenza e supervisione umana. L’innovazione corre veloce, ma non può farlo a scapito della sicurezza. È questo il principio che guida il nuovo orientamento del governo italiano sull’uso degli algoritmi nei luoghi di lavoro: integrare le tecnologie emergenti nei processi produttivi, sì, ma senza mai perdere di vista la tutela della persona. In un momento storico in cui l’intelligenza artificiale entra sempre più spesso nelle decisioni operative delle imprese, il tema non riguarda solo l’efficienza. Riguarda anche responsabilità, controllo e prevenzione degli infortuni.

Nuovo quadro normativo per l’era digitale

Il panorama legislativo italiano sta entrando in una fase di profondo aggiornamento per rispondere alle esigenze poste dall’intelligenza artificiale e dall’automazione avanzata. Fino a oggi, infatti, il settore ha dovuto convivere con una certa frammentazione interpretativa, dovuta anche all’assenza di regole specifiche in grado di affrontare con precisione l’impatto degli algoritmi nei luoghi di lavoro. Il nuovo disegno di legge nasce proprio per colmare questo vuoto e per definire un perimetro più netto entro cui le imprese possano muoversi.

L’obiettivo non è frenare l’innovazione, ma renderla compatibile con la tutela della persona. La disciplina punta a stabilire un equilibrio tra competitività economica e diritti dei lavoratori, introducendo criteri di trasparenza nei processi decisionali automatizzati. Del resto, in un contesto produttivo sempre più digitalizzato, il problema non è soltanto cosa fa una macchina, ma come prende le sue decisioni e con quali conseguenze per chi opera accanto ad essa.

Questa impostazione tiene conto anche della struttura economica italiana, dominata da una forte presenza di piccole e medie imprese. Proprio per questo, le regole non possono essere astratte o troppo generiche: devono risultare applicabili, concrete e capaci di adattarsi a realtà produttive molto diverse tra loro. La revisione delle procedure di sicurezza diventa quindi un passaggio obbligato. Non si tratta più soltanto di valutare i rischi fisici tradizionali, ma anche di considerare l’interazione uomo-macchina in una prospettiva nuova, più ampia e più attenta ai possibili effetti collaterali dell’automazione.

Centralità della persona e divieto di discriminazione

Uno dei punti più importanti della nuova disciplina è la centralità della persona umana. L’introduzione di sistemi intelligenti non può mai tradursi in una deresponsabilizzazione del datore di lavoro o in una delega totale delle decisioni a un software. È qui che entra in gioco il principio del “human-in-the-loop”, cioè la presenza costante di un controllo umano nel ciclo decisionale dell’algoritmo. In termini pratici, significa che le scelte più delicate, soprattutto quelle che riguardano la salute, la sicurezza o la posizione contrattuale del lavoratore, non possono essere affidate esclusivamente a un sistema automatizzato.

L’intervento umano deve essere reale, competente e in grado di correggere eventuali errori del sistema. Non un controllo simbolico, quindi, ma una supervisione sostanziale. È un aspetto decisivo, perché ogni tecnologia può offrire supporto, ma non può sostituire del tutto la valutazione umana, soprattutto quando sono in gioco diritti e tutele fondamentali.

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by Alexandra_Koch – Pixabay

Responsabilità aziendale e gestione dei dati

Il datore di lavoro resta il soggetto chiamato a garantire che intelligenza artificiale e sicurezza sul lavoro procedano insieme. La nuova impostazione normativa rafforza infatti gli obblighi di valutazione dei rischi, con un’estensione del Documento di Valutazione dei Rischi (DVR) anche agli strumenti digitali avanzati. Non sarà più sufficiente descrivere i pericoli tradizionali dell’ambiente operativo: ogni impresa che adotti algoritmi o sistemi automatizzati dovrà analizzarne l’impatto concreto sul personale.

Un altro elemento essenziale riguarda la formazione. Le imprese non possono limitarsi a introdurre nuove tecnologie e aspettarsi che il personale si adatti spontaneamente. Servono percorsi chiari di addestramento, aggiornamento e informazione, così che i lavoratori sappiano come interagire con l’intelligenza artificiale in modo sicuro ed efficace. Anche i rappresentanti dei dipendenti devono essere messi nelle condizioni di comprendere finalità e modalità d’uso degli algoritmi. La partecipazione, infatti, riduce le resistenze interne e favorisce un’adozione più consapevole e condivisa delle innovazioni.