Home » Normative » L’algoritmo che licenza le persone: mandata a casa da chatgpt

L’algoritmo che licenza le persone: mandata a casa da chatgpt

L’algoritmo che licenza le persone: mandata a casa da chatgpt
Photo by MOMO36H10 – Pixabay
Lettura: 3 minuti

Quando un software decide le sorti professionali di una persona, il confine tra efficienza e arbitrio diventa sottile. Le sentenze recenti ridisegnano le regole del licenziamento da algoritmo, imponendo trasparenza e controllo umano.

L’algoritmo che licenza le persone: mandata a casa da chatgpt
Photo by MOMO36H10 – Pixabay

L’ingresso dell’intelligenza artificiale nei processi aziendali ha cambiato il modo di valutare le performance. Dalla logistica ai servizi digitali, sistemi avanzati analizzano dati in tempo reale, assegnano punteggi, segnalano anomalie. Tutto rapido, tutto misurabile.

Il nodo emerge quando l’algoritmo non si limita a supportare, ma diventa l’artefice della decisione finale. Può un codice stabilire la fine di un rapporto di lavoro? Quando i criteri restano opachi, il rischio è quello di una “scatola nera” che produce effetti concreti senza spiegazioni comprensibili. In assenza di un vero contraddittorio, il licenziamento automatizzato si avvicina pericolosamente a un atto arbitrario.

Trasparenza e spiegabilità: i paletti della giurisprudenza

Le corti italiane ed europee stanno tracciando una linea chiara: l’automazione non cancella la responsabilità del datore di lavoro. Se un provvedimento nasce da un sistema algoritmico, l’azienda deve dimostrare quali parametri siano stati utilizzati e come abbiano inciso sulla valutazione finale.

La parola chiave è trasparenza. Non basta dichiarare che il software ha rilevato un calo di produttività; occorre spiegare quali dati sono stati raccolti, con quali pesi e secondo quali criteri. Solo così il lavoratore può esercitare il proprio diritto di difesa, contestare eventuali errori nei dati di input o segnalare distorsioni nei meccanismi decisionali. Senza questa chiarezza, il licenziamento da algoritmo perde legittimità.

Il valore del controllo umano significativo

Un altro principio emerso con forza è quello del controllo umano effettivo. La firma di un responsabile su una lettera generata dal sistema non è sufficiente. Serve una valutazione autonoma, critica, capace di considerare il contesto.

Un algoritmo calcola numeri; una persona interpreta situazioni. Malattia, difficoltà personali, condizioni organizzative sfavorevoli: elementi che incidono sulla performance ma che un sistema automatizzato può non cogliere appieno. Affidarsi ciecamente alla tecnologia espone le imprese a contenziosi, risarcimenti e danni reputazionali, oltre a incrinare il clima di fiducia interno. L’efficienza non può trasformarsi in disumanizzazione.

L’algoritmo che licenza le persone: mandata a casa da chatgpt
Photo by tungnguyen0905 – Pixabay

Nuove regole e responsabilità per le imprese

Lo scenario normativo si fa più stringente, anche alla luce dell’AI Act europeo, che impone obblighi specifici per i sistemi ad alto impatto sui diritti fondamentali. Le aziende dovranno dotarsi di protocolli chiari sull’uso dell’intelligenza artificiale nella gestione del personale, prevedere audit tecnologici e garantire il coinvolgimento delle rappresentanze dei lavoratori.

La tutela contro il licenziamento da algoritmo entra così nel perimetro della governance aziendale e dei criteri ESG. Innovare resta indispensabile, ma entro confini precisi: l’algoritmo può suggerire, analizzare, ottimizzare. Decidere in modo esclusivo, invece, no. Il futuro del lavoro si giocherà proprio su questo equilibrio tra automazione e diritti, tra velocità del codice e dignità della persona.