Il 2 febbraio 2024 ha rappresentato un momento cruciale per la tutela del lavoro nell’Unione Europea, con l’approvazione della prima normativa mondiale per regolare l’utilizzo dell’Intelligenza Artificiale (AI) nei rapporti di lavoro. In questo articolo, esploreremo le implicazioni di tale regolamento e l’importanza della classificazione “ad alto rischio”.
Cambiamenti nel Mondo del Lavoro con l’IA.
L’intelligenza artificiale, unita all’automazione, ha già rivoluzionato diversi settori lavorativi, ne abbiamo parlato spesso anche qui su MoltoUomo.it. Dai robot intelligenti utilizzati nella logistica alla presenza di applicazioni come ChatGpt nell’editoria e nel design, l’AI ha dimostrato il suo impatto significativo. Questo fenomeno richiama le trasformazioni già viste con la digitalizzazione in settori come le banche e i supermercati, cambiamenti che spesso sono stati accolti positivamente.
Ora, con l’avanzare di robot e sistemi autonomi e intelligenti, vediamo un’ulteriore estensione delle funzioni svolte tradizionalmente da esseri umani. Settori cruciali come la diagnostica medica e la redazione di pareri legali stanno vedendo sempre più l’integrazione di sistemi AI avanzati.
Il Ruolo della Classificazione “Ad Alto Rischio”.
Il regolamento proposto, noto come Artificial Intelligence Act, rappresenta un passo significativo nella regolamentazione dell’uso dell’IA. Questo regolamento classifica come “ad alto rischio” tutti i sistemi AI utilizzati dai datori di lavoro per la selezione del personale, la redazione di annunci, l’analisi delle candidature e la valutazione dei candidati. Questa categorizzazione si estende anche ai sistemi utilizzati per monitorare e valutare le prestazioni dei lavoratori e per prendere decisioni cruciali riguardo ai rapporti di lavoro.
L’obiettivo principale del regolamento europeo è bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, della salute e della sicurezza sul luogo di lavoro. Questo include l’utilizzo di modelli AI per garantire la sicurezza dei lavoratori e per monitorare le prestazioni, sempre nel rispetto delle leggi sulla privacy.
Obblighi e Tutela dei Diritti Fondamentali.
La proposta si basa su un approccio basato sul rischio, con obblighi di trasparenza per la commercializzazione e l’utilizzo di sistemi AI, compresi quelli generativi come ChatGpt. Per i sistemi ad alto rischio, è richiesta una valutazione d’impatto preventiva sui diritti fondamentali delle persone. La sorveglianza umana è obbligatoria sia prima dell’immissione che durante l’utilizzo di sistemi AI ad alto rischio.
Gli utenti di tali sistemi devono fornire informazioni chiare alle persone coinvolte e garantire il diritto di ricevere spiegazioni sulle decisioni del sistema. Norme di sicurezza rigorose devono essere rispettate sia dagli sviluppatori che dagli utilizzatori. Inoltre, è previsto il diritto di presentare ricorsi contro decisioni errate o illegittime prese dai sistemi AI ad alto rischio.
La Strada verso l’Approvazione Finale.
Il regolamento, frutto di un complesso compromesso politico, è prossimo all’approvazione definitiva, prevista per aprile. Tuttavia, per entrare in vigore, occorreranno ancora due anni.
Nel frattempo, le aziende possono continuare a sperimentare soluzioni AI, con l’obbligo di informare i lavoratori o i sindacati solo nel caso di sistemi interamente automatizzati, come stabilito dal decreto italiano n. 48/2023.