News

L’Europa approva l’IA Act: cosa c’è, cosa manca

Nulla è previsto nell’IA Act che preveda una regolamentazione specifica per l’utilizzo in ambito lavorativo

Dato l’interesse per l’Intelligenza Artificiale (IA) riportiamo una nota della Filctem CGIL in relazione alla recente approvazione del Regolamento Europeo IA Act


Arriva la prima regolamentazione dell’intelligenza artificiale. Permangono punti oscuri, soprattutto servirebbe una normativa specifica sul mondo del lavoro

 

L’IA Act, ossia la proposta di Regolamento europeo che mira a introdurre un quadro comune normativo e giuridico per l’intelligenza artificiale, arriva all’approvazione il 9 dicembre dopo due anni di confronto serrato, nonostante sia ancora in corso di definizione il lato tecnico del testo, che sarà votato dagli organismi europei.

L’opposizione tra Parlamento e Consiglio ha di fatto rallentato i lavori, ma siamo dinanzi al primo atto di regolamentazione dell’intelligenza artificiale al mondo. Il tema divisivo è stato soprattutto la possibilità o meno di utilizzo di strumenti di IA da parte delle forze dell’ordine: il riconoscimento biometrico in tempo reale o la polizia predittiva (vi ricordate Minority Report?).

 

Il Parlamento difendeva la propria linea che prevedeva il blocco totale dell’utilizzo di questa tecnologia, mentre il Consiglio, che è espressione dei singoli Stati, ha sempre espresso un approccio più permissivo. Il compromesso è stato prevederne l’utilizzo per tre sole fattispecie: “Prevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini”. È evidente che sarà un tema che continuerà a essere oggetto di discussione vista la vaghezza delle fattispecie previste.

È bene ricordare che la Cgil durante le fasi di negoziazione, insieme alla Ces, ha espresso su questo tema la richiesta di un divieto assoluto, e che le ong e la stessa Amnesty International, a valle della recente approvazione, considerano grave questa possibilità; si veda la dichiarazione di Mher Hakobyan, consulente per l’IA di Amnesty International, che sostiene che “non garantire un divieto totale sul riconoscimento facciale rappresenta una mancata opportunità di fermare e prevenire danni colossali ai diritti umani, agli spazi pubblici e allo stato di diritto, già minacciati in tutta l’Unione Europea”.

Parimenti grave è che siano sì state previste restrizioni riguardanti il divieto delriconoscimento delle emozioni sul luogo di lavoro e nelle scuole, ma con l’avvertenza che, ricorrendone i presupposti, potrebbe essere consentito per giustificati (da chi e per cosa?) motivi di sicurezza. In generale, la sola idea che si possano rilevare e processare le emozioni in qualunque ambito della vita delle persone pare aberrante.

L’altro tema di confronto ha riguardato le cosiddette tecnologie generative, ossia quelle in grado di creare nuovi contenuti come Chat Gpt. Si è ritenuto che solo uno specifico parametro tecnico distingua tra modelli su cui ex ante bisogna effettuare controlli e rispetto delle regole sulla sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica (per ora solo Chat Gpt-4 ha queste caratteristiche) e gli altri sistemi, per cui solo ex post, cioè all’atto della commercializzazione, si applicherà l’IA Act con tutti i controlli necessari.

 

In generale, si è mantenuta la previsione di un approccio basato sul rischio: inaccettabile, ossia vietato, come il social scoring; ad alto rischio, con una regolamentazione molto restrittiva; a rischio minimo, in cui basteranno codici di autoregolamentazione e a rischio di carenza informativa che obbliga a informare il consumatore. Si prevede anche la creazione di un IA Office centralizzato per supervisionare i modelli più avanzati.

Possiamo ritenerci soddisfatti come sindacato? Seppur convinti che l’Unione Europea stia, unica al mondo, provando a regolamentare le nuove tecnologie e a mantenere centrali le libertà individuali, manca però un elemento fondamentale.

Nulla infatti è previsto nell’IA Act che preveda una regolamentazione specifica per l’utilizzo in ambito lavorativo, mancando la previsione di un ruolo specifico delle organizzazioni sindacali dinanzi all’applicazione di strumenti di intelligenza artificiale. Di certo non basta la sola previsione, contenuta nell’atto, relativa all’obbligo di informazione del lavoratore sottoposto a sistemi di IA. Eppure è sul mondo del lavoro che fortemente impatterà l’applicazione di queste tecnologie.

Ma il sindacato ha una lunga storia di normazioni nate dalle proprie battaglie. Allora, nelle more di una definizione specifica che riguardi l’utilizzo dell’IA nel mondo del lavoro, su cui il sindacato italiano ed europeo dovrà continuare la propria battaglia, è necessario utilizzare tutti gli strumenti che già abbiamo (Gdpr, decreto trasparenza, norme contrattuali sui diritti di informazione preventiva) per poter agire un ruolo specifico.

Il primo strumento che possiamo utilizzare è chiedere alle imprese il rispetto dell’art. 1 bis del decreto legislativo 152/97, introdotto con d.lgs 104:2022, in tema di obblighi di informazione del datore di lavoro sull’utilizzo di strumenti automatizzati. Questo ci consente di conoscere i sistemi in uso e, in relazione alla classificazione basata sul rischio degli strumenti di IA, controllarne la corretta applicazione prevista per ciascun livello. La Filctem Cgil nazionale ha già dato indicazioni a Rsu e strutture territoriali di chiedere l’informativa prevista dall’art. 1 bis.

In questo senso anche il rafforzamento degli obblighi di informazione previsti nella prima parte dei ccnl è ormai ineludibile, divenendo indispensabile una forte integrazione tra diritto del lavoro e legislazione sui sistemi di Intelligenza artificiale. Anche in questo ambito la Filctem Cgil, unitamente a Femca Cisl e Uiltec Uil, ha iniziato a inserire un rafforzamento di questi obblighi a carico del datore di lavoro nelle nuove piattaforme di rinnovo contrattuale.

Tutto questo per consentirci di avere sia specifica contezza dei sistemi che impattano sulle varie attività e sul loro livello di rischio sia per poter agire la verifica del rispetto delle norme cogenti indicate, ad esempio, per i sistemi considerati ad alto rischio.

Tra i sistemi ad alto rischio troviamo ad esempio alcune “infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità”: è del tutto evidente che, in questo caso, Rsu e Filctem Cgil dovranno essere a conoscenza di ogni sistema applicato e del rispetto delle regole previste in capo al produttore per le tecnologie in oggetto, nonché verificare il rispetto dell’obbligo, per chi impiega questi sistemi di IA, di condurre una valutazione d’impatto sui diritti fondamentali prima di metterli in uso.

Preoccupa poi che l’IA Act si concentri molto, correttamente, sui sistemi di intelligenza artificiale ad alto rischio, lasciando però sostanzialmente non regolamentati altri rischi come quelli, ad esempio, dei “giocattoli intelligenti”, altro elemento che interessa la Filctem in relazione questa volta al prodotto e alla sua realizzazione, ma che interessa anche la società intera per il delicatissimo tema che attiene agli strumenti utilizzati da bambini e bambine. Medesimo ragionamento per gli assistenti virtuali: Amazon non a caso sta sviluppando una versione avanzata di Alexa che si interfaccerà anche con i bambini per raccontare storie.

Secondo le affermazioni riportate dalla stampa di Katriina Heljakka, ricercatrice dell’Università di Turku in Finlandia, che studia l’evoluzione dei giocattoli e il loro ruolo nella società contemporanea, “quando si inizia a comprendere la tecnologia dietro i ‘giocattoli intelligenti’ si scopre che questa non è affatto innocente”: proprio per questo motivo sarebbe stata necessaria una diversa qualificazione nell’IA Act di queste applicazioni. Del resto basta ricordare che proprio Amazon nel 2023 è stata sottoposta a un’inchiesta negli Stati Uniti da parte della Federal trade commission (Ftc) per aver raccolto i dati dei bambini senza il consenso dei genitori attraverso Alexa, violando le leggi statunitensi.

Dunque, pur consapevoli che questa sia la prima norma nel pianeta che prova a regolare il complesso mondo dell’intelligenza artificiale, vi sono ancora punti oscuri e un’incolmabile lacuna che attiene alla necessità di una normativa specifica che riguardi il mondo del lavoro.

Nel frattempo, come sindacato dobbiamo nei nostri ambiti agire tutte le possibilità che ci fornisce il combinato disposto delle leggi vigenti e dei Regolamenti europei per raccogliere dati, coinvolgere lavoratrici e lavoratori, fare formazione e informazione, rivendicando il ruolo centrale del sindacato in una rivoluzione tecnologica così accelerata e non priva di incognite.

Cinzia Maiolini è segretaria nazionale Filctem Cgil

Notizie correlate: Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI

EU AI Act: first regulation on artificial intelligence

EU AI Act

Come l’Intelligenza Artificiale può creare un set di dati falsi ma credibili nella ricerca medica

L’intelligenza artificiale cambierà il mondo dei farmaci?

L’intelligenza artificiale nell’informazione scientifica

Ologrammi e realtà virtuale nella formazione medica, è il futuro?

 

Redazione Fedaisf

Promuovere la coesione e l’unione di tutti gli associati per consentire una visione univoca ed omogenea dei problemi professionali inerenti l’attività di informatori scientifici del farmaco.

Articoli correlati

Pulsante per tornare all'inizio
Fedaiisf Federazione delle Associazioni Italiane degli Informatori Scientifici del Farmaco e del Parafarmaco