{"id":74545,"date":"2023-12-13T18:12:10","date_gmt":"2023-12-13T17:12:10","guid":{"rendered":"https:\/\/www.fedaiisf.it\/?p=74545"},"modified":"2023-12-15T12:27:19","modified_gmt":"2023-12-15T11:27:19","slug":"leuropa-approva-lia-act-cosa-ce-cosa-manca","status":"publish","type":"post","link":"https:\/\/www.fedaiisf.it\/en\/leuropa-approva-lia-act-cosa-ce-cosa-manca\/","title":{"rendered":"L\u2019Europa approva l\u2019IA Act: cosa c\u2019\u00e8, cosa manca"},"content":{"rendered":"<header class=\"article-header\">\n<div class=\"article-lead\">\n<p><em>Dato l&#8217;interesse per l&#8217;Intelligenza Artificiale (IA) riportiamo una nota della Filctem CGIL in relazione alla recente approvazione del Regolamento Europeo IA Act<\/em><\/p>\n<hr \/>\n<p><span style=\"font-size: 14pt;\">Arriva la prima regolamentazione dell\u2019intelligenza artificiale. Permangono punti oscuri, soprattutto servirebbe una normativa specifica sul mondo del lavoro<\/span><\/p>\n<\/div>\n<div class=\"jsx-2021593298 jsx-3641481875 jsx-572277702 jsx-514244505 byline-card byline-type-author_name\">\n<div class=\"jsx-2021593298 jsx-3641481875 jsx-572277702 jsx-514244505 byline-text\"><span class=\"jsx-2021593298 jsx-3641481875 jsx-572277702 jsx-514244505 byline-name\"><span class=\"jsx-2021593298 jsx-3641481875 jsx-572277702 jsx-514244505 author-name\"><span class=\"jsx-2021593298 jsx-3641481875 jsx-572277702 jsx-514244505 author-name-text\"><em><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-74553 alignright\" src=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/12\/AI-regolamento-europa_2023-05-10-164658_psct.jpg\" alt=\"\" width=\"416\" height=\"234\" srcset=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/12\/AI-regolamento-europa_2023-05-10-164658_psct.jpg 750w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/12\/AI-regolamento-europa_2023-05-10-164658_psct-300x169.jpg 300w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/12\/AI-regolamento-europa_2023-05-10-164658_psct-18x10.jpg 18w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/12\/AI-regolamento-europa_2023-05-10-164658_psct-390x220.jpg 390w\" sizes=\"auto, (max-width: 416px) 100vw, 416px\" \/>di CINZIA MAIOLINI<\/em> (<em>segretaria nazionale Filctem Cgil)<\/em><\/span><\/span><\/span><\/div>\n<\/div>\n<p class=\"news article-byline\"><a href=\"https:\/\/www.collettiva.it\/copertine\/internazionale\/leuropa-approva-lia-act-cosa-ce-cosa-manca-ivhtshms\" target=\"_blank\" rel=\"noopener\">13\/12\/23 &#8211; Collettiva<\/a><\/p>\n<div class=\"social-share\">TAG: <a href=\"https:\/\/www.collettiva.it\/tag\/%20intelligenza%20artificiale\" target=\"_top\" rel=\"noopener\">INTELLIGENZA ARTIFICIALE<\/a><a href=\"https:\/\/www.collettiva.it\/tag\/chat%20gpt\" target=\"_top\" rel=\"noopener\">CHAT GPT<\/a><\/div>\n<\/header>\n<div id=\"article-body\" class=\"article-body\">\n<p>&nbsp;<\/p>\n<p>L\u2019IA Act, ossia la proposta di Regolamento europeo che mira a introdurre un <strong>quadro comune normativo e giuridico per l\u2019intelligenza artificiale<\/strong>, arriva all\u2019approvazione il 9 dicembre dopo due anni di confronto serrato, nonostante sia ancora in corso di definizione il lato tecnico del testo, che sar\u00e0 votato dagli organismi europei.<\/p>\n<div class=\"ad-container dsk-article-ad-container\">\n<div id=\"34\" class=\"jsx-102145132 ad-container ad-position\" data-adv-position=\"DSK_ARTICLE_MR1\">\n<div id=\"beacon_596b58e480\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/ads.collettiva.it\/www\/delivery\/lg.php?bannerid=0&amp;campaignid=0&amp;zoneid=34&amp;loc=https%3A%2F%2Fwww.collettiva.it%2Fcopertine%2Finternazionale%2Fleuropa-approva-lia-act-cosa-ce-cosa-manca-ivhtshms&amp;referer=https%3A%2F%2Fwww.collettiva.it%2F&amp;cb=596b58e480\" alt=\"\" width=\"0\" height=\"0\" \/><span style=\"background-color: #ffffff;\">L\u2019opposizione tra Parlamento e Consiglio ha di fatto rallentato i lavori, ma siamo dinanzi al primo <\/span><strong>atto di regolamentazione<\/strong><span style=\"background-color: #ffffff;\"> dell\u2019intelligenza artificiale al mondo. Il tema divisivo \u00e8 stato soprattutto la possibilit\u00e0 o meno di utilizzo di strumenti di IA da parte delle forze dell\u2019ordine: il riconoscimento biometrico in tempo reale o la polizia predittiva (vi ricordate <\/span><em>Minority Report<\/em><span style=\"background-color: #ffffff;\">?).<\/span><\/div>\n<p>&nbsp;<\/p>\n<p>Il Parlamento difendeva la propria linea che prevedeva il blocco totale dell\u2019utilizzo di questa tecnologia, mentre il Consiglio, che \u00e8 espressione dei singoli Stati, ha sempre espresso un approccio pi\u00f9 permissivo. Il <strong>compromesso <\/strong>\u00e8 stato prevederne l\u2019utilizzo per tre sole fattispecie: \u201cPrevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini\u201d. \u00c8 evidente che sar\u00e0 un tema che continuer\u00e0 a essere oggetto di discussione vista la vaghezza delle fattispecie previste.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p class=\"article-content\">\u00c8 bene ricordare che la <strong>CGIL <\/strong>durante le fasi di negoziazione, insieme alla Ces, ha espresso su questo tema la richiesta di un divieto assoluto, e che le ong e la stessa Amnesty International, a valle della recente approvazione, considerano grave questa possibilit\u00e0; si veda la dichiarazione di <strong>Mher Hakobyan<\/strong>, consulente per l\u2019IA di Amnesty International, che sostiene che \u201cnon garantire un divieto totale sul riconoscimento facciale rappresenta una mancata opportunit\u00e0 di fermare e prevenire danni colossali ai diritti umani, agli spazi pubblici e allo stato di diritto, gi\u00e0 minacciati in tutta l\u2019Unione Europea\u201d.<\/p>\n<p>Parimenti grave \u00e8 che siano s\u00ec state previste restrizioni riguardanti il divieto del<strong>riconoscimento delle emozioni <\/strong>sul luogo di lavoro e nelle scuole, ma con l\u2019avvertenza che, ricorrendone i presupposti, potrebbe essere consentito per giustificati (da chi e per cosa?) motivi di sicurezza. In generale, la sola idea che si possano rilevare e processare le emozioni in qualunque ambito della vita delle persone pare aberrante.<\/p>\n<div id=\"43\" class=\"jsx-102145132 ad-container ad-position\" data-adv-position=\"DSK_ARTICLE_MR3\">\n<div id=\"beacon_ab4510f895\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/ads.collettiva.it\/www\/delivery\/lg.php?bannerid=0&amp;campaignid=0&amp;zoneid=43&amp;loc=https%3A%2F%2Fwww.collettiva.it%2Fcopertine%2Finternazionale%2Fleuropa-approva-lia-act-cosa-ce-cosa-manca-ivhtshms&amp;referer=https%3A%2F%2Fwww.collettiva.it%2F&amp;cb=ab4510f895\" alt=\"\" width=\"0\" height=\"0\" \/><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-72906 alignleft\" src=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/ChatGPT-in-the-Pharmaceutical-Industry.jpeg\" alt=\"\" width=\"326\" height=\"181\" srcset=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/ChatGPT-in-the-Pharmaceutical-Industry.jpeg 900w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/ChatGPT-in-the-Pharmaceutical-Industry-300x167.jpeg 300w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/ChatGPT-in-the-Pharmaceutical-Industry-768x427.jpeg 768w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/ChatGPT-in-the-Pharmaceutical-Industry-18x10.jpeg 18w\" sizes=\"auto, (max-width: 326px) 100vw, 326px\" \/><span style=\"background-color: #ffffff;\">L\u2019altro tema di confronto ha riguardato le cosiddette <\/span><strong>tecnologie generative<\/strong><span style=\"background-color: #ffffff;\">, ossia quelle in grado di creare nuovi contenuti come Chat Gpt. Si \u00e8 ritenuto che solo uno specifico parametro tecnico distingua tra modelli su cui ex ante bisogna effettuare controlli e rispetto delle regole sulla sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica (per ora solo Chat Gpt-4 ha queste caratteristiche) e gli altri sistemi, per cui solo ex post, cio\u00e8 all\u2019atto della commercializzazione, si applicher\u00e0 l\u2019IA Act con tutti i controlli necessari.<\/span><\/div>\n<p>&nbsp;<\/p>\n<p>In generale, si \u00e8 mantenuta la previsione di un <strong>approccio basato sul rischio<\/strong>: inaccettabile, ossia vietato, come il social scoring; ad alto rischio, con una regolamentazione molto restrittiva; a rischio minimo, in cui basteranno codici di autoregolamentazione e a rischio di carenza informativa che obbliga a informare il consumatore. Si prevede anche la creazione di un IA Office centralizzato per supervisionare i modelli pi\u00f9 avanzati.<\/p>\n<\/div>\n<p>Possiamo ritenerci soddisfatti come sindacato? Seppur convinti che l\u2019Unione Europea stia, unica al mondo, provando a regolamentare le nuove tecnologie e a mantenere centrali le <strong>libert\u00e0 individuali<\/strong>, manca per\u00f2 un elemento fondamentale.<\/p>\n<p><strong>Nulla infatti \u00e8 previsto nell\u2019IA Act che preveda una regolamentazione specifica per l\u2019utilizzo in ambito lavorativo<\/strong>, mancando la previsione di un <strong>ruolo specifico delle organizzazioni sindacali<\/strong> dinanzi all\u2019applicazione di strumenti di intelligenza artificiale. Di certo non basta la sola previsione, contenuta nell\u2019atto, relativa all\u2019obbligo di informazione del lavoratore sottoposto a sistemi di IA. Eppure \u00e8 sul mondo del lavoro che fortemente impatter\u00e0 l\u2019applicazione di queste tecnologie.<\/p>\n<p>Ma il sindacato ha una lunga storia di normazioni nate dalle proprie battaglie. Allora, nelle more di una definizione specifica che riguardi l\u2019<strong>utilizzo dell\u2019IA nel mondo del lavoro<\/strong>, su cui il sindacato italiano ed europeo dovr\u00e0 continuare la propria battaglia, \u00e8 necessario utilizzare tutti gli strumenti che gi\u00e0 abbiamo (Gdpr, decreto trasparenza, norme contrattuali sui diritti di informazione preventiva) per poter agire un ruolo specifico.<\/p>\n<p>Il primo strumento che possiamo utilizzare \u00e8 chiedere alle imprese il rispetto dell\u2019art. 1 bis del decreto legislativo 152\/97, introdotto con d.lgs 104:2022, in tema di <strong>obblighi di informazione del datore di lavoro <\/strong>sull\u2019utilizzo di strumenti automatizzati. Questo ci consente di conoscere i sistemi in uso e, in relazione alla classificazione basata sul rischio degli strumenti di IA, controllarne la corretta applicazione prevista per ciascun livello. La Filctem Cgil nazionale ha gi\u00e0 dato indicazioni a Rsu e strutture territoriali di chiedere l\u2019informativa prevista dall\u2019art. 1 bis.<\/p>\n<p>In questo senso anche il rafforzamento degli obblighi di informazione previsti nella prima parte dei ccnl \u00e8 ormai ineludibile, divenendo indispensabile una forte<strong> integrazione tra diritto del lavoro e legislazione sui sistemi di Intelligenza artificiale.<\/strong> Anche in questo ambito la <strong>Filctem Cgil<\/strong>, unitamente a Femca Cisl e Uiltec Uil, ha iniziato a inserire un rafforzamento di questi obblighi a carico del datore di lavoro nelle nuove piattaforme di rinnovo contrattuale.<\/p>\n<p>Tutto questo per consentirci di avere sia specifica contezza dei sistemi che impattano sulle varie attivit\u00e0 e sul loro livello di rischio sia per poter agire la <strong>verifica del rispetto delle norme<\/strong> cogenti indicate, ad esempio, per i sistemi considerati ad alto rischio.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-72522 alignright\" src=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/intelligenza-artificale-ricerca-farmaci.jpeg\" alt=\"\" width=\"360\" height=\"254\" srcset=\"https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/intelligenza-artificale-ricerca-farmaci.jpeg 620w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/intelligenza-artificale-ricerca-farmaci-300x212.jpeg 300w, https:\/\/www.fedaiisf.it\/wp-content\/uploads\/2023\/07\/intelligenza-artificale-ricerca-farmaci-18x12.jpeg 18w\" sizes=\"auto, (max-width: 360px) 100vw, 360px\" \/>Tra i <strong>sistemi ad alto rischio<\/strong> troviamo ad esempio alcune \u201cinfrastrutture critiche, ad esempio nei settori dell\u2019acqua, del gas e dell\u2019elettricit\u00e0\u201d: \u00e8 del tutto evidente che, in questo caso, Rsu e Filctem Cgil dovranno essere a conoscenza di ogni sistema applicato e del rispetto delle regole previste in capo al produttore per le tecnologie in oggetto, nonch\u00e9 verificare il rispetto dell\u2019obbligo, per chi impiega questi sistemi di IA, di condurre una valutazione d\u2019impatto sui diritti fondamentali prima di metterli in uso.<\/p>\n<p>Preoccupa poi che l\u2019IA Act si concentri molto, correttamente, sui sistemi di intelligenza artificiale ad alto rischio, lasciando per\u00f2 sostanzialmente non regolamentati altri rischi come quelli, ad esempio, dei <a href=\"https:\/\/www.collettiva.it\/copertine\/culture\/i-giochi-nellera-dellintelligenza-artificiale-btj2iyni\" target=\"_blank\" rel=\"noopener\">\u201cgiocattoli intelligenti\u201d<\/a>, altro elemento che interessa la Filctem in relazione questa volta al prodotto e alla sua realizzazione, ma che interessa anche la societ\u00e0 intera per il delicatissimo tema che attiene agli <strong>strumenti utilizzati da bambini e bambine<\/strong>.\u00a0Medesimo ragionamento per gli assistenti virtuali: Amazon non a caso sta sviluppando una versione avanzata di Alexa che si interfaccer\u00e0 anche con i bambini per raccontare storie.<\/p>\n<p>Secondo le affermazioni riportate dalla stampa di <strong>Katriina Heljakka<\/strong>, ricercatrice dell\u2019Universit\u00e0 di Turku in Finlandia, che studia l\u2019evoluzione dei giocattoli e il loro ruolo nella societ\u00e0 contemporanea, \u201cquando si inizia a comprendere la tecnologia dietro i \u2018giocattoli intelligenti\u2019 si scopre che questa non \u00e8 affatto innocente\u201d: proprio per questo motivo sarebbe stata necessaria una diversa qualificazione nell\u2019IA Act\u00a0di queste applicazioni. Del resto basta ricordare che proprio Amazon nel 2023 \u00e8 stata sottoposta a un\u2019inchiesta negli Stati Uniti da parte della Federal trade commission (Ftc) per aver raccolto i dati dei bambini senza il consenso dei genitori attraverso Alexa, violando le leggi statunitensi.<\/p>\n<p>Dunque, pur consapevoli che questa sia la <strong>prima norma nel pianeta <\/strong>che prova a regolare il complesso mondo dell\u2019intelligenza artificiale, vi sono ancora punti oscuri e un\u2019incolmabile lacuna che attiene alla necessit\u00e0 di una normativa specifica che riguardi il mondo del lavoro.<\/p>\n<p>Nel frattempo, come sindacato dobbiamo nei nostri ambiti agire tutte le possibilit\u00e0 che ci fornisce il combinato disposto delle leggi vigenti e dei Regolamenti europei per raccogliere dati, <strong>coinvolgere lavoratrici e lavoratori<\/strong>, fare formazione e informazione, rivendicando il ruolo centrale del sindacato in una rivoluzione tecnologica cos\u00ec accelerata e non priva di incognite.<\/p>\n<p><em>Cinzia Maiolini \u00e8 segretaria nazionale Filctem Cgil<\/em><\/p>\n<p>Related news: <a href=\"https:\/\/www.europarl.europa.eu\/news\/en\/press-room\/20231206IPR15699\/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai\" target=\"_blank\" rel=\"noopener\"><span class=\"ep_name\">Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI<\/span><\/a><\/p>\n<p><a href=\"https:\/\/www.europarl.europa.eu\/news\/en\/headlines\/society\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence\" target=\"_blank\" rel=\"noopener\"><span class=\"ep_name\">EU AI Act: first regulation on artificial intelligence<\/span><\/a><\/p>\n<p class=\"wp-block-heading\"><a href=\"https:\/\/artificialintelligenceact.eu\/the-act\/\" target=\"_blank\" rel=\"noopener\"><strong>EU AI Act<\/strong><\/a><\/p>\n<p style=\"font-weight: 400;\"><a href=\"https:\/\/www.fedaiisf.it\/en\/come-lintelligenza-artificiale-puo-creare-un-set-di-dati-falsi-ma-credibili-nella-ricerca-medica\/\" target=\"_blank\" rel=\"noopener\">Come l\u2019Intelligenza Artificiale pu\u00f2 creare un set di dati falsi ma credibili nella ricerca medica<\/a><\/p>\n<p style=\"font-weight: 400;\"><a href=\"https:\/\/www.fedaiisf.it\/en\/svizzera-lintelligenza-artificiale-cambiera-il-mondo-dei-farmaci\/\" target=\"_blank\" rel=\"noopener\">L\u2019intelligenza artificiale cambier\u00e0 il mondo dei farmaci?<\/a><\/p>\n<p style=\"font-weight: 400;\"><a href=\"https:\/\/www.fedaiisf.it\/en\/lintelligenza-artificiale-nellinformazione-scientifica\/\" target=\"_blank\" rel=\"noopener\">L\u2019intelligenza artificiale nell\u2019informazione scientifica<\/a><\/p>\n<p class=\"entry-title\"><a href=\"https:\/\/www.econopoly.ilsole24ore.com\/2023\/12\/15\/ologrammi-formazione-medica\/\" target=\"_blank\" rel=\"noopener\">Ologrammi e realt\u00e0 virtuale nella formazione medica, \u00e8 il futuro?<\/a><\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>Dato l&#8217;interesse per l&#8217;Intelligenza Artificiale (IA) riportiamo una nota della Filctem CGIL in relazione alla recente approvazione del Regolamento Europeo IA Act Arriva la prima regolamentazione dell\u2019intelligenza artificiale. Permangono punti oscuri, soprattutto servirebbe una normativa specifica sul mondo del lavoro di CINZIA MAIOLINI (segretaria nazionale Filctem Cgil) 13\/12\/23 &#8211; Collettiva TAG: INTELLIGENZA ARTIFICIALECHAT GPT &nbsp; &hellip;<\/p>","protected":false},"author":4,"featured_media":74554,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[41,44],"class_list":["post-74545","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-notizie","tag-leggisentenze","tag-sindacati"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/posts\/74545","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/comments?post=74545"}],"version-history":[{"count":8,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/posts\/74545\/revisions"}],"predecessor-version":[{"id":74582,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/posts\/74545\/revisions\/74582"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/media\/74554"}],"wp:attachment":[{"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/media?parent=74545"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/categories?post=74545"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fedaiisf.it\/en\/wp-json\/wp\/v2\/tags?post=74545"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}