Nella società di oggi l’intelligenza artificiale (IA) ha un ruolo fondamentale nella trasformazione digitale che è in atto. A seguito del covid-19 l’IA ha rappresentato uno strumento fondamentale per il rilancio dell’economia; pertanto, l’UE ha iniziato a redigere delle norme di utilizzo per poter gestire al meglio le risorse che possiede l’AI e al contempo gestire i rischi derivanti dal suo utilizzo.
Le tappe principali
Il 20 ottobre 2020 il Parlamento ha adottato tre proposte che precisano come l’UE possa regolamentare l’IA in modo efficace per dare una spinta positiva all’innovazione, agli standard etici e alla fiducia nella tecnologia.
Secondo il Parlamento le norme devono essere incentrate sulla persona. Si affrontano temi inerenti alla sicurezza, trasparenza, presa di responsabilità, come evitare la creazione di discriminazioni e come assicurare il rispetto dei diritti fondamentali.
L’europarlamentare Axel Voss ha dichiarato in merito che lo scopo del regime relativo alla responsabilità civile legata all’intelligenza artificiale è quello di costruire fiducia proteggendo i cittadini e incoraggiando l’innovazione dando alle imprese una certezza giuridica.
Un problema sicuramente da risolvere è quello della proprietà intellettuale, bisogna stabilire a chi appartenga qualcosa completamente sviluppato dall’IA.
All’inizio del 2021 il Parlamento ha proposto delle linee guida per quanto riguarda l’uso dell’intelligenza artificiale in settori specifici.
Inizialmente nell’ambito militare e civile, chiarendo che in questi settori l’IA non dovrebbe mai sostituire o sollevare gli esseri umani dalla loro responsabilità. Pertanto, I deputati hanno sottolineato la necessità di un controllo umano sui sistemi di intelligenza artificiale e hanno reiterato la richiesta del Parlamento di vietare le armi letali autonome abilitate da intelligenza artificiale.
Nel maggio del 2021 è stata invece approvata la relazione sull’uso dell’IA nell’istruzione, nella cultura e nel settore audiovisivo, sottolineando che le tecnologie dell'IA devono essere progettate in maniera tale da evitare qualsiasi pregiudizio di genere, sociale o culturale e proteggendo al tempo stesso la diversità.
Infine, nell’autunno dello stesso anno, i deputati hanno chiesto salvaguardie per i casi in cui vengano utilizzati strumenti di intelligenza artificiale dalle forze dell'ordine.
Successivamente, il Parlamento Europeo ha costituito una commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione europea. La relazione finale della commissione AIDA, adottata dalla plenaria nel maggio 2022, ha incluso una proposta per le successive tappe che dovrà compiere l’UE verso l'IA.
Il 14 giugno 2023 il Parlamento Europeo ha fissato la propria posizione sulla normativa in merito all’intelligenza artificiale (AI act). La priorità è quella di assicurare che i sistemi dell’IA in uso nell'UE siano sicuri, trasparenti, tracciabili e non discriminatori.
L’AI ACT
Il 6 dicembre è in programma la riunione che potrebbe dare il via libera alla legislazione comunitaria europea sull’intelligenza artificiale.
L’AI act è composto da 85 articoli, dove si inquadrano i diversi sistemi di intelligenza artificiale e i relativi limiti, si proibiscono alcune applicazioni e si introducono procedure di salvaguardia per mettere al riparo i cittadini europei da abusi e violazioni dei diritti fondamentali.
Tuttavia, il negoziato che sta avvenendo tra Commissione, Parlamento e Consiglio europeo, sta riscontrando delle problematiche su alcuni aspetti proprio alle battute finali.
Il primo punto riguarda quali regole applicare ai modelli fondativi, ossia a quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un'immagine) e allenati attraverso un'enorme mole di dati non categorizzati, come ad esempio il tanto utilizzato chatGPT.
Il secondo punto di discussione riguarda la strada in merito all’uso dell’AI per compiti che riguardano polizia e sorveglianza.
Per quanto riguarda i modelli fondativi la soluzione proposta è creare due corsie sugli obblighi che gli sviluppatori di questi sistemi sono tenuti a rispettare. Da un lato troviamo le AI ad alto impatto per le quali si richiede una applicazione elle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Dall’altro i restanti modelli fondativi per i quali le previsioni della legge europea sull'intelligenza artificiale scattano quando gli sviluppatori commercializzano i propri prodotti.
A fine ottobre il Parlamento e il Consiglio sembravano d'accordo sull'identificazione delle AI ad alto impatto; tuttavia, il secondo ha fatto un passo indietro, sotto pressione delle grandi aziende tecnologiche. E a fine novembre Francia e Germania e Italia hanno chiesto di escludere i modelli fondativi dall'AI Act.
Alla fine, gli Stati hanno dato mandato alla Presidenza del Consiglio di trattare.
In merito al secondo punto il Parlamento si è pronunciato totalmente contrario all’utilizzo dell’AI nell’ambito della sorveglianza, diversamente dagli Stati che non vogliono rinunciare alla possibilità di usare l'intelligenza artificiale per analizzare grandi moli di dati, identificare le persone, fare riconoscimento biometrico in tempo reale. Inoltre, non si vuole perdere l’occasione di utilizzare l’AI per prevedere le probabilità con cui può essere commesso un reato, da chi e dove.
Dunque, la tensione è il Parlamento, deciso a introdurre regole stringenti, e il Consiglio, che vuole un approccio più accomodante soprattutto nella questione della polizia.
Se il trilogo non troverà una soluzione il negoziato salterebbe e se ne ridiscuterebbe a gennaio, sotto la presidenza del Belgio, appena insediato.