Entra definitivamente in vigore la nuova legge per regolare l’utilizzo dell’intelligenza artificiale: ecco tutto ciò che cambia.
Il primo agosto è la data ufficiale dell’entrata in vigore definitiva della prima regolamentazione al mondo che si occupa dell’intelligenza artificiale avanzata come ChatGPT. Concordata per la prima volta nel dicembre 2023, fin dall’inizio ha cercato di alzare dei paletti, confini necessari a delineare l’operato che gli utenti avrebbero potuto svolgere (e pubblicare sul web) attraverso l’intelligenza artificiale lanciata gratuitamente da OpenAI.
L’Europa, dopo aver analizzato i primi punti d’allarme, come i deepfake, i video che montavano il volto di un personaggio famoso su corpi differenti, in contesti fuori luogo, e che avevano fatto allarmare l’intera comunità, ha deciso di regolamentare l’utilizzo di strumenti così sofisticati. Il testo della legge poneva dei limiti non solo agli utenti ma anche agli stessi produttori del servizio fin da quando è stato scritto la prima volta: in generale la trasparenza sembrava essere il cardine sul quale si espandevano poi tutte le direttive.
Dopo mesi e mesi di revisione, la Legge è diventata realtà, ed è ufficialmente entrata in vigore per tutto il territorio europeo da pochissimi giorni. Le misure più severe si applicano solo ai sistemi “ad alto rischio”, compresi gli strumenti relativi all’occupazione e alle forze dell’ordine, ma vediamo nel dettaglio cosa è cambiato rispetto al testo iniziale e cosa racconta quello definitivo entrato in vigore.
Le nuove norme della Legge UE sulle intelligenze artificiali
Il regolamento vieta del tutto i sistemi di intelligenza artificiale ritenuti “inaccettabili”, come il punteggio sociale o la profilazione della polizia. Per i sistemi a “rischio limitato” come i chatbot, le aziende invece devono informare gli utenti che stanno interagendo con l’IA, sempre, altrimenti si sta ingannando l’utente. In sostanza, l’idea è quella di mettere le persone sempre al primo posto, garantendogli il diritto di essere informate con evidenze di star interagendo con intelligenze artificiali, o di star guardando prodotti creati attraverso queste ultime.
La maggior parte delle disposizioni della legge però si applicherà dall’agosto 2026. Solo il divieto dei sistemi di intelligenza artificiale che pongono “rischi inaccettabili” si applicherà tra sei mesi, mentre tutte le altre regole per l’IA general-purpose entreranno in vigore tra un anno. La mancata osservanza può innescare multe fino al 7% del fatturato globale annuo di un’azienda.
L’approccio interamente basato sul rischio, cerca di garantire in modo assoluto la sicurezza di queste tecnologie per gli utenti che si interfacceranno con esse, ma d’altra parte, le prime a rendicontare l’utilizzo di sistemi AI saranno proprio le aziende, innanzitutto classificando i loro sistemi, valutandone il rischio dei loro casi d’utilizzo.