Intelligenza artificiale, cosa (non) si potrà fare con le nuove regole

Rita Annunziata
12.5.2023
Tempo di lettura: 3'
Via libera dell’Europarlamento all’Ai Act, la normativa europea sull’intelligenza artificiale. Stop ai sistemi di riconoscimento facciale. Nuovi requisiti di trasparenza per ChatGpt & co.

Le nuove norme seguono un approccio basato sul rischio: i sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone saranno “severamente vietati”, si legge sul sito del Parlamento europeo

I modelli di intelligenza artificiale generativa, come ChatGpt, saranno tenuti a rispettare ulteriori requisiti di trasparenza. Tra questi, l’obbligo di dichiarare che un determinato contenuto è stato generato dall’intelligenza artificiale

Primo via libera dell’Eurocamera alle nuove regole sull’intelligenza artificiale. Il testo è stato adottato dalle commissioni parlamentari per le libertà civili e il mercato interno con 84 voti a favore, 7 contrari e 12 astenuti, spianando la strada all’adozione in plenaria tra il 12 e il 15 giugno. “Vogliamo dare a startup e piccole e medie imprese lo spazio per crescere e innovare, proteggendo al contempo i diritti fondamentali, rafforzando il controllo democratico e assicurando un sistema maturo di governance e applicazione dell’intelligenza artificiale”, dichiara il correlatore Dragos Tudorache a margine del voto. Definendo l’Ai Act come “l’atto legislativo probabilmente più importante” dell’attuale mandato.


Stop al riconoscimento facciale

Le nuove norme seguono un approccio basato sul rischio: i sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone saranno “severamente vietati”, si legge sul sito del Parlamento europeo, compresi i sistemi che utilizzano tecniche subliminali o manipolative intenzionali o finalizzati al social scoring (termine con il quale si indica la classificazione degli individui in base al loro comportamento sociale, allo status socio-economico e alle caratteristiche personali, ndr). Nei loro emendamenti all’iniziale proposta della Commissione europea, gli eurodeputati hanno modificato l’elenco di tali sistemi includendo:

  • sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • sistemi di identificazione biometrica remota “a posteriori”, a eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo successivamente a una specifica autorizzazione giudiziaria;
  • sistemi di categorizzazione biometrica che utilizzano dati sensibili (come sesso, razza, etnia, cittadinanza, religione, orientamento politico);
  • sistemi di polizia predittivi (basati su profili, ubicazione o comportamenti criminali passati);
  • sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni educative;
  • estrazione indiscriminata di dati biometrici dai social media o dalle riprese delle telecamere a circuito chiuso per costruire database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Inoltre, è stata ampliata la definizione di “aree ad alto rischio” per includere i danni a salute, sicurezza, diritti fondamentali o ambiente.


LE OPPORTUNITÀ PER TE. Come investire nel megatrend dell'intelligenza artificiale? Su quali titoli puntare oggi? Gli esperti selezionati da We Wealth possono aiutarti a trovare le risposte che cerchi. RICHIEDI LA TUA CONSULENZA GRATUITA


Cosa cambia per ChatGpt & co.

I modelli di intelligenza artificiale generativa, come ChatGpt, saranno tenuti a rispettare ulteriori requisiti di trasparenza. Tra questi, l’obbligo di dichiarare che un determinato contenuto è stato generato dall’intelligenza artificiale e la creazione di un modello per impedire che generi contenuti illegali. Infine, saranno tenuti a pubblicare riepiloghi di dati protetti da copyright utilizzati per la formazione. Per promuovere l’innovazione, gli eurodeputati hanno tuttavia aggiunto un’esenzione per le attività di ricerca, promuovendo sandbox regolamentari o comunque ambienti controllati istituiti dalle autorità pubbliche per testare sistemi di intelligenza artificiale prima della loro diffusione. Infine, viene rafforzato il ruolo dell’EU AI Office, che avrà il compito di monitorare la corretta applicazione delle nuove regole sull’intelligenza artificiale.


“Siamo in procinto di mettere in atto una legislazione storica che deve resistere alla sfida del tempo”, dichiara il relatore Brando Beninfei, capodelegazione del Partito Democratico al Parlamento europeo dal 2019. “È fondamentale per costruire la fiducia dei cittadini nello sviluppo dell’intelligenza artificiale, per definire la strada europea per affrontare gli straordinari cambiamenti che stanno già avvenendo e per orientare il dibattito politico sull’intelligenza artificiale a livello globale. Siamo certi che il nostro testo sia in grado di bilanciare la tutela dei diritti fondamentali con la necessità di fornire certezza giuridica alle imprese e di stimolare l'innovazione in Europa”.

Giornalista professionista, è laureata in Politiche europee e internazionali. Precedentemente redattrice televisiva per Class Editori e ricercatrice per il Centro di Ricerca “Res Incorrupta” dell’Università Suor Orsola Benincasa. Si occupa di finanza al femminile, sostenibilità e imprese.

Cosa vorresti fare?