Intelligenza artificiale: regole europee dal 2 febbraio

Quali sono i divieti introdotti dal regolamento europeo "AI Act"

Il 2 febbraio inizia ad applicarsi in Italia (e in Europa) l’AI Act, il regolamento europeo sull’intelligenza artificiale, n. 1689 del 13 giugno 2024.

Per la precisione, iniziano ad applicarsi i primi 2 capi:

Capo I – Disposizioni generali
Art. 1 Oggetto
Art. 2 Ambito di applicazione
Art. 3 Definizioni
Art. 4 Alfabetizzazione in materia di IA
Capo II – Pratiche di IA vietate
Art. 5 Pratiche di IA vietate

Sono solo 5 articoli, ma pieni di contenuti importanti.

L’AI Act dichiara anzitutto di promuovere la diffusione di un’intelligenza artificiale, antropocentrica e affidabile, conforme ai valori e ai diritti fondamentali dell’Unione europea, sanciti dalla Carta di Nizza.

Per raggiungere questo obiettivo, si vuole istituire un quadro giuridico uniforme, all’interno del mercato interno europeo, che disciplini l’intera filiera: lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale.

L’Unione mira a diventare un vero e proprio leader nell’adozione di un’IA affidabile. Per fare questo, occorrerà anzitutto evitare che si creino regole nazionali divergenti, all’interno degli Stati membri.

Il regolamento europeo ha un approccio basato sul rischio.

Distingue le I.A. in:
a) inaccettabili e, dunque, vietate;
b) ad alto rischio, ponendo requisiti per i sistemi e obblighi per gli operatori;
c) le altre IA, soggette a possibili obblighi di trasparenza.

Il divieto di alcune pratiche di IA è in vigore dal 2 febbraio in tutti gli Stati europei.

Sono dunque vietate:

1) Le tecniche subliminali (si pensi a Cambridge Analytics)

Si tratta di tecniche manipolative e ingannevoli, che riducono (anche sfruttando specifiche vulnerabilità) la capacità delle persone di prendere una decisione informata, inducendole a prendere inconsapevolmente una decisione che non avrebbero altrimenti preso.

2) La catalogazione sociale (si pensi al sistema cinese)

Sono le tecniche di classificazione delle persone sulla base del loro comportamento sociale, mediante l’attribuzione di un punteggio sociale: una sorta di cittadinanza a punti.

3) La polizia predittiva (si pensi al film Minority report)

Le tecniche di profilazione, per prevedere il rischio che una persona possa in futuro commettere un reato, in base ai tratti della sua personalità.

4) Il riconoscimento facciale

La raccolta indiscriminata (“scraping”) di visi e foto in rete o da filmati di telecamere a circuito chiuso, dando vita ad apposite banche dati.

5) La lettura delle emozioni

La raccolta delle emozioni delle persone, nel luogo di lavoro e a scuola.

6) La biometria

L’assegnazione di persone fisiche a categorie specifiche sulla base dei loro dati biometrici: il sesso, l’età, il colore dei capelli, il colore degli occhi, i tatuaggi, i tratti comportamentali o di personalità, la lingua, la religione, l’appartenenza a una minoranza nazionale, l’orientamento sessuale o politico.

Sono previste delle eccezioni per attività di contrasto al crimine, se autorizzate dall’autorità giudiziaria, ma nessuna decisione che produca effetti giuridici negativi su una persona potrà essere presa solo sulla base dell’output del sistema di identificazione biometrica remota “in tempo reale”.

L’AI Act non si applica invece ai sistemi di intelligenza artificiale sviluppati per scopi non commerciali, di mera ricerca, e (purtroppo) ai sistemi di controllo militari di droni, pubblici e privati.

Da segnalare, sul Sole 24 Ore di oggi, a pag. 16, le considerazioni di Oreste Pollicino, secondo cui, nonostante il dichiarato obiettivo di evitare regole nazionali divergenti all’interno degli stati membri, “l’AI Act rischia di tramutarsi, come in parte è stato per il GDPR, in una direttiva mascherata per l’altissimo numero di clausole aperte che attribuiscono un significativo margine di manovra agli Stati”.

Occorre infine notare la netta divergenza tra la scelta europea di diventare “leader nell’adozione di un’IA affidabile” e la recente scelta dell’amministrazione Trump (il 20 gennaio scorso, lo stesso giorno dell’insediamento) di annullare l’Ordine esecutivo di Biden sull’intelligenza artificiale (n. 14110 del 30 ottobre 2023), con ciò creando un vuoto di regolamentazione pubblica negli Stati Uniti.

L’amministrazione Biden aveva ad esempio imposto agli sviluppatori di sistemi di intelligenza artificiale con rischi per la sicurezza nazionale, l’economia, la salute pubblica o la sicurezza degli Stati Uniti di condividere i risultati dei test di sicurezza con il governo centrale, prima di renderli pubblici.

Negli Stati Uniti, in assenza di un disegno organico regolatorio da parte del governo centrale, saranno ora i singoli giudici o i singoli Stati a intervenire.

Carmelo Giurdanella

Avvocato amministrativista, si occupa di contenzioso, consulenza e formazione, ha quattro figli, una moglie che dopo la pensione ha scoperto la passione per il pane di casa e la pittura, una importante passione per il running, per il sociale e per la (buona) innovazione. Negli anni ha contribuito a far nascere uno studio legale, un centro studi e una rivista online. scrivetegli a avv@giurdanella.it o mandategli un messaggio whatsapp al 3517328985