L’Intelligenza Artificiale e il futuro della democrazia

La regolamentazione europea sull’Intelligenza Artificiale

A che punto è la regolamentazione a livello europeo sull’Intelligenza Artificiale? Al momento, c’è una proposta di Regolamento – presentata dalla Commissione e modificata dal Consiglio dell’Unione europea – pendente davanti al Parlamento, che nel frattempo ha adottato un’apposita Risoluzione.

A proposito del dibattito odierno sull’AI (richiesta di moratoria e successivo intervento del Garante), è utile (ri)leggere il documento redatto dalla Commissione speciale sull’Intelligenza Artificiale nell’era digitale (AIDA). Si tratta di una Commissione istituita presso il Parlamento Europeo che, già nel 2021, così scriveva:

A) L’Intelligenza Artificiale e il futuro della democrazia

A.1 Il futuro della democrazia dipenderà dal mantenimento della pluralità dei media, dalla possibilità del dissenso e da un discorso pubblico incentrato sulla persona

La tecnologia riflette i valori della società, in modo implicito o esplicito, e il futuro della democrazia dipenderà dal mantenimento della pluralità dei media, dalla possibilità del dissenso e da un discorso pubblico incentrato sulla persona. 

Nel regolamentare le piattaforme e le nuove tecnologie di intelligenza artificiale, i responsabili politici devono considerare l’intero contesto della formazione dell’opinione pubblica e il ruolo non solo della razionalità, ma anche dell’empatia e dell’emotività umana. 

Anche Lorena Jaume-Palasí (direttore esecutivo, Ethical Tech Society e fondatrice, Algorithm Watch) ha sottolineato l’importanza delle sfumature nel discorso pubblico e nel discorso online, sottolineando la necessità di distinguere tra polarizzazione e radicalizzazione e riconoscendo che il fascino della disinformazione è radicato nelle emozioni e nell’appartenenza politica, piuttosto che nella credenza razionale nella veridicità dei fatti.


L’intersezione tra social media, partecipazione politica e intelligenza artificiale presenta nuove sfide sia per il settore tecnologico che per la società nel suo complesso. Yannis Theocharis (Chair of Digital Governance, Bavarian School of Public Policy, Technical University of Munich) ha presentato una ricerca accademica su come l’IA può essere utilizzata per contrastare l’inciviltà, l’incitamento all’odio e altre forme di abuso su piattaforme di social media come Twitter. 

I risultati della ricerca hanno mostrato che mentre la partecipazione politica abilitata dai social media potrebbe avere effetti democratici positivi, come l’emergere di nuovi movimenti sociali e “attivismo hash-tag” che definisce l’agenda, potrebbe anche portare a una retorica offensiva nei confronti dei politici e un generale impoverimento della discorso pubblico. 

Mentre l’abuso sui social media colpisce tutti i politici, indipendentemente dall’affiliazione politica, la ricerca ha prodotto risultati su come il genere e altre caratteristiche personali possono influire sulla quantità di abusi subiti da un politico. È probabile che le donne politiche popolari, con un notevole seguito sui social media, ricevano non solo quantitativamente più abusi rispetto ai politici uomini, ma anche abusi di genere mirati specificamente alle loro caratteristiche personali.

Il potenziale dell’intelligenza artificiale per ridurre la quantità di abusi sulle piattaforme è intrinsecamente legato a problemi di definizione: il modo in cui viene definito l’incitamento all’odio varia a seconda delle giurisdizioni e delle piattaforme. La conseguenza è che esiste un consenso limitato su come sfruttare l’intelligenza artificiale per filtrare efficacemente l’incitamento all’odio e l’inciviltà. Laddove il comportamento online problematico può essere definito e utilizzato per addestrare i sistemi di intelligenza artificiale, le soluzioni basate sull’intelligenza artificiale possono includere la moderazione automatizzata dei contenuti, il contro-discorso automatico e il nudging automatico, che spingono gli utenti a riconsiderare la lingua utilizzata prima della pubblicazione. 

Un problema secondario si pone in relazione agli incentivi delle piattaforme a implementare soluzioni che potrebbero danneggiare i profitti. In molti casi documentati, il linguaggio incivile o divisivo sui social media porta a un maggiore coinvolgimento degli utenti e a più follower. 

A.2. L’obiettivo di ridurre o rimuovere i contenuti incivili e divisivi sembra quindi essere in diretto conflitto con i modelli di business delle piattaforme orientati alla massimizzazione del coinvolgimento degli utenti. Mentre il mondo offline si è spostato online, le leggi e gli standard offline non sono stati aggiornati di conseguenza. 

L’obiettivo di ridurre o rimuovere i contenuti incivili e divisivi sembra quindi essere in diretto conflitto con i modelli di business delle piattaforme orientati alla massimizzazione del coinvolgimento degli utenti.

Mentre il mondo offline si è spostato online, le leggi e gli standard offline non sono stati aggiornati di conseguenza. 

L’amplificazione della disinformazione guidata dalla tecnologia al di là dei tipi di informazioni fondamentali per la democrazia non può essere contrastata da un tipo di moderazione dei contenuti a posteriori, come spiegato da Karen Kornbluh ( Senior Fellow and Director, Digital Innovation and Democracy Initiative, German Marshall Fund of the United States). 

Spesso diffusi da recidivi, i contenuti salaci e la flagrante disinformazione vengono rimossi solo quando sono già diventati virali. In quanto tale, distorcono le notizie basate sull’evidenza e interrompono il ciclo di notizie nazionale. 

A.3. Le informazioni fondamentali per la sopravvivenza delle democrazie non possono competere con la disinformazione motivata alimentata da piattaforme sempre più influenti e algoritmi basati sull’intelligenza artificiale.

Le informazioni fondamentali per la sopravvivenza delle democrazie non possono competere con la disinformazione motivata alimentata da piattaforme sempre più influenti e algoritmi basati sull’intelligenza artificiale.

Quando agiscono per contrastare la disinformazione e penalizzare gli sbocchi in questione, i governi e i legislatori dovrebbero guardare sia alle soluzioni esistenti, come l’applicazione delle leggi sulla protezione dei consumatori o sulle molestie online, sia a soluzioni basate sull’intelligenza artificiale orientate al futuro, abbinate con un solido rafforzamento delle capacità, formazione e supervisione del governo.

Con l’emergere di nuove tecnologie e nuove forme di media, i modelli di governance esistenti, inclusa la democrazia, vengono messi in discussione. 

La nuova tecnologia dell’informazione ricabla fondamentalmente le società e l’effetto della tecnologia sulla governance non può essere sottovalutato. 

A.4. Insieme alla disintermediazione, stanno emergendo una crisi di verità e una crisi di percezione, amplificate dal potere persuasivo delle nuove applicazioni di intelligenza artificiale che possono portare a un’asimmetria informativa paralizzante che minaccia le democrazie

Insieme alla disintermediazione, stanno emergendo una crisi di verità e una crisi di percezione, amplificate dal potere persuasivo delle nuove applicazioni di intelligenza artificiale che possono portare a un’asimmetria informativa paralizzante che minaccia le democrazie, secondo Aza Raskin (Co-fondatrice, Center for Humane Technology and Earth Progetto Specie). 

Sempre più spesso, utilizzando AI, piattaforme tecnologiche come Google, Facebook e Twitter dispongono di maggiori informazioni sull’identità di una persona e sulla conoscenza della sua storia decisionale rispetto ai tradizionali consulenti personali fiduciari come medici, avvocati o banchieri. 

Spesso tali dati vengono raccolti in modi che non violano le norme sulla privacy esistenti, ma vengono utilizzati per prevedere i risultati in un modo sconosciuto o frainteso dall’utente e dal pubblico in generale. 

A.5. I modelli di governance democratici sono sempre più in competizione con l’autoritarismo digitale che sta emergendo come un modello alternativo percorribile

La protezione dei valori democratici fondamentali come la libertà di espressione e la dignità umana non può più essere garantita i modelli di governance democratici sono sempre più in competizione con l’autoritarismo digitale che sta emergendo come un modello alternativo percorribile.

A.6. Utilizzare la tecnologia per ottimizzare i contenuti e colmare le lacune nella percezione che spesso portano alla divisione e alla polarizzazione

Una soluzione promettente potrebbe non risiedere nel tentativo di arginare l’ondata di disinformazione e polarizzazione, ma utilizzare la tecnologia per ottimizzare i contenuti che ci consentono di vedere l’altro lato di un dibattito sociale in modo più diretto, senza distorsioni. Ciò consentirebbe di colmare le lacune nella percezione che spesso portano alla divisione e alla polarizzazione.


https://www.europarl.europa.eu/cmsdata/237000/Working%20Paper%20on%20AI%20and%20the%20Future%20of%20Democracy.pdf

B) La regolamentazione europea sull’Intelligenza Artificiale: i documenti fondamentali

1) Commissione europea, Bruxelles, 21 aprile 2021

Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione
https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0006.02/DOC_1&format=PDF

2) Parlamento europeo, Strasburgo, 3 maggio 2022

Risoluzione sull’intelligenza artificiale in un’era digitale
https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_IT.html

3) Consiglio dell’Unione europea, Bruxelles, 25 novembre 2022

Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione – Orientamento generale
https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/it/pdf
Comunicato stampa
https://www.consilium.europa.eu/it/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/

Redazione

Lo studio legale Giurdanella & Partners dedica, tutti i giorni, una piccola parte del proprio tempo all'aggiornamento del sito web della rivista. E' un'attività iniziata quasi per gioco agli albori di internet e che non cessa mai di entusiasmarci. E' anche l'occasione per restituire alla rete una parte di tutto quello che essa ci ha dato in questi anni. I giovani bravi sono sempre i benvenuti nel nostro studio legale. Per uno stage o per iniziare la pratica professionale presso lo studio, scriveteci o mandate il vostro cv a segreteria@giurdanella.it