“L’Ora Legale” sull’Intelligenza Artificiale generativa

Per recuperare la puntata, clicca qui.

Il secondo appuntamento del webinar di approfondimento giuridico, “l’Ora Legale“, condotto da Santo Fabiano e Carmelo Giurdanella è stato interamente dedicato al fenomeno tecnologico dell’I.A.

Perché occuparsi di questo argomento se l’Intelligenza Artificiale esiste da decenni?

Una risposta efficace (oltreché autorevole) è rinvenibile nel discorso di fine anno del Presidente della Repubblica, Sergio Mattarella, che ha parlato della crucialità di regolamentare l’uso dell’Intelligenza Artificiale, quale strumento dotato di innumerevoli potenzialità ma altresì capace di incidere in maniera importante sulle libertà e i diritti dei cittadini.

La declinazione sicuramente più “popolare” di intelligenza artificiale, nella sua versione attuale (“generativa”), è rappresentata da ChatGPT, che in pochissimo tempo, dal suo lancio avvenuto alla fine del 2022, è riuscita ad arrivare a milioni di persone, rendendo uno strumento complesso – quale l’I.A. – fruibile da parte di chiunque.

Secondo l’avvocato Guido Scorza, componente del Garante Privacy, ospite della puntata, il punto di forza di ChatGPT è stata l’interfaccia semplice e facilmente accessibile; in altri termini, l’usabilità – ossia la semplicità – ha fatto di ChatGPT (e delle applicazioni analoghe) uno strumento di massa, con le conseguenti attenzioni da parte dei Regolatori, in tutto il mondo.

Anche la P.A. è coinvolta in quella che è a tutti gli effetti definibile come una rivoluzione tecnologica di portata straordinaria; secondo Elio Guarnaccia – avvocato amministrativista e secondo ospite della puntata – prima ancora che il legislatore europeo e quello italiano decidessero di regolamentare l’Intelligenza Artificiale, il funzionario pubblico ne faceva già uso per la redazione di atti o provvedimenti, senza che ciò avesse effetti eclatanti.

Dunque, se anche all’interno degli apparati amministrativi l’uso di intelligenza artificiale è stato sdoganato da anni, quello che manca è un’adeguata formazione dei dipendenti, che devono diventare fruitori attenti e responsabili (più di chiunque) di questa nuova tecnologia, al fine di ridurre quanto più possibile il rischio di ricadute negative sui destinatari della decisione algoritmica

In questo periodo, si è fatto un gran parlare dell’I.A. Act, draft normativo in attesa della definitiva approvazione da parte del Consiglio europeo; si tratta del primo atto legislativo al mondo in materia di I.A. e rappresenta lo strumento con cui l’Unione europea cerca di colmare il gap esistente con altri Stati che si trovano in prima fila nella ricerca e sviluppo di nuove tecnologie.

L’I.A. Act ha un approccio basato sul rischio, distinguendo gli obblighi cui sono sottoposti gli utilizzatori di I.A. a seconda dei profili di rischio che caratterizzano la loro attività.

La vera domanda, ha osservato Guido Scorza, riguarda la reale capacità di un provvedimento legislativo (che entrerebbe a pieno regime solo tra due anni) di disciplinare in maniera efficace un fenomeno come l’intelligenza artificiale, la quale si evolve con una rapidità che rischia di rendere obsolete le regole in materia anzitempo.

A livello nazionale, il Governo italiano ha proposto un disegno di legge sull’intelligenza artificiale destando non pochi interrogativi circa l’opportunità di intervenire legislativamente prima dell’approvazione del Regolamento europeo.

Il tema che si impone all’attenzione dei primi commentatori del disegno di legge riguarda l’assetto adottato in materia di controllo e vigilanza dell’uso dell’intelligenza artificiale; infatti, l’I.A. Act prevede l’obbligo per gli Stati membri di individuare un’Autorità nazionale di vigilanza.

Il disegno di legge designa l’Agenzia per la cybersicurezza nazionale e l’AgId come responsabili della corretta applicazione della disciplina in materia di intelligenza artificiale, scelta quanto meno singolare se si pensa che si tratta di Agenzie diretta propalazione del Governo, diversamente dalle scelte compiute in passato ove il ruolo di vigilanti, a seconda del settore, è stato assegnato ad Autorità indipendenti come AGCOM (per il Digital Services Act), AGCM (per il Digital Markets Act) e il Garante della privacy (per il GDPR).

Ma se davvero l’intelligenza artificiale entrerà a pieno titolo anche nei processi decisionali delle nostre amministrazioni, se il provvedimento amministrativo, l’aggiudicazione di una gara d’appalto saranno il frutto della decisione algoritmica, che ruolo avrà l’uomo/funzionario?

I predetti testi normativi propugnano una visione antropocentrica dell’intelligenza artificiale che deve fungere da strumento nelle mani dell’uomo, destinato a rimanere dominus del processo decisionale.

Invero, secondo Guido Scorza, tali previsioni rischiano di dire più di quanto si possa effettivamente realizzare, in quanto è difficile immaginare che una soluzione algoritmica venga contestata e modificata da un funzionario.

Una concretizzazione del problema sopra posto è rappresentata dall’uso dell’intelligenza artificiale nel settore degli appalti; il nuovo codice 36/2023 incoraggia l’uso di nuove tecnologie al fine di aumentare l’efficienza delle stazioni appaltanti e prevede il ricorso a dette tecnologie sin dall’1 gennaio 2024.

Tuttavia, se da un lato l’art. 30 del d.lgs. 36/2023 parla di automazione dei procedimenti di aggiudicazione mediante l’intelligenza artificiale, dall’altro pone la cd. “riserva di umanità”, ossia richiede che il funzionario mantenga il predominio della decisione algoritmica. È difficile immaginare come possa coniugarsi l’esigenza di semplificare procedimenti complessi con quella di garantire un ruolo attivo all’uomo proprio per le ragioni di cui sopra, ossia la difficoltà (oltre alla responsabilità che ne conseguirebbe) nel contestare della soluzione individuata dall’algoritmo.

Di conseguenza, quanto più difficile sarà verificare la correttezza della decisione algoritmica, tanto più impossibile sarà garantirne il sindacato giurisdizionale.

Consapevoli del fatto che il tema dell’Intelligenza Artificiale sia gravido di conseguenze importantissime sotto più punti di vista, possiamo sin d’ora anticipare che continueremo a parlarne nel corso dei nostri appuntamenti settimanali.

Abbiamo parlato di A.I. Act qui.

Abbiamo parlato del disegno di legge sull’Intelligenza Artificiale qui.

Vi aspettiamo alla prossima puntata de “L’ora legale” di venerdì 24 maggio alle ore 15!

Redazione

Lo studio legale Giurdanella & Partners dedica, tutti i giorni, una piccola parte del proprio tempo all'aggiornamento del sito web della rivista. E' un'attività iniziata quasi per gioco agli albori di internet e che non cessa mai di entusiasmarci. E' anche l'occasione per restituire alla rete una parte di tutto quello che essa ci ha dato in questi anni. I giovani bravi sono sempre i benvenuti nel nostro studio legale. Per uno stage o per iniziare la pratica professionale presso lo studio, scriveteci o mandate il vostro cv a segreteria@giurdanella.it