C’è un passatempo che mi appassiona particolarmente in questi ultimi anni: proporre test logici alle intelligenze artificiali per sondare le finezze e i limiti delle loro capacità cognitive. Nulla di rigorosamente scientifico, solo un piacevole diversivo, mentre c’è chi ha svolto analisi più serie in questo campo.
Gli esperimenti di chi ha provato ad attribuire un quoziente intellettivo ai Large Language Models finora hanno fornito esiti molto variabili, ma con valori sempre tendenzialmente elevati. Per esempio, la giornalista Eka Roivainen di Scientific American, nel marzo del 2023 ha somministrato a ChatGPT uno dei più validi test per il calcolo del quoziente intellettivo, la Wechsler Adult Intelligence Scale, riscontrando un valore di 155, ampiamente superiore alla media degli esseri umani adulti, che è pari a 100.
In verità, occorre osservare che gli esperimenti sul quoziente intellettivo delle intelligenze artificiali si prestano facilmente a legittime perplessità e obiezioni, perché le prove sono normalmente adattate alla natura non-umana delle entità a cui sono somministrate. Il dubbio circa il fatto che la macchina sia consapevolmente o inconsapevolmente aiutata, è stato sollevato fin dai tempi della sfida scacchistica fra Garry Kasparov e Deep Blue del 1997, e anche nel caso del più recente esperimento di Eka Roivainen, è stata lei stessa – oltre a dichiarare l’intento giornalistico e non scientifico – ad affermare che il test è stato limitato alle domande di tipo verbale, considerato che una chatbot (almeno per adesso) “non ha gli occhi, le orecchie e le mani necessarie”. Il risultato, comunque, anche al netto di questa “personalizzazione” del questionario, appare almeno in parte valido e significativo.
Tornando ai test – meno rigorosi ma certamente dilettevoli – che a molti di noi piace far svolgere alla macchina per puro passatempo, la percezione diffusa è la variabilità nella bontà delle risposte. Molte volte l’intelligenza artificiale sorprende per la capacità di rispondere con sicurezza ed esattezza a sfide logiche insidiose, altre volte, invece, incespica su quesiti apparentemente semplici, come contare il numero di lettere di una parola.
Comunque, a prescindere dai singoli esiti, affrontare, anche per gioco, questo tipo di dialoghi in forma di “sfida” può essere importante per molti motivi.
Anzitutto, per una ragione storico-filosofica, perché ogni volta che dialoghiamo con un’intelligenza artificiale, anche se imperfetta, possiamo sentirci fortunati nel compiere qualcosa per cui Alan Turing avrebbe probabilmente dato tutto ciò che aveva, per avere la possibilità di poterlo fare anche per soli cinque minuti.
In secondo luogo, intraprendere questo tipo di dialoghi in forma di “sfida” con le chatbot è importante in quanto ci consente di assumere la consapevolezza che l’intelligenza artificiale non è un “prodotto finito”, ma è un’entità in formazione. È qualcosa da conoscere nel suo plasmarsi, da esplorare nel suo essere “in fieri” per sondarne i limiti e per coglierne i progressi. In fondo, le attuali piattaforme come Gemini, ChatGPT, Copilot e DeepSeek costituiscono probabilmente il brodo primordiale di qualcosa che sta appena nascendo, e come tali vanno considerate.
Certamente, sperimentare l’intelligenza artificiale e sottoporla a sfide non dovrebbe condurre né a temerla quando è incredibilmente precisa, né a “denigrarla” quando sbaglia clamorosamente. Dovrebbe indurci semplicemente a conoscerla, per usarla nel modo più consapevole e più corretto possibile.
Questa filosofia, se riguarda certamente l’approccio delle singole persone, deve caratterizzare anche l’utilizzo delle intelligenze artificiali da parte delle grandi organizzazioni pubbliche e private e, fra esse, soprattutto le grandi piattaforme web.
Anzi, in quel caso agire sulla conoscenza dei limiti delle intelligenze artificiali è determinante, perché sappiamo bene come le imperfezioni dei sistemi di machine learning possano condurre a stereotipi e preconcetti, quando per esempio la macchina non è grado di distinguere i nessi di causalità da quelli di correlazione, oppure non sa contestualizzare le frasi, e compie errori che talvolta innescano un effetto-domino e giungono a creare vere e proprie discriminazioni sociali (bias anche molto “umani”, purtroppo, che però, come è ben noto, la macchina tende a replicare).
Dunque, quello che per un utilizzatore comune può essere un gioco o un passatempo – ovvero mettere alla prova l’intelligenza artificiale con delle sfide – per le grandi organizzazioni del web è qualcosa di fondamentale per la garanzia dei diritti delle persone.
Questo aspetto è presente nelle norme attuali. Il Digital Services Act dell’Unione Europea del 2022 enuclea la consapevolezza di questo problema in una disposizione specifica, nella quale è presente una parola che, se ad una lettura veloce passa in secondo piano, ha in realtà un peso specifico enorme: “sperimentazione”.
Nell’articolo 34, come sappiamo, si prevede che le Very Large Platforms – ovvero i “colossi del web” – devono effettuare una valutazione circa il rischio che i loro sistemi possano produrre “eventuali effetti negativi … per l’esercizio dei diritti fondamentali”. Fra gli “effetti negativi”, rientrano certamente le discriminazioni algoritmiche. All’articolo 35 si stabilisce quindi che, una volta identificato il rischio, le Big Tech devono attuare diverse contromisure, fra cui “la sperimentazione e l’adeguamento dei loro sistemi algoritmici”.
In tutto questo vi è una parola-chiave, “sperimentazione”, che ha un rilievo enorme, perché rappresenta la più efficace leva per neutralizzare gli eccessi e le intemperanze degli algoritmi.
In sostanza, in base alla norma del Digital Services Act, le intelligenze artificiali devono essere sottoposte a esperimenti orientati a “metterle alla prova”, per esempio a stress-test che simulino l’inserimento nei social di commenti che potrebbero essere cancellati ingiustamente per errori algoritmici. Una volta verificato come il sistema reagisce, e chiarito dove e come eventualmente la macchina sbaglia, la norma chiede di procedere con “l’adeguamento” dei sistemi algoritmici, cioè l’intervento diretto sui codici sorgente per curare la patologia individuata in capo all’intelligenza artificiale.
Quindi, in quella parola del Digital Services Act, “sperimentazione”, è racchiusa un’intera filosofia del rapporto uomo-macchina, che è giusto emerga il più possibile.