Capacità semantica o solo sintattica? Perché nell’era dell’AI abbiamo ancora (più) bisogno di umanesimo

0
190

L’articolo di prof. A. Pizzichini sul Blog dell’Accademia Alfonsiana

«Sebbene l’IA [intelligenza artificiale] possa simulare alcuni aspetti del ragionamento umano ed eseguire certi compiti con incredibile velocità ed efficienza, le sue capacità di calcolo rappresentano solo una frazione delle più ampie possibilità della mente umana. Ad esempio, essa non può attualmente replicare il discernimento morale e la capacità di stabilire autentiche relazioni» (AN, n. 32).

Così la recente Nota Antiqua et nova, firmata congiuntamente dai Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione (qui). Un modo sintetico, ma probabilmente efficace, per rimarcare una delle differenze tra intelligenza umana e AI è che la prima ha «capacità tipicamente umane di comprensione semantica e di produzione creativa» (ibid., n. 22), mentre la seconda sarebbe confinata all’ambito formale o sintattico, non potendo far altro che calcoli logico-matematici. Si tratta di un argomento utile per evitare “equazioni” troppo frettolose, anche se può scontrarsi con l’esperienza che ciascuno di noi può avere con i chatbot di ultima generazione, che nei compiti “intelligenti” (cioè che presuppongono abilità presumibilmente legate alla comprensione) si stanno rivelando sempre più performanti, anche più dei concorrenti umani (qui).

Allora il fatto che l’AI sia una sofisticata “calcolatrice” è solo una metafora semplicistica, che ci aiuta a cullarci in un complesso di superiorità che ben presto finirà schiacciato dall’evidenza? Ora, il fatto che l’AI sia di carattere “sintattico” non significa che agisca in modo rigido tramite regole pre-impostate, che renderebbero le sue uscite scontate e ripetitive. Questa aspettativa si basa forse su una certa concezione dualistica della distinzione tra significante e significato di una parola: da una parte, cioè, ci sarebbe il segno, grafico o parlato, della parola (il significante), di natura puramente convenzionale, mentre dall’altra si troverebbe il contenuto, l’idea espressa dal termine (il significato), accessibile esclusivamente a una mente capace di coglierlo. 

In realtà, il significato dei termini in qualche modo influenza il rispettivo significante. Infatti, i vari significanti sono, sì, convenzionali, ma il loro uso non è arbitrario, essendo determinato proprio dal significato delle parole: ciò fa sì che sussista una rete di relazioni tra le parole in una data lingua, ad esempio associazioni del tipo sostantivo-aggettivo oppure capitale-Stato, identificabili attraverso le concrete ricorrenze nei vari testi. In altre parole, se si riesce in qualche modo a ricostruire le relazioni di cui sopra, è possibile compiere alcune operazioni di carattere “semantico” anche senza possedere una coscienza o un pensiero. Pertanto, in ambito automatizzato, ciò che si avvicina di più all’operazione di cogliere il significato di un termine è quella di identificare la rete di relazioni in cui si inserisce il termine stesso. Per cui, pensando per esempio a un transformer (l’algoritmo che è il “motore” degli attuali chatbot avanzati), esso associa dei punteggi numerici a determinate parole, che permettono così di ricostruirne il contesto e le relazioni con altri termini (tecnica nota come Word embeddingqui). Si tratta di un’operazione per nulla facile, dato che il contesto di una parola o di una frase può essere anche molto ampio e complesso, addirittura gerarchicamente strutturato. Una volta risolto il problema del contesto, segue il calcolo delle probabilità e la costruzione delle frasi (qui).

Tali tecniche permettono agli algoritmi, ad esempio, di fare riassunti “intelligenti” di un brano o di saper cogliere concetti o idee principali in un testo, che danno l’impressione di una vera e propria comprensione e non di una semplice manipolazione “sintattica”. Ma così non è: le operazioni che esso compie sono sintattiche nel senso che l’algoritmo lavora in termini di calcoli e associazioni formali, estrinseche, e sull’efficacia di questo processo hanno grande importanza l’addestramento e il successivo fine tuning, proprio al fine di determinare la corretta rete di relazioni tra le parole di una lingua. In un nostro testo recente (qui), ci siamo riferiti a queste capacità dell’AI qualificandola come «mente oggettiva» o «struttura di pensiero». Certo, se si immagina che anche noi non siamo altro che computer con hardware biologico, in quanto il nostro cervello non farebbe altro che elaborare informazioni come un qualsiasi elaboratore dati, tutte queste distinzioni non appaiono altro che dei bizantinismi.

In effetti, è ben possibile essere ingannati dalle mirabolanti prestazioni dell’AI, soprattutto se si perde il senso della persona e della verità. E questo ci porta sul terreno dell’antropologia – prima ancora che quella teorica, si intende qui quella vissuta. Ciò che fa la differenza tra una struttura di pensiero e il pensiero in sé è l’intenzionalità, l’apertura alla verità (cf. AN, nn. 21-23): prova ne sono le cosiddette “allucinazioni” dei chatbot, che non sono dei malfunzionamenti, ma espressione del loro funzionamento (qui), il quale punta a un adattamento ottimale a una certa situazione in base a un determinato obiettivo. 

Prima ancora che perdersi in astratte distinzioni teoriche, quindi, è di fondamentale importanza non perdere il contatto con la nostra tradizione “umanistica”, con il senso di “chi siamo”. Questo è il compito ultimo dell’educazione, dell’istruzione e della formazione in generale (tutti concetti che rientrano nel termine inglese education): suscitare e coltivare il senso della persona e della verità, la cui perdita è il vero pericolo da cui guardarsi, che può fare dell’AI un’arma micidiale che l’umanità rivolge contro se stessa invece di uno strumento formidabile per l’umanizzazione del mondo.