Se pensate che il chatbot con cui avete interagito stamane non fosse abbastanza intelligente, o che il vostro assistente vocale potrebbe fare di più, non sentitevi in colpa. Dopotutto, non è poi così anomalo avere a che fare con un software e avvertirlo come persona. In un certo senso, pensante. E per pensare, ci vuole cervello.
Arguzia e giochi di parole non sono solo decorazioni nella mente; sono segni essenziali che la mente sa che è attiva, riconosce il proprio software, può individuare i bug nel proprio programma.
Adam Gopnik, scrittore.
Il dubbio che possano anche sentire è tornato al centro del dibattito di recente, a seguito del caso di Blake Lemoine. Il progetto di Google LaMDA (Language Model for Dialogue Applications), secondo questo ingegnere salito all’onore delle cronache, avrebbe manifestato segni di consapevolezza della sua esistenza. La vicenda ha sollevato un clamore notevole.
Ma ha anche riportato l’attenzione sul concetto di rete neurale: LaMDA è una tecnologia di conversazione costruita su un’architettura di rete neurale che Google Research ha inventato e reso open source nel 2017, Transformer.
Molti concetti, fra cui anche quello di rete neurale (artificiale), sono diventati più noti al grande pubblico negli ultimi anni. Il tema è tecnico e, a volte, il rischio è quello di fare confusione. Le reti neurali costituiscono l’ossatura degli algoritmi di deep learning, un sottoinsieme del machine learning. Il machine learning, a sua volta, rientra nell’insieme più vasto dell’intelligenza artificiale.
Quel paragone costante con il cervello
Se la parola neurale rimanda al sistema nervoso centrale, un motivo ci sarà.
Il paragone con il cervello umano nasce dalla loro struttura: le reti neurali artificiali sono costituite da nodi, neuroni artificiali, che, semplificando, possono inviare o meno dati al successivo livello della rete.
Il punto di contatto con il cervello non ha a che fare solo con il tema della struttura (nodi per entrambi) ma anche con il processo di apprendimento. Come spiegava qui il CNR, «così come nel nostro cervello il processo di apprendimento è basato sul riarrangiamento delle connessioni tra i neuroni, le reti neurali artificiali possono essere allenate su un insieme di dati noti che ne modificano la struttura interna, rendendola capace di svolgere compiti umani quali il riconoscimento di un volto, l’interpretazione di immagini mediche per diagnosticare malattie e persino la guida di un’automobile».
Le informazioni si sedimentano con un processo di apprendimento in cui varia la qualità dei set di dati forniti, ma non l’obiettivo generale: identificare funzioni o regole valide per arrivare a un risultato richiesto.
Il cervello lavora per risolvere problemi, piccoli o complessi, e così fanno gli algoritmi basati sulle reti neurali (che si distinguono in ricorrenti, convolazionali, ecc). Ci aiutano nei processi decisionali, in quelli previsionali e in generale in tutte le situazioni dove vanno astratti schemi, relazioni e generalizzazioni.
Le reti neurali artificiali sono l’architrave del deep learning e il concetto di profondità fa riferimento alla presenza di livelli multipli rispetto a una rete neurale di base.
Sono numerose le applicazioni che vertono su questi modelli di calcolo. Ma a solleticare l’immaginario del pubblico, e il dibattito, sono quelli che elaborano, a vario titolo, il linguaggio. Un recente articolo sul New York Times Magazine -dal titolo A.I. Is Mastering Language. Should We Trust What It Says? – raccontava le competenze di GPT-3, lo strumento intelligente di Open AI, «addestrato per scrivere sceneggiature hollywoodiane e comporre saggistica nello stile del classico del New Journalism di Gay Talese». Lo stupore per questi strumenti potrebbe finire lì, presa coscienza di quello che sanno e non sanno (ancora) fare. C’è anche chi li paragona a “pappagalli stocastici”, buoni a remixare materiali già esistenti ma senza una conoscenza reale del mondo.
Ma, uno sguardo più ampio serve, se pensiamo che un domani potrebbero sostituire altri strumenti a cui siamo abituati (da Wikipedia ai motori di ricerca).
Pensavamo che Facebook fosse innocua: ci aveva fatto ritrovare gli amici delle elementari. Abbiamo poi scoperto che è in grado di influenzare i processi di voto nelle democrazie avanzate. Cosa temere, quindi, da un tool che parla come il cervello di Gay Talese?