Penso, dunque non calcolo

Paolo Giovine
6 min readMar 12, 2023

--

New Yorker, 2013

Nel 1979 Douglas R. Hofstadter, grande studioso di intelligenza artificiale, un genio poliglotta formatosi a Stanford, scrisse “Gödel, Escher, Bach: an Ethernal Golden Braid”, tradotto nel 1984 in Italia da Adelphi; il libro ha influenzato decine e decine di ricercatori, a partire da Melanie Mitchell, autrice dell’indispensabile “Artificial Intelligence” del 2019.

Hofstadter dedicò un capitolo a “dieci domande sull’intelligenza artificiale e relativi tentativi di risposta”. Una delle domande è: “un calcolatore che pensa sarà in grado di fare addizioni rapidamente?” Il “tentativo di risposta” è “forse no”, perché secondo Hofstadter una macchina pensante, capace probabilmente di superare brillantemente il test di Turing, assocerebbe i numeri oggetto del calcolo non solo a dei bit, ma anche, ad esempio, a caratteristiche “fonetiche” (l’esempio che fa è “due”, che ricorda “tue” e “bue”), concettuali (“coppia” e “doppio”), visive (il pezzo del domino con due pallini) ed anche sofisticherie come “pari e dispari” et cetera. Un lungo elenco di pensieri che riducono la nostra velocità “computazionale”, rallentando il calcolo; per questo, da tempo, utilizziamo delle calcolatrici (“affidabili ma stupide”) che compensano le nostre intelligenze, meravigliose ma fallibili.

Melanie Mitchell, dopo 40 anni, ci spiega che oggi rispondiamo a quella domanda allo stesso modo, e che probabilmente continueremo a farlo ancora per parecchio tempo; all’intelligenza artificiale continuano a mancare la conoscenza di senso comune, l’astrazione e l’analogia, che rimangono inafferrabili. L’intelligenza artificiale non ha l’esperienza del corpo, che è quella che, per tornare all’esempio di prima, a “due” associa istintivamente il conto di due orecchie, occhi, braccia, gambe: noi abbiamo un’esperienza mediata dalla nostra corporeità, concetto che ha peraltro ispirato tutto il filone sui cyborg, ovvero cervelli “aumentati” ma collegati ad una dimensione fisica.

Un cyborg cinematografico, Terminator

La complessità del nostro cervello in buona parte ci sfugge, e probabilmente avremo intelligenze artificiali simili alla nostra quando sapremo definire “simili” esattamente: oggi fatichiamo a capire davvero come pensiamo, ed anche sull’apprendimento o sull’intuito ancora abbiamo da fare tantissima strada. Siamo molto colpiti dalle capacità di calcolo e di analisi dei dati delle macchine, che ci superano facilmente sul fronte “quantitativo”, ma qualsiasi sforzo creativo, per quanto affascinante, appare ancora come una variante, anche apprezzabile, di prodotti alla portata dei nostri neuroni.

Le possibili “deviazioni” dell’intelligenza artificiale ci pongono tantissimi problemi, etici e non solo, che spostano spesso il dibattito sulle cose che “potrebbero andare male”; Mitchell, citando Pedro Domingos, altro grande esperto di AI, ricorda che i veri problemi oggi sono causati dalla stupidità delle macchine e non dalla loro eccessiva intelligenza. Il mondo ha messo nelle mani di macchine “stupide” molte attività, e ce ne accorgiamo quando ci arriva una “cartella pazza”, quando vengono censurati su Facebook commenti assolutamente innocui, quando decine di analisti e tecnici e software non sanno prevedere il crollo di una banca.

L’esempio delle auto a guida autonoma definisce un problema classico, ad oggi non risolto: l’intelligenza artificiale che guida un’auto viene addestrata su milioni di casi, ma non su tutti i casi possibili (che sono infiniti, è il problema della “coda lunga”): che cosa succede se un’auto che va a 100km all’ora si trova davanti un pupazzo di neve, magari con una bella carota come naso? Un guidatore umano ovviamente sarebbe certo di poter travolgere il pupazzo, sperando che non nasconda un’anima in ferro (ma sarebbe davvero sfortuna); un’intelligenza artificiale addestrata per la guida probabilmente stabilirebbe che si tratta di un ostacolo, e tenterebbe una manovra evasiva; mancandole la capacità di “pensiero generale”, sfuggendole il contesto, non avendo abbastanza casistica opterebbe per la soluzione più probabile, escludendo presumibilmente quella più sicura.

Oggi la grande sfida è quella di riuscire a far generalizzare l’apprendimento dell’AI, e presumibilmente questo avverrà quando potrà imparare da sola: questo però, è lapalissiano, la sottrarrà completamente al nostro controllo e, per dirla con Kubrick, non è detto che la scelta più razionale non preveda l’estinzione del genere umano…

HAL 9000, il computer intelligente di Kubrick (2001. Odissea nello spazio)

Tutto questo dibattito, molto teorico e complesso, non riguarda molte delle occupazioni ad alta specializzazione dell’intelligenza artificiale, che può imparare a fare bene alcune cose, e solo quelle, ed esserci così di grande aiuto.

In queste settimane si è parlato moltissimo di chatGPT, DALL-E, midjourney, ovvero di strumenti che possono scrivere testi, disegnare, preparare video; ci siamo ricordati di tool di traduzione sempre più sofisticati (da Deepl a Google Translate), del riconoscimento dei volti, che pone più di un problema etico, e delle applicazioni che riguardano i dati, usate troppo spesso per mere finalità commerciali.

Ho notizia da fonte diretta di riunioni internazionali di editori e “content provider” allarmati dalla possibilità che chatGPT 4 (in arrivo) possa invadere la rete con milioni di contenuti in concorrenza con quelli venduti oggi, sempre meno sulla carta sempre più sul digitale; i giornali, soprattutto nostrani, sono molto concentrati su questi scenari. Meritandosi la mia attenzione se la preoccupazione è, ad esempio, su che cosa potrebbe fare un Trump con un arsenale di intelligenze artificiali produttrici di fake news; con mio scarso interesse se l’obiettivo è di opporre un luddismo strumentale alle novità che si affacciano sul mercato; se la qualità degli articoli è mediocre, se si copiano agenzie o giornali stranieri, se si riempiono le pagine di retroscena parlamentari mortalmente noiosi, allora forse chatGPT è l’ultimo dei problemi, e cercare di dimostrare che AI “copia”, “inganna” o “ruba il lavoro” non aiuterà. Anche perché, come visto sopra, AI non sa fare queste cose.

Il New York Times di qualche giorno fa racconta benissimo l’utilità dell’Intelligenza Artificiale, che permette ad esempio di migliorare sensibilmente le diagnosi di cancro, leggendo al meglio le piccole anomalie presenti nelle radiografie, che possono sfuggire all’occhio umano più attento. L’intelligenza artificiale aiuta quella umana laddove serva poter guardare meglio una lastra e utilizzare velocemente una casistica superiore a quella accumulata da un solo esperto; il radiologo allora procede con verifiche più approfondite, come una biopsia, e migliora del 13% circa la sua capacità di curare i tumori in tempo utile. Significa salvare più vite umane salvate, e risparmiare anche mediamente un 30% del tempo, utilmente impegnabile altrove.

Il climate change si combatte anche con modelli predittivi affidabili, gli unici che possono dare risposte serie, ad esempio, all’ipotesi di vietare le auto non elettriche dal 2035: oggi è necessario elaborare analisi che permettano di stimare l’impatto economico delle decisioni, e che definiscano così un corretto equilibrio tra esigenze improrogabili del pianeta e ridisegno di interi settori economici.

Analogamente è fondamentale ragionare su modelli sociali perequativi, il mondo non può più dividersi tra ricchi sempre più ricchi e poveri sempre più emarginati: non ho notizia di start-up che utilizzino l’intelligenza artificiale per potenziare la ricerca di soluzioni a questi problemi, mentre sarebbe fantastico poter simulare rapidamente la rimodulazione di fiscalità, incentivi, redditi di cittadinanza o di sopravvivenza. Non per favorire la tecnocrazia, che peraltro da decenni influenza governi e cultura, ma per ribaltarne il paradigma: le improvvisazioni dei miliardari nel metaverso, le bizzarrie social di geniali megalomani, i guadagni paradossali di grandi benefattori, sono tutti “modelli” da confinare nel passato, che ogni giorno di più dichiarano la propria debolezza.

Oggi il mondo ha bisogno di ragazzi preparati che non cerchino una exit per sé, ma un reale impatto, ovvero una “exit” per i problemi sempre più impegnativi con cui il mondo dovrà confrontarsi.

Non ci servono necessariamente intelligenze superiori, ma certamente un modo diverso di utilizzarle.

--

--

Paolo Giovine

È facile risolvere i problemi quando non sono i tuoi.