INTELLIGENZA ARTIFICIALE ED EMPATIA: REALTÀ O FINZIONE?
GIACOMO DI PERSIO
Negli ultimi 70 anni la nostra tecnologia è cresciuta più di quanto sia cresciuta nella totalità dei millenni precedenti. Siamo passati dall’analogico al digitale in un tempo relativamente breve, tramite una sorta di quarta rivoluzione industriale che ci ha catapultato in un’epoca quasi fantascientifica. Ma c’è un settore tecnologico che, primo tra tutti, sta crescendo esponenzialmente: quello legato all’intelligenza artificiale. Il termine “intelligenza artificiale” non è così recente come si possa pensare, tutt’altro, quest’ultimo nasce già nel 1956, durante il convegno passato alla storia come Dartmouth Summer Research Project on Artificial Intelligence. Prima di questa data, si parlava di calcolatori molto potenti (pensiamo alla macchina di Turing), ma mai di sistemi propriamente intelligenti. Uno dei primi modelli di intelligenza artificiale fu il Logic Theorist, ideato da Allen Newell e Herbert Simon, i quali erano entrambi interessati alle idee sulla risoluzione di problemi mediante il ragionamento mezzi-fini basato sulle euristiche. Inoltre, Newell e Simon sfruttarono la capacità del computer di manipolare i simboli per simulare il pensiero umano. Tutto ciò dovrebbe rendere chiaro l’obiettivo della ricerca sull’intelligenza artificiale: creare macchine capaci di riprodurre precisamente le caratteristiche del cervello umano.
Oggi la ricerca sull’intelligenza artificiale è molto più avanzata, sebbene possiamo affermare che sia facile riprodurre le capacità logico-razionali umane, mentre che sia molto più complesso riprodurre quelle emotive e creative. E’ possibile creare una macchina realmente intelligente capace di provare empatia o addirittura di ironizzare? Se sì, c’è il rischio che questa finga di provare ciò che prova poiché rimane soltanto una mera esecutrice di un programma?
Nel 1972, il filosofo Hubert Dreyfus pubblicò Che cosa non possono fare i computer, saggio che si interroga sulla differenza sostanziale tra computer e esseri umani. Per Dreyfus i computer non possiedono, al contrario degli umani, tolleranza per l’ambiguità, un potenziale di noia e fatica, fini e bisogni chiari e un corpo che organizza e unifica la propria esperienza. Per Dreyfus era impensabile poter parlare di macchine capaci di provare empatia. Tuttavia, nella seconda edizione del suo saggio, Dreyfus ammette che, in pochissimo tempo, la ricerca sull’intelligenza artificiale era arrivata ad adottare schemi e forme di organizzazione capaci di incorporare l’approccio umano all’esperienza. Del resto, qualche anno più tardi, la scienziata cognitiva Margaret Boden (tra le personalità di spicco della ricerca sull’intelligenza artificiale), in Mente umana mente artificiale (1981) scrive:
“Basti dire che esistono già programmi in grado di fare delle cose – o, quanto meno, che pare comincino a fare delle cose –, di cui critici male informati avevano affermato a priori l’impossibilità. Fra gli esempi in proposito si possono citare: la percezione in modo olistico in contrapposizione a un modo atomistico; una traduzione accettabile da una lingua a un’altra per mezzo di una rappresentazione semantica non appartenente a nessuna lingua; atti di pianificazione in un modo molto generale e a grandi linee, con i particolari che vengono decisi solo al momento dell’esecuzione; la distinzione fra specie diverse di relazione emotiva secondo il contesto psicologico del soggetto.”
Quasi 40 anni dopo, possiamo dire che l’intelligenza artificiale è in grado persino di “riprodurre” le emozioni umane. Due aziende, una statunitense (Affectiva) e l’altra giapponese (Empath), hanno tentato l’impresa analizzando 6 milioni di visi raccolti in 5 milioni di video facciali (circa 40 mila ore di flussi di dati). Un unico obiettivo: insegnare alla macchina l’associazione tra emozioni e movimenti facciali. Il risultato ottenuto fu quello sperato: le macchine sorridevano quando sottoposte a stimoli ritenuti positivi. Ma come fanno le macchine a capire se uno stimolo è positivo o meno e, conseguentemente, ad associare l’espressione facciale adeguata? La parola chiave è simulazione. Il biologo evolutivo Richard Dawkins, nel suo brillante saggio Il gene egoista (1989), analizza il funzionamento di un banale programma capace di giocare autonomamente a scacchi per spiegare il funzionamento della simulazione. Questo espediente è per Dawkins una dimostrazione del complesso rapporto che intercorre tra geni e cervello. Tuttavia, ciò che ci interessa in questa sede è capire invece come l’intelligenza artificiale riesca a discriminare gli stimoli. Tornando al punto, un programma che gioca a scacchi possiede sicuramente un insieme di comandi preimpostati: le regole del gioco, un ventaglio di buone mosse di apertura, una manciata di mosse da utilizzare in medio-gioco e tante mosse da utilizzare in chiusura. Inoltre, il programma possiede alcune indicazioni importanti che possono essere spesso valide: non lasciare il re scoperto, non bloccare i tuoi pedoni con altri pedoni e così via. Ovviamente, queste banali istruzioni sono scritte mediante un complesso linguaggio logico-matematico. Ma come fa il programma a scegliere una mossa rispetto ad un’altra? Il programma non può anticipare ogni mossa poiché lo scenario che si sviluppa è pressoché infinito. Il programma si avvale allora di una serie di simulazioni, le più probabili, considerando le istruzioni inserite per scegliere una di queste simulazioni. Basti pensare che il nostro cervello funziona più o meno nello stesso modo. “Si insegnano al computer le mosse base del gioco, non separatamente per ogni possibile posizione di partenza, ma in termini di regole espresse in modo più economico”, scrive Dawkins.
Ma le macchine che stiamo prendendo in esame sono addirittura più complesse e riescono ad imparare dalla simulazione, grazie a meccanismi di feedback e retroazione. Per questo una macchina è capace di distinguere una situazione positiva da una negativa ed associa ad essa l’espressione facciale che ritiene probabilmente più giusta. L’intelligenza artificiale ha consapevolezza reale di ciò che sta facendo? Probabilmente no. Ma lo stesso Dawkins potrebbe obiettarci che nemmeno noi umani siamo totalmente consapevoli di ciò che facciamo, essendo il nostro cervello una “espressione” del programma costituito dai nostri geni. Tuttavia, come scrive – in bilico tra il comico e il tragico – l’amico Riccardo Dal Ferro: “l tostapane in cucina non ha mai reclamato i suoi diritti, e nemmeno il frigorifero. E giuro che se dovessero iniziare a farlo non esiterò a tornare a una vita primitiva, senza elettrodomestici”.
Attualmente, è forse più corretto dire che noi, esseri umani, fingiamo che le macchine possano provare emozioni, poiché empatizziamo con i loro movimenti facciali (identici ai nostri in tutto e per tutto). Dopotutto, l’esigenza di creare esseri simili a noi esteriormente, ma comunque radicalmente differenti al loro interno, ci proietta inconsciamente in una finzione a tutti gli effetti. Il nostro cervello è naturalmente predisposto a immedesimarsi in qualunque altro essere umano che sta esternando una precisa emozione. Quando vediamo un nostro caro piangere veniamo, conseguentemente ed inconsapevolmente, pervasi da un senso non indifferente di tristezza. Bene, quando un’intelligenza artificiale, con un viso molto simile al nostro fa lo stesso, rimaniamo del tutto scioccati dal fatto che ci sentiamo comunque tristi, pur sapendo che stiamo parlando di una macchina. Ma non è forse per questo perverso gioco che si nutre di inconsapevole finzione, che sentiamo l’esigenza di creare esseri sempre più simili a noi? Un domani, però, quando il tostapane avrà la capacità di reclamare i suoi diritti, potremmo non essere così fortunati da poter contare sulla sua finta empatia. E forse questa radicale differenza non potrà mai essere colmata.
BIOTECNOLOGIE FILOSOFIA Informatica Endoxa marzo 2020 finzioni Giacomo Di Persio intelligenze artificiale