MACCHINE COME NOI? O UMANI COME LORO?

40a37c3aba78ee80c6302fd67f0c5cac928a21ca

GIANFRANCO PELLEGRINO

In Machines Like Me (2019), Ian McEwan indaga le frontiere della nostra vita amorosa – c’è una tormentata relazione d’amore a tre –, ma anche i confini dell’umanità – dato che uno dei protagonisti (e uno dei lati del triangolo) è Adam, un androide (nel mondo di fantasia costruito da McEwan automi che riproducono fattezze e personalità umane sono venduti e usati comunemente e la rivoluzione robotica è un fatto consolidato). Fra le pieghe della sua prosa e della storia, McEwan si chiede continuamente che tipo di agente sia Adam. O meglio, l’io narrante s’interroga ossessivamente sulla mente di Adam – per lui l’androide si può considerare umano solo se la sua mente funziona come quella umana: a un certo punto del romanzo, il protagonista afferma: «la sua mente mi affascinava, se di mente si poteva parlare» (tranne quando diversamente indicato le traduzioni sono mie). McEwan mette al centro della sua finzione e dei pensieri del protagonista l’impostazione filosofica del famoso test di Turing – il quale peraltro compare nel romanzo, come nume tutelare della robotica, ancora vivo al tempo in cui si svolge la vicenda (negli anni Ottanta), felicemente sposato con il suo compagno e milionario per i proventi derivanti dal suo contributo allo sviluppo delle intelligenze artificiali. Se un automa riesce a fare quello che fa una mente umana, o meglio se non si può distinguere fra performance dell’automa e performance umana nell’esecuzione di certi compiti (per esempio sostenere una conversazione), allora l’automa deve essere dichiarato umano: questa è la tesi filosofica che sottosta al test di Turing. Ecco un passo chiarissimo di Machines Like Me:

“Volevo convincermi che Adam non sentisse nulla e potesse solo imitare i moti di abbandono. Che non potesse mai sapere quel che noi sappiamo. Ma lo stesso Alan Turing aveva detto spesso, e lo aveva anche scritto, nella sua giovinezza, che, quando non riusciamo a fare differenza fra il comportamento di una macchina e di una persona, allora è il momento di conferire umanità alla macchina. Così quando l’aria della notte venne improvvisamente penetrata dal lungo grido estatico di Miranda, che si restrinse poi in un gemito e alla fine in un singhiozzo soffocato […], io diedi ad Adam quel che gli dovevo, cioè il privilegio e gli obblighi di un membro della mia specie. Lo odiai” (Machines Like Me, p. 84).

Ma allo stesso tempo McEwan mette in scena i dubbi che tutti noi potremmo avere su questo modo di vedere. Ci sembra ovvio che una macchina che fa le operazioni tipiche di un cervello umano sia un fenomeno straordinario, ma che non sia, nonostante ciò, un essere umano. Ci sembra ovvio che riprodurre la vita, anzi imitarla alla perfezione, non sia, comunque, vivere, e allo stesso tempo una perfetta imitazione della vita non può che suscitare in noi le stesse reazioni che abbiamo di fronte alla vita vera (e per questo forse ci innamoriamo delle macchine, dei sistemi operativi, degli automi: una parvenza di umanità basta a scatenare l’umanità che è in noi):

“Senza la linfa vitale di una personalità, [Adam] aveva poco da esprimere. Stava facendo funzionare una qualche forma di programma di default […]. Aveva movimenti, frasi, abitudini che gli davano una patina di plausibilità. Sapeva cosa fare in condizioni minimali , ma niente di più. Come un uomo in preda a una colossale sbornia. […] Adam doveva solo comportarsi come se sentisse dolore e io sarei stato obbligato a reagire come se lo stesse provando davvero. Troppo difficile non farlo. Decisamente troppo dissonante per la deriva delle umane simpatie. Allo stesso tempo non potevo credere che egli fosse capace di soffrire, o di avere sentimenti, o alcuna forma di sensazione. E tuttavia gli avevo chiesto come si sentisse. La sua risposta era stata appropriata […]. E non credevo a nulla di tutto questo. Stavo giocando un gioco al computer. Ma un gioco reale, reale come la vita sociale, la prova del quale era il fatto che il mio cuore rifiutasse di quietarsi e la secchezza delle mie fauci.” (Machines Like Me, p. 26)

Ma perché mai dovremmo preoccuparci di tutto questo? Che importa se gli automi sempre più perfezionati che siamo destinati a costruire e che vivranno con noi sono o no umani? Non potremmo, tutto sommato, occuparci di quel che questi automi possono fare, e possono fare per noi? Se c’è un automa che ci tiene compagnia, se c’è un androide che ci fa innamorare, se c’è una macchina che ci rende la vita più semplice, perché preoccuparsi di stabilire se è proprio come noi? Da millenni il genere umano vive in relazioni di coesistenza e di mutuo scambio con esseri non umani – con esseri viventi non umani e anche con oggetti non viventi. Ci sembra scandaloso o assurdo che qualcuno si affezioni al suo cane o alle bestie che alleva? O che sviluppi un attaccamento viscerale alla propria casa, al giardino che cura o al paesaggio del proprio paese? Importa che queste cose non siano umane?

Probabilmente, dietro all’ansiosa domanda sull’umanità presunta degli automi stanno due preoccupazioni profonde. Da un lato, concedere alle macchine una parte o tutta la nostra umanità significherebbe perdere l’ultimo baluardo dell’eccezionalità che ha caratterizzato l’autocomprensione umana. Prima ci consideravamo figli di Dio e padroni di un mondo al centro dell’universo; Galilei e la secolarizzazione hanno messo in dubbio sia la nostra discendenza divina sia la centralità del nostro mondo nell’universo, insieme a qualsiasi speranza che il mondo sia retto da un progetto intenzionale. Darwin ha completato l’opera mostrandoci quanto vicini siamo agli animali. L’irriducibilità della coscienza e della mente umana alla materia è l’ultimo residuo di un qualche scarto fra umani e resto del mondo. Se si ammette che la coscienza è una proprietà della materia – anche della materia inanimata –, allora nessuna distinzione fra mondo e mente, fra umano e non umano rimane in piedi. E questo può essere causa di turbamento, naturalmente.

Inoltre, la nostra moralità dà un posto essenziale al nesso fra mente, libertà e responsabilità. Solo chi ha una mente può essere libero, perché solo le menti possono prendere decisioni, possono alterare il corso degli eventi e così via. (Naturalmente, il libero arbitrio può essere concepito in modi più o meno forti; qui non scelgo nessuna delle formulazioni presenti nella discussione: per quello che sto sostenendo è sufficiente assumere i tratti condivisi delle varie concezioni, gli assunti comuni a libertari e compatibilisti). Solo chi può essere libero può essere responsabile delle proprie azioni, e può quindi essere oggetto di giudizi morali di lode o biasimo. Le azioni di Adam che turbano grandemente l’io narrante del romanzo di McEwan lo fanno perché, alla fin fine, egli le vede come atti di libertà: nonostante tutte le sue esitazioni, Charlie – la voce narrante di Machines Like Me –, pensa che Adam sia un essere umano, e che abbia, dunque, commesso una grave nefandezza quando fa l’amore con Miranda, di cui Charlie è innamorato. Gli automi ci turbano perché la loro problematica umanità ci induce nella tentazione di attribuire loro responsabilità – e quindi trattarli come agenti morali. Ma questo da un lato incrina il nostro orgoglio, l’orgoglio di essere gli unici agenti morali in un mondo di pazienti morali, e dall’altro continua a sembrarci un’estensione indebita, una sorta di antropomorfizzazione illecita della materia inanimata: come può una macchina essere responsabile? Metteremmo in galera la sega elettrica impazzita che taglia la mano dell’operaio, per punirla del misfatto?

Spinti da queste preoccupazioni, molti filosofi hanno risolto il problema dell’umanità e della responsabilità degli automi in due maniere. Alcuni hanno negato del tutto che gli automi abbiano tracce di umanità e possano essere responsabili. Altri hanno sostenuto che, per quanto gli androidi non siano agenti morali come gli esseri umani – perché mancano loro alcune caratteristiche essenziali per avere responsabilità, per esempio la capacità di deliberare sui fini e sui valori morali –, essi non sono del tutto al di fuori della sfera della moralità. Un esempio chiaro della prima posizione viene formulato da John Tasioulas, quando afferma:

“Anche se i robot e le intelligenze artificiali possono riuscire a raggiungere obiettivi complessi – come riconoscere un volto tra la folla o tradurre un documento da un linguaggio naturale all’altro –, non hanno niente di simile alla capacità di deliberare sui fini ultimi. Per alcuni filosofi questa facoltà di autonomia razionale è la fonte della dignità speciale intrinseca agli esseri umani, la cosa che li rende differenti rispetto agli animali non umani.”

La seconda posizione viene difesa da Luciano Floridi e J. W. Sanders, secondo i quali è possibile delineare una nozione plausibile di “agente morale che non necessariamente manifesti libero arbitrio o stati mentali”, configurando così una sorta di «moralità senza menti [mindless]”. Per Floridi e Sanders, i cosiddetti agenti artificiali sono capaci di interagire con l’ambiente circostante, di essere autonomi (perché possono cambiare il proprio stato non soltanto come mera risposta a stimoli esterni) e di adattarsi all’ambiente. In virtù di queste loro capacità, gli agenti artificiali, suggeriscono ancora Floridi e Sanders, si debbono anche considerare capaci di azione morale  quando gli effetti delle loro azioni sono buoni o malvagi dal punto di vista morale. Consideriamo, ad esempio, una coppia di robot che registrano le variazioni di certe variabili nella pressione sanguigna di un paziente, somministrano via flebo certe medicine – prendendo delle decisioni che si basano su rilevazioni statistiche passate e su altre informazioni sullo stato generale del paziente e sono capaci di adattare il proprio comportamento al mutare delle condizioni del paziente. Se uno dei robot procura la morte del paziente per un eccesso di medicina, mentre l’altro lo tiene in vita, è possibile – secondo Floridi e Sanders – giudicare moralmente le loro azioni, l’una come cattiva e l’altra come buona. Naturalmente, non è chiaro se i robot di cui stiamo parlando abbiano stati mentali intenzionali, o siano esseri capaci di libero arbitrio, e quindi si possano ritenere responsabili. Anzi, per essere più precisi: non è chiaro se i robot abbiano stati mentali intenzionali e coscienti come quelli che ognuno di noi ha e attribuisce agli altri, e, se i robot non hanno stati mentali intenzionali, allora non possono essere liberi e sarebbe dunque assurdo ritenerli responsabili della guarigione o della morte dei pazienti loro affidati.

Tuttavia, ribattono Floridi e Sanders, pretendere di decidere se i robot abbiano o no stati mentali intenzionali, o esercitino il libero arbitrio quando sembrano prendere decisioni, è una pretesa forse troppo ambiziosa, che richiederebbe una specie di accesso privilegiato (cartesiano? Oppure telepatico?) alle menti altrui: da un certo punto di vista, neanche degli altri esseri umani siamo sicuri che abbiano stati mentali intenzionali; eppure, non neghiamo che si tratti di agenti morali responsabili.  Se i robot si comportano come tali, se giocano coerentemente il gioco della moralità, perché mai bisognerebbe considerarli meno che agenti morali?

Pretese del genere – la pretesa che il possesso di stati mentali intenzionali sia uno stato irriducibile semplicemente al comportamento autonomo, flessibile, discriminatorio di molti esseri umani e robot – stanno dietro, per esempio, alla celebre argomentazione della stanza cinese che John Searle ha presentato, rivolgendola proprio contro la possibilità dell’intelligenza artificiale. L’argomentazione di Searle assume la forma di un esperimento mentale. Immaginiamo, dice Searle, che ci sia una persona da sola, dentro una stanza, con un computer su cui funziona un programma che gli permette di rispondere a domande poste in lingua cinese. Qualcuno infila sotto la porta della stanza dei biglietti con delle domande in cinese, e la persona, grazie all’aiuto del computer, può produrre le risposte, su altri biglietti. Si può immaginare che tutto possa avvenire senza che il recluso nella stanza conosca il cinese e senza che egli capisca nulla – né le domande, né le risposte. Ma questo è tutto quello che fanno i computer, le intelligenze artificiali e i robot. Quindi, questi ultimi non possono essere considerati agenti veri e propri, che capiscono quel che fanno. Il test di Turing è inadeguato, e forse anche la visione di Floridi e Sanders, che lo riprende, lo è. Le menti umane non sono come computer, e i computer non sono come menti umane. Per capire – e quindi anche per agire moralmente – ci vuole un cervello umano, biologico.

Confrontare l’impostazione di Floridi e Sanders con quella di Searle ci fa capire che in questa discussione è in ballo non solo una visione di che cosa voglia dire compiere azioni, e azioni oggetto di giudizio morale, o essere agenti morali, ma anche una concezione della mente. Per Searle, la mente e le conoscenza sono fenomeni interni al cervello umano – a un cervello fatto come sono fatti i cervelli umani, cioè di natura biologica e con una certa conformazione. Sostenere che i computer possano pensare, possano essere intelligenti o possano conoscere significherebbe ammettere che la mente possa appartenere anche alla materia inanimata – o, più precisamente, ad agglomerati non biologici. Ma questo non è possibile: il pensiero deve necessariamente incarnarsi in pezzi di materia biologica vivente. Nel Saggio sull’intelligenza umana (1690), Locke sostiene che non sapremo mai, ma non potremo neanche mai escludere, che “un qualunque essere puramente materiale pensi: essendo impossibile a noi, mediante la contemplazione delle nostre idee, e senza rivelazione, scoprire se l’Onnipotente non abbia dato a certi sistemi di materia, acconciamente disposti, il potere di percepire e pensare[…]»”. Per chi la pensa come Searle, la materia non può pensare, e ci basta un esperimento mentale per saperlo. O, almeno, l’esperimento basta ad escludere che agglomerati di materia come sono le intelligenze artificiali e i robot possano pensare.

La posizione di Searle presuppone non soltanto che il pensiero sia una proprietà solo e necessariamente di certe entità biologiche, ma pure che la mente e la conoscenza si collochino completamente dentro il cervello. Tim Parks (un altro scrittore, come McEwan, che si occupa di temi scientifici e filosofici), nel suo recente libro dedicato alle scienze cognitive (Ma che cosa ho in testa. Viaggio di un ignorante tra i misteri della mente, Utet, Torino, 2019), ha chiamato questa prospettiva “internalista”, perché si tratta dell’idea che l’esperienza, la coscienza, la mente stiano tutte dentro la nostra testa – in una specie di teatro della coscienza. E anche Parks collega la visione internalista con una preoccupazione esistenziale ed antropologica – la  preoccupazione di mantenere la collocazione speciale della mente e della coscienza umana, l’ansia di custodire dentro la nostra testa il nostro pensiero, la nostra ragione. E questa prospettiva è predominante nelle scienze cognitive, osserva sempre Parks.

Il filosofo Andy Clark chiama questa visione della mente umana “Legata [d]al cervello” [Brainbound] e la presenta con queste parole: “Questo è il modello della mente come essenzialmente interna e […] realizzata sempre e ovunque a livello neuronale. Per dirla in maniera grossolana, è il modello della mente come cervello (o forse come cervello e sistema nervoso centrale). […] Se [questo modello] è corretto, allora tutta la cognizione umana dipende direttamente solo dall’attività neurale”. Se questo modello è corretto, possiamo aggiungere, allora soltanto se robot e intelligenze artificiali possono riprodurre, e non soltanto simulare, l’attività neurale umana, essi si potranno considerare menti.

Ma Clark difende un modello diverso, quello della mente estesa, descritto con queste parole: “pensiero e conoscenza possono (talvolta) dipendere direttamente e in maniera non strumentale dal lavoro del corpo e/o dell’ambiente che sta al di fuori dell’organismo umano.  […] I meccanismi locali della mente non sono tutti nella testa. La cognizione sgocciola via, nel corpo e nel mondo”. All’inizio del libro, Clark riporta un dialogo fra Richard Feynman, il fisico premio Nobel, e lo storico Charles Weiner. Di fronte agli appunti e agli schemi originali di Feynman, lo storico osserva che si tratta di una testimonianza del lavoro quotidiano del fisico. Feynman lo corregge: la carta non è una testimonianza del suo pensiero o del suo lavoro teorico, è – letteralmente – il lavoro della sua mente. La mente di Feynman, sostiene il suo possessore, pensa passando attraverso carta e penna – usa la carta e la penna come strumenti del pensiero. La mente di Feynman, suggerisce Clark, si estende alla penna e alla carta.

In un capitolo cruciale del libro, Clark difende la sua visione tramite un altro esempio. Immaginate che ci sia un giocatore alle prese col noto videogame Tetris. Egli può sia (a) ruotare mentalmente, nell’immaginazione, i pezzi che cadono sullo schermo, e poi spostarli, all’ultimo momento, in maniera che cadano al posto giusto, sia (b) ruotare con i comandi da tastiera i pezzi, per metterli nella posizione migliore durante la loro caduta, e poi semplicemente lasciarli cadere nell’incastro più adatto. Immaginiamo, suggerisce Clark, che esista, magari nel futuro, un essere umano che abbia  sia (c) il nostro potere di ruotare mentalmente, nell’immaginazione, i pezzi del Tetris, sia (d) una specie di rotatore retinale, che funzioni come i comandi da tastiera, e gli consenta di ruotare l’immagine che si forma sul suo occhio, di ogni singolo pezzo. Ora, a noi sembra ovvio che (a) sia un caso di rotazione mentale e (b) sia un esempio di rotazione che avviene fuori dalla testa – il primo è un caso in cui il giocatore ruota i pezzi nella sua mente, il secondo no. Che dire però di (c) e (d)? Sembrano entrambi rotazioni mentali, eppure (d) è molto simile a (b). Ma, se è così, perché (b) non è un caso di rotazione mentale? Perché usare la tastiera per ruotare i pezzi non è un modo di pensare? Perché, oggi che gran parte della nostra memoria, molte delle nostre conoscenze sono immagazzinate negli smartphone che ci portiamo sempre in tasca, sarebbe errato dire che la nostra mente si estende anche lì, esce fuori dal nostro cervello per arrivare a tutte le propaggini più o meno tecnologiche che usiamo per conoscere e pensare? Se perdiamo il nostro smartphone, o il nostro laptop, siamo sicuri che non perdiamo parte della nostra memoria, e parte della nostra mente?

La proposta di Clark, ridotta all’osso, è che la mente si realizzi in sistemi distribuiti, di cui il cervello biologico è solo una delle componenti – sistemi composti da cervelli umani e penne, carta, computer, dispositivi di altro genere, ma anche libri, luoghi memorabili, e così via. La mente di un attore, spiega Clark in un altro luogo del libro, si estende al di là del suo cervello, ed è anche nei luoghi del palcoscenico tramite cui l’attore conosce, ricorda, sperimenta la parte e il personaggio.

Si può obiettare: ma è pur sempre il cervello umano a conoscere, a sapere dove inserire i pezzi del tetris, o quando dire la battuta, o come si comportano le particelle elementari della materia; sarebbe assurdo dire che i tasti del computer sanno dove piazzare i blocchetti del Tetris, o che le porte del palcoscenico sanno quale attore dovrebbe entrare e quando, o che la matita di Feynman sappia di fisica. E quest’obiezione esprime in pieno lo spirito dell’argomentazione della stanza cinese: il recluso non sa il cinese, anche se le operazioni che egli compie producono conoscenza del cinese; allo stesso modo, la matita non sa la fisica, anche se essa serve a produrre conoscenza fisica. Ma chi conosce, sosterrebbe Searle contro Clark, è pur sempre il cervello umano – dentro la scatola cranica, non fuori.

Eppure si potrebbe dire che quest’obiezione commette una fallacia, o si basa su una caricatura. Perché si potrebbe dire che anche all’interno di un cervello umano chi capisce il cinese non è ogni singolo neurone che si attiva quando un individuo cinese capisce la propria lingua; chi capisce è l’individuo, anche se l’attivazione dei suoi neuroni è necessaria perché egli capisca e parli.

Recentemente, Luciano Floridi ha proposto l’idea di una, o “infra-etica”, che si realizzerebbe quando certe “azioni morali sono il r“moralità distribuita”isultato di interazioni che in altri casi sarebbero moralmente neutrali o almeno moralmente trascurabili […] tra agenti, i quali costituiscono perciò un sistema multiagente, per così dire, che può essere umano, artificiale o ibrido”. Floridi paragona i casi di azione morale distribuita a quelli di conoscenza distribuita – i casi in cui due agenti conoscano solo una parte della verità, ma il sopra-agente costiuio dalla coppia conosca tutta la verità (A sa che o la macchina è nel garage o Giorgio l’ha presa, B sa che la macchina non è nel garage, C – che è il sopra-agente costituito da A e B, sa che Giorgio ha preso l’auto). La mia proposta, qui, è considerare la mente come una sorta di sopra-agente, una sorta di composizione di differenti parti. Forse l’idea sarebbe quella di una mente distribuita.

La visione della mente estesa esprime l’idea che a conoscere sia un sistema – e non le sue singole componenti – e che la conoscenza si realizzi quando il sistema funziona in certe maniere. Ma questa è l’idea di Turing, e nulla nella concezione di Clark rende necessario che almeno una componente del sistema abbia natura biologica. Se una combinazione cervello biologico umano + matita + carta produce conoscenza della fisica – come nel caso di Richard Feynman –, allora perché mai una combinazione che faccia a meno della componente biologica dovrebbe non essere in grado di produrre conoscenza? Forse Locke non aveva tutti i torti.

Forse ciò che porta a negare che i robot possano avere una vita mentale, e quindi una vita morale, è un errore nella nostra visione della mente. Le capacità mentali non sono proprietà esclusive dei cervelli biologici umani, ma possono essere anche proprietà di certi agglomerati di materia. Se così fosse, la moralità dei robot non dovrebbe essere senza mente e senza responsabilità. Ci sarebbe forse un tipo di responsabilità che si potrebbe attribuire ai robot. La responsabilità ha a che fare con la libertà e con la lode e il biasimo. Non è detto che i robot esistenti abbiano sentimenti, e quindi siano in grado di percepire lode e biasimo e farsene influenzare. Ne sappiamo se ci saranno mai automi in grado di farlo. Ma i robot non hanno menti troppo diverse dalle nostre e, probabilmente, non sono né più né meno liberi di noi. Questo potrebbe essere sufficiente ad attribuire loro gradi minimi di responsabilità morale.

Nei suoi taccuini degli anni 1836-1844, Darwin scrive: “se tutti gli uomini fossero morti, allora le scimmie farebbero gli uomini – gli uomini farebbero gli angeli”. Da un lato, Darwin sembra voler dire che, in caso di estinzione della nostra specie, altre specie occuperebbero la nostra nicchia ecologica. Ma sembra anche suggerire che gli esseri umani potrebbero essi stessi evolversi in qualche cosa di diverso. Se non esiste una Scala naturae, come Darwin ci ha insegnato, non si vede perché certe macchine non potrebbero occupare, magari insieme a noi, la nostra nicchia ecologica e noi non potremmo occupare la loro. Non si vede perché non ci potrebbero essere macchine come noi e umani come loro.

ENDOXA - BIMESTRALE FILOSOFIA LETTERATURA

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: