LA TENTAZIONE DI DIVENTARE (ARTIFICIALMENTE) BUONI
MATTEO GALLETTI
In molti dizionari italiani il primo significato di “tentazione” in cui ci si imbatte è quello teologico della seduzione da parte del male e del peccato; si tratta quindi di una connotazione negativa, che presenta la tentazione come un allettamento che può provocare un tentennamento, un dubbio se cedere alle lusinghe e compiere ciò che non si dovrebbe, o come prova a cui la persona è sottoposta, che deve così mostrare la sua capacità di resistere al male. Ma anche fuori dal campo teologico, la tentazione è generalmente pensata come un impulso a trasgredire un ordine, sia esso morale o non morale (come quando siamo tentati da quella fetta di torta che vanificherebbe completamente la nostra dieta o che sappiamo che non dovremmo assolutamente mangiare per non peggiorare il nostro stato…).
È quindi perlomeno curioso parlare di una “tentazione a essere buoni”. La stranezza aumenta se, appunto, si inserisce un avverbio come “artificialmente” (o termini simili). Cosa significa essere artificialmente buoni? In questo saggio intenderemo con “artificiale” un complesso di tecnologie che possono rafforzare o ridurre capacità e disposizioni individuali già esistenti oppure crearne di nuove, migliorando così la motivazione, la decisione e il comportamento morali della persona. Si tratta di interventi che possono essere di natura farmacologica (propranololo, citalopram, ossitocina, ma anche sostanze allucinogene, cfr. Erp), genetica (tecniche di genome editing che possono modificare la costituzione biologica degli individui) o tecnologica (la stimolazione magnetica transcranica che tramite impulsi elettrici genera un campo elettromagnetico e stimola il tessuto nervoso). Questi interventi potrebbero potenziare disposizioni morali come l’altruismo, l’empatia, il senso di giustizia; oppure incrementare la capacità di ragionamento pratico della persona.
Ma sono state immaginate altre possibilità tecnologiche che non “penetrano” i confini corporei dell’io, ma agiscono dall’esterno, come robot, intelligenze artificiali e realtà virtuali, che possono aiutare la persona a prendere le decisioni migliori (da un punto di vista morale) nella situazione data. Sono tutti interventi, interni o esterni, di potenziamento morale.
Allo stato attuale della ricerca si tratta soltanto di ipotesi o immaginazioni, che possono essere declinate come utopie, sogni o incubi. Per alcuni pensatori si tratta in realtà di fantasticherie, che non tengono conto della complessità, biologica ed esperienziale, della moralità. Molto spesso, i fautori del potenziamento morale artificiale si concentrano su una piccola porzione della mente umana, una disposizione, una capacità, un tratto caratteriale, mentre ciò che osserviamo come comportamento morale deliberato è il prodotto dell’interazione tra più elementi della psicologia morale dell’individuo. Inoltre, anche se riusciamo a intervenire sul complesso motivazionale e psicologico di una persona facendo in modo che alcune sue tendenze giudicate moralmente indesiderabili scompaiano (ad esempio, pregiudizi razzisti), ciò non assicura che quell’individuo non si comporterà in modo in modo immorale in altri casi (ad esempio, discriminando le persone sulla base dell’appartenenza di genere.
Anche se dovesse essere derubricata come ipotesi fantasiosa, il potenziamento morale artificiale costituisce un caso interessante per riflettere su alcune questioni di carattere filosofico. Una fra tante è proprio il modo in cui intendiamo “artificiale”. In filosofia, concetti come “artificio” e “artificiale” continuano a godere di una certa fortuna, anche se numerose sono state le obiezioni, fin dal saggio di J.S. Mill, La natura (1875). In queste pagine Mill sottolineava che è possibile pensare il significato di “artificiale” contrapponendolo a “naturale”, che a sua volta può avere almeno tre significati: (naturale1) conforme alle leggi di natura; (naturale2) indipendente dall’interferenza umana; (naturale3) conforme a uno standard normativo. Se seguiamo questa suddivisione milliana, avremo che “artificiale” corrisponde a (artificiale1) difforme dalle leggi di natura; (artificiale2) dipendente dall’interferenza umana; (artificiale3) contrario a uno standard normativo. Il primo significato non è utile per l’analisi morale, perché il potenziamento morale artificiale è del tutto conforme alle leggi di natura. È del tutto impossibile pensare un farmaco o un dispositivo efficace che violi la legalità naturale. Anche il secondo significato ha scarsa rilevanza. Lo stesso Mill sostiene che la coppia naturale2/artificiale2 non è sovrapponibile alla coppia concettuale morale/immorale. Molte delle azioni che l’essere umano compie interferiscono con il corso naturale, eppure non ci sogneremo di dichiararle immorali. Un farmaco che riesca a curare una patologia deve il suo successo proprio al fatto che interrompe una catena di fenomeni biologici che riteniamo indesiderabile ma sarebbe piuttosto strano sostenere che l’uso di quel farmaco è immorale perché interferisce con la natura. Inventare artifici è un’attività che deriva dalla stessa natura umana (come già aveva detto D. Hume nel Trattato sulla natura umana, 1739-1740). L’ultimo significato è quello più interessante. La natura costituirebbe una regola normativa essa stessa, un ordine morale che comanda di compiere certe azioni e di astenersi da altre. Ma anche qui Mill nota che in natura si trovano efferatezze che non esitiamo a condannare quando avvengono tra esseri umani. La natura mostra un’assoluta indifferenza: realizza i suoi scopi senza prestare attenzione a chi si frappone a questa realizzazione e travolgendo tutto e tutti. Questa antropomorfizzazione serve a Mill per denunciare l’idea che la natura possa essere un esempio morale.
Ma se parliamo di potenziamento morale, credo che si possa aggiungere un quarto significato a quelli elencati da Mill. “Naturale4” indica un insieme di processi che avvengono secondo tempistiche e modalità che implicano uno “sforzo”, una “fatica” per assicurarsi il risultato e molte volte non riesce nel suo intento, o ci riesce in malo modo. La natura opera con lentezza e senza garanzie che l’esito finale sia conforme alle nostre preferenze. L’artificiale invece offre scorciatoie e si propone come più veloce e più efficace nel conseguire il fine desiderato. Così, l’educazione morale, uno strumento che tradizionalmente potenzia l’individui, è percepita come un processo lento e molto spesso inefficace. Il potenziamento morale artificiale, invece, dovrebbe avere il vantaggio di rendere gli individui più morali in modo rapido e sicuro. Infatti, è proprio questa l’idea che anima la proposta di Julian Savulescu e Ingmar Persson del potenziamento delle basi biologiche delle disposizioni morali come unica via d’uscita per risolvere problemi globali, come il riscaldamento climatico, il terrorismo, la minaccia di una nuova guerra mondiale, che sono potenzialmente in grado di produrre il Danno Estremo, ossia la scomparsa della specie homo sapiens. Le vie “tradizionali” sono insufficienti per sviluppare quella coscienza morale capace di prendere decisioni, individuali e collettive, che contrastano con l’interesse personale: sono troppo lente e imprecise, modellate su una psicologia morale evoluta in contesti limitati e locali, ben diversi dalla scena globale odierna. La distinzione catturerebbe una differenza di giudizio. Il potenziamento morale artificiale sarebbe una scorciatoia che, evitando lo sforzo, rende meno meritoria l’azione che ne consegue. Pensiamo a due persone, Anna e Giulia, che sono entrambe impegnate in un gioco del tipo “fuggi dalla stanza”. Si trovano in due ambienti separati ma entrambe devono risolvere un rompicapo per riuscire ad aprire la porta che le porterà all’esterno. Anna cerca di risolvere il puzzle facendo affidamento alle sue capacità di ragionamento; Giulia possiede una pillola magica che, se ingerita, le consente di cogliere in modo intuitivo la soluzione. Entrambe riescono a risolvere l’enigma ma intuitivamente pensiamo che, mentre abbiamo ragioni per apprezzare le abilità e la performance di Anna, il risultato di Giulia non è meritevole di un tale apprezzamento o lo è di meno. Mentre Anna si è sforzata, Giulia invece non ha fatto alcuna fatica. Il giudizio potrebbe essere ancora più netto per i casi di azione morale, come in parte sosteneva Immanuel Kant, per cui il filantropo che per benevolenza naturale dona generosamente compie un’azione il cui valore morale è inferiore alla beneficenza fatta da un filantropo che per natura è insensibile alle sofferenze altrui ma ciononostante decide di donare unicamente per il dovere.
Probabilmente pensiamo che un’azione automaticamente votata al bene sia propria di un robot morale, non di un agente morale umano. Un agente morale umano ha bisogno di deliberare, cioè di sforzarsi e consumare energie cognitive e tempo, per comprendere quale sia la cosa giusta da fare, senza la garanzia che il risultato di questa deliberazione sia perfetto.
La tentazione di essere morali attraverso la tecnologia, quindi, sarebbe la tentazione di prendere scorciatoie, di eludere ciò che caratterizza il nucleo dell’esperienza morale, cioè che diventare morali richiede sforzo.
In realtà, questo modo di rileggere la contrapposizione tra naturale e artificiale non sembra giustificato. In primo luogo, appare strano qualificare l’educazione morale o l’edificazione del carattere attraverso la lettura, i tentativi di auto-miglioramento come integralmente naturali. Sono artifici che gli esseri umani hanno perfezionato nel tempo per costruire, consolidare, perpetuare pattern di comportamento desiderabili dal punto di vista morale, in modo da favorire cooperazione, rispetto reciproco, coesione sociale. Inoltre, sembra che lo sforzo sia qualcosa che aumenta il valore morale di un’azione in alcuni casi, ma non in tutti. Si pensi a chi riesce a prevenire una sciagura e salvare vite umane (un’azione che possiamo definire “morale”) tramite un intervento non meditato, istintivo, che magari mette a rischio la persona. Sebbene non ci sia deliberazione, né sforzo pensiamo che reazioni come la gratitudine, l’approvazione morale, la lode siano appropriate in questi casi. Lo sforzo non sembra quindi una componente necessaria perché la scelta e l’azione abbiano valore morale, ma probabilmente non è nemmeno una componente sufficiente, perlomeno nei casi in cui non si hanno ragioni non-morali per preferire una deliberazione faticosa a un comportamento che non necessita sforzo.
Quindi, il ricorso all’artificiale per diventare moralmente buoni non è di per sé una tentazione in senso pieno. La quarta interpretazione della coppia natura/artificio può essere utile per comprendere l’inadeguatezza della tesi per cui i mezzi tradizionali realizzano autentico valore morale perché inducono la persona a sforzarsi, mentre i mezzi tecnologici di potenziamento morale generano azioni prive di valore; ma rende disponibile la tesi per cui i mezzi tradizionali e i mezzi tecnologici realizzano due tipi di valore diverso. Si può far ricorso per individuare questa differenza alla distinzione che ha introdotto Ronald Dworkin tra un “modello dell’impatto” e un “modello della sfida” del valore della vita. Nel primo caso, si ritiene che il valore della vita dipenda dall’effetto (positivo o negativo) che essa ha sul mondo mentre, nel secondo caso, il valore della vita è misurato in base al tipo di performance che essa incarna, al modo in cui si cerca di vivere. Il modello della sfida non nega che parte del valore stia nelle conseguenze positive che sono prodotte o, meglio, non ha bisogno di negare questo fatto, ma è sufficiente che accetti la tesi per cui tale valore non può essere interamente ridotto all’impatto, perché il contributo del processo è fondamentale. Il duplice modello fornisce in prima battuta una prospettiva da cui giudicare se un determinato tipo di potenziamento morale realizza il valore dell’impatto o quello della sfida. Ma qui la discussione si sposta dal piano dell’etica applicata a quello dell’etica normativa, perché il modello dell’impatto sostiene che un potenziamento morale è apprezzabile quando permette di produrre un comportamento che ha un impatto positivo sul mondo, cioè, elimina o previene stati negativi (sofferenze, costrizioni, miseria, ecc.) e/o produce o promuove certi stati positivi (benessere, libertà, prosperità, ecc.). In questo modello il potenziamento morale è motivato e giustificato interamente da queste conseguenze. Nel “modello della sfida” invece l’azione è concepita una performance che richiede consapevolezza del risultato che si intende ottenere e abilità che consentono di integrarlo nella propria vita complessiva. Implica un lavoro su di sé, sulle proprie relazioni e sulle proprie convinzioni e, talvolta, la modificazione di molti rapporti sociali. In questo caso, il potenziamento morale è apprezzabile nella misura in cui aiuta, sostiene, facilita processi riflessivi, incrementando la probabilità che il comportamento finale sia conforme a certi standard morali, senza la certezza che ciò accada. Alla fine, la scelta è tra interventi che possono, dal punto di vista morale, migliorare il mondo e interventi che possono migliorare le persone. Un mondo con minore sofferenza rispetto a quello attuale non è necessariamente un mondo abitato da agenti morali dotati di buone capacità riflessive e, viceversa, un mondo abitato da agenti morali dotati di buone capacità riflessive non è necessariamente un mondo che complessivamente contiene un grado minore di sofferenza rispetto a quello attuale. Dobbiamo scegliere da quale mondo essere tentati.
ENDOXA - BIMESTRALE FILOSOFIA Senza categoria Endoxa luglio 2023 Matteo Galletti Tentazioni
