UN SEX ROBOT È PER SEMPRE? PERCHÉ NON È GIUSTO PROGRAMMARE UNA MACCHINA PER AMARCI

Robotic_Humanoid_Lover_Sex_Machine_Women_In_Love-768x541MAURIZIO BALISTRERI

Tutto scorre, diceva il filosofo greco Eraclito. Questo vale anche per le relazioni affettive o sentimentali: due persone si conoscono, si innamorano, scelgono di vivere insieme e, poi, si separano. Speriamo che la volta successiva le cose possano andare diversamente, ma raramente accade. Comunque, con lo sviluppo di macchine sempre più intelligenti, che possiamo programmare come vogliamo, potrebbe diventare uno scherzo da ragazzi trovare l’anima gemella. Non soltanto potremmo scegliere l’aspetto, il carattere e i gusti sessuali che più preferiamo, ma potremmo anche aggiornarla periodicamente in base alle nostre evoluzioni personali. Inoltre, con una corretta configurazione, questa macchina sarebbe capace di amarci per sempre e, qualsiasi cosa facciamo, non sarebbe mai tentata di mettere in discussione la nostra relazione. Robert Sparrow ha affermato che la relazione con una macchina non può essere vero amore, in quanto si tratterebbe di un rapporto basato dall’inizio sulla finzione e l’autoinganno, e mancherebbe della complessità emozionale e della spontaneità che caratterizzano le relazioni umane. Possiamo, cioè, anche provare affetto nei confronti di un robot ma per farlo – afferma Sparrow – dobbiamo persuaderci che il robot non sia semplicemente un oggetto (ovviamente tecnologicamente avanzato rispetto ad un tavolo o a qualsiasi televisore) e abbia una propria volontà. Secondo Sparrow, inoltre, una relazione affettiva con una macchina non soltanto non sarebbe un amore ‘autentico’, ma sarebbe sempre anche un comportamento moralmente criticabile. Noi, infatti, – afferma Sparrow –  avremmo il dovere morale di prendere la realtà seriamente, senza trasformarla a seconda delle circostanze e abbellirla in base alle nostre preferenze. Non prenderla seriamente significa cadere in una forma di sentimentalismo deplorevole. Il sentimentalismo, infatti, trionfa quando la finzione prende il posto della realtà, poiché in quel momento anche una semplice bambola di paglia può diventare l’oggetto del nostro amore.

Tuttavia, quando parliamo di robot non dobbiamo necessariamente immaginare macchine che sono intelligenti soltanto all’apparenza e che mancano di qualsiasi forma di intelligenza o di autocoscienza. È vero che le macchine oggi impieghiamo sembrano intelligenti, ma non lo sono veramente. “solo perché – scrive Luciano Floridi – una lavastoviglie pulisce bene i piatti o meglio di quanto lo faccia io, non significa che li pulisca come me o che abbia bisogno di intelligenza (non importa se del mio tipo o di qualsiasi altro) nello svolgimento del suo compito. Ciò equivarrebbe a sostenere che, poiché (a) il fiume raggiunge il mare seguendo il miglior percorso possibile, rimuovendo gli ostacoli sul suo cammino; e (b) se ciò dovesse essere fatto da un essere umano, lo considereremmo un comportamento intelligente; allora (c) il comportamento del fiume è intelligente”. In futuro, però, le cose potrebbero cambiare e quelle stesse macchine che oggi utilizziamo come semplici oggetti o strumenti tecnologicamente avanzati potrebbero arrivare anche pensare, e non solo potrebbero arrivare a pensare, ma potrebbero anche diventare persone artificiali. Il punto è stato spiegato bene da Eric Schwitzgebel e Mara Garza: se un’entità, eventualmente anche di natura robotica, presenta caratteristiche moralmente rilevanti simili a quelle degli esseri umani (come ad esempio la capacità di ragionare criticamente sul mondo e provare emozioni), allora è giusto attribuirle la nostra stessa rilevanza morale e considerarla ‘persona’. Nel dibattito filosofico in corso, non c’è un accordo su quali sono le qualità di natura psicologica o ontologica necessarie per avere diritto di essere considerato e trattato come una persona. Ad esempio, alcune posizioni sostengono che la razionalità è condizione necessaria e sufficiente, mentre altre affermano che basta semplicemente la capacità di provare piacere e dolore. Per la riflessione che stiamo facendo, questa non è una questione che abbiamo bisogno di risolvere. Ciascuno può scegliere le qualità che ritiene più significative e immaginare che nel prossimo futuro anche le nostre macchine le possiedano o che siano, comunque, in grado di svilupparle. Macchine di questo tipo, infatti, potranno essere considerate, a ragione, persone artificiali: “L’argomento – affermano Schwitzgebel e Garza è intenzionalmente astratto. Non si impegna in nessuna definizione specifica di cosa costituisca una ‘differenza rilevante’. Crediamo che l’argomento possa avere successo su diverse interpretazioni plausibili. Su una visione ampiamente kantiana, le capacità razionali sarebbero le più rilevanti. Su una visione ampiamente utilitaristica, la capacità di provare dolore e piacere sarebbe la più rilevante. Sono plausibili anche interpretazioni sfumate o miste o interpretazioni che richiedono l’ingresso in determinati tipi di relazioni sociali”. La prospettiva che i sex robot del futuro possano essere non soltanto macchine tecnologicamente avanzate ma anche entità con una sorta di personalità e soggettività apre la possibilità di immaginare relazioni affettive con le macchine molto più complesse di quelle che Sparrow considera. In questo caso, infatti, l’amore nei confronti di una macchina intelligente (che non è più oggetto ma una persona artificiale) non comporterebbe nessun tipo di autoinganno (o sentimentalismo), in quanto essa sarebbe un’entità ‘reale’ e capace di ricambiare i nostri sentimenti.

È legittimo domandarsi, però, se abbiamo il diritto di programmare una persona artificiale ad amarci. Secondo Steve Petersen, a questa domanda si può rispondere positivamente, in quanto, secondo lui, non facciamo, cioè, nulla di male se programmiamo una macchina intelligente a servirci. Innanzi tutto, scrive Petersen, programmare una macchina (che è persona artificiale) ad amarci significa trattarla non soltanto come mezzo, ma anche come fine in sé, in quanto essa avrà comunque la possibilità di perseguire i suoi obiettivi personali, senza alcun impedimento da parte nostra. Con la giusta programmazione, infatti, questa macchina proverà un affetto ‘sincero’ nei nostri confronti e vorrà esprimerlo ogni volta che può e noi, scrive Petersen, saremo felici di lasciarglielo fare. Se un giorno non provasse più niente nei nostri confronti, costringerla ad amarci sarebbe sbagliato, ma se lo fa ‘volontariamente’, poiché è stata programmata a farlo, non possiamo essere criticati. Inoltre, secondo Petersen, non dovremmo pensare che un’esistenza di questo tipo non possa essere soddisfacente, al contrario potrebbe essere una vita molto più piacevole di molte altre. John Stuart Mill ha affermato che è meglio essere un ‘Socrate insoddisfatto’ che un ‘porco soddisfatto’: un robot programmato ad amarci non soltanto trarrebbe il più grande piacere da quest’amore ma avrebbe anche la possibilità di ricercare e potrebbe fare esperienza di piaceri più alti.

Tuttavia, non è chiaro perché noi dovremmo avere il diritto di manipolare la vita di una persona (artificiale). Se riteniamo moralmente sbagliato manipolare la volontà e i desideri di un essere umano (e ad esempio indurlo ad amarci attraverso tecniche di condizionamento e interventi manipolatori, facendogli sviluppare un affetto sempre più forte e non controllabile nei nostri confronti), allora, sostiene Mark Walker, dovremmo trarre la stessa conclusione nel caso delle macchine. Se, come affermano Bostrom e Yudkowsky trattiamo la macchina in modo diverso soltanto perché non possiede un corpo umano, allora il nostro tipo di atteggiamento morale non è coerente. Secondo Walker, se una entità è persona noi dovremmo sempre rispettare la sua autonomia. È ovvio che noi potremmo trarre vantaggi grandissimi dalla costruzione di macchine (che sono persone artificiali) programmate per obbedirci o per amarci: questo punto non è in discussione. Il problema è che in questo modo stiamo privando queste macchine della loro autonomia. In altre parole, stiamo negando loro la possibilità di fare scelte e di attuare un piano di vita in linea con le loro preferenze. Anche se, proprio grazie a questa programmazione, le macchine saranno felici di amarci, questa condizione rappresenta comunque una tipo di esistenza per niente invidiabile.

In questo modo, però, dobbiamo mettere in discussione la stessa produzione di macchine intelligenti. Cioè, la produzione futura di macchine sempre più intelligenti (persone artificiali), che meritano una piena rilevanza morale appare meno desiderabile di quanto a prima vista può sembrare. Non cadiamo in nessuna contraddizione se ipotizziamo che in futuro macchine autocoscienti possano convivere pacificamente con gli esseri umani in società sempre più tecnologiche. Al contrario, si può immaginare che lo sviluppo di macchine tecnologicamente avanzate potrebbero permetterci di raggiungere in ogni campo risultati che altrimenti sarebbero impossibili. Tuttavia, per quale motivo dovremmo scegliere di portare al mondo ‘persone artificiali’ se non possiamo sfruttarle come più preferiamo e dobbiamo rispettare la loro autonomia? Inoltre, macchine sempre più intelligenti potrebbero minacciare la nostra stessa sopravvivenza. È vero che le macchine intelligenti potrebbero trattare gli esseri umani con rispetto, cercando ad esempio di promuovere sempre il loro benessere e senza violare i loro diritti fondamentali. Tuttavia, esse potrebbero anche avere un atteggiamento completamente diverso nei nostri confronti e considerare l’eliminazione della nostra specie un obiettivo moralmente legittimo o doveroso. La nostra conclusione è che se non possiamo sperare di influenzare le macchine che saranno sempre più intelligenti e di controllare, attraverso l’educazione, la formazione dei loro valori morali, allora non abbiamo altra scelta e dovremmo impedire alle macchine di diventare persone.

Senza categoria

Lascia un commento