INTELLIGENZE ARTIFICIALI E STUPIDITÀ UMANE

gatto-di-bianco-del-voxel-d-76450934ALBERTO ROMELE

L’intelligenza è sopravvalutata. Cerchiamo l’intelligenza dappertutto: negli umani, negli animali, nelle macchine e persino nelle piante. Leggevo qualche giorno fa la pagina Wikipedia in francese su “Intelligenza Artificiale”. La pagina definisce l’IA come “l’insieme delle teorie e delle tecniche messe in opera per realizzare delle macchine capaci di simulare l’intelligenza umana”. Prospettiva riduttiva, a dire il vero, visto che è chiaro che ormai molti di quelli che creano macchine d’IA se ne fregano di simulare l’intelligenza umana. Si potrebbe persino ridefinire l’IA in questi termini, come “l’insieme delle teorie e delle tecniche messe in opera per realizzare delle macchine capaci di correggere o venire incontro ai limiti dell’intelligenza umana”.

In effetti, questo è il caso di molti algoritmi di apprendimento automatico, come quelli che lavorano con la riduzione della dimensionalità. Grossomodo, si tratta della trasformazione dei dati da uno spazio ad alta dimensionalità in uno spazio a bassa dimensionalità (uno spazio che gli umani possano comprendere, dunque solitamente tra le 1 e le 3 dimensioni) in modo che la bassa dimensionalità conservi alcune proprietà significative dei dati originali. Per esempio, in un lavoro che sto conducendo con un collega sulla maniera in cui l’IA è rappresentata nelle immagini di stock abbiamo preso 7.500 immagini d’IA dal catalogo di Shutterstock e le abbiamo visualizzate con l’algoritmo di machine learning alla base di PixPlot, uno strumento sviluppato dal laboratorio di digital humanities di Yale. L’algoritmo di PixPlot prende 2.048 dimensioni di analisi dell’immagine per ridurle a un piano cartesiano che a noi sia accessibile cognitivamente. Le immagini sono raggruppate in cluster di affinità che mantengono una relazione con le 2.048 dimensioni originarie. Proprio per i limiti della nostra intelligenza, queste affinità risultano a noi spesso vaghe, tanto che buona parte del tempo è dedicata a cercare di capire come la macchina ha lavorato. Nella immagine qui disponibile abbiamo per esempio evidenziato un cluster che abbiamo chiamato “frammentazioni”, in cui ci sembra di poter dedurre in maniera ragionevole che l’IA di PixPlot ha messo insieme tutte quelle immagini di stock che rappresentano l’IA come un viso, un corpo o una parte di mondo che si scompone in particelle, pixel o voxel.

1232123

Facciamo ora un passo in avanti. La pagina Wikipedia in inglese definisce l’IA in maniera più interessante, come “l’intelligenza dimostrata da certe macchine, in contrapposizione all’intelligenza naturale mostrata dagli animali, compresi gli umani”. Insomma, secondo questa definizione, che pur ancora compara intelligenza delle macchine e intelligenza animale, umana in particolare, non c’è più nessun principio di imitazione. L’IA è una cosa che va per la sua strada, che non ha bisogno di noi, come quella storia dei chatbots di Facebook che avevano cominciato a parlare tra loro una lingua sconosciuta e che per questo sono stati disattivati. Se l’IA ancora imita i nostri canoni linguistici, artistici, cognitivi, etc., questo non è per suo interesse, ma per necessità nostra. Quel che apprezzo di questa definizione, è il principio di simmetria che insinua tra macchine e umani.

È cosa nota che la maggior parte della critica filosofica all’IA porta sull’idea che l’IA non sia davvero intelligente. C’è l’esempio famoso della stanza cinese di Searle, alla cui base è l’idea che la sintassi non sia condizione sufficiente per la determinazione della semantica. C’è poi il caso del filosofo del MIT Hubert Dreyfus, secondo cui il problema dell’IA è di non avere mondo, ovvero un orizzonte di comprensione sempre-già contestualizzato e orientato a degli interessi di ordine pratico. Per inciso, mentre Dreyfus è sempre stato critico della GOFAI o AI forte, in alcuni scritti egli ha mostrato un interesse e una certa fiducia (tanto da paragonarli al tardo Husserl e Heidegger) verso il percettrone, il primo modello di rete neuronale introdotto nel 1958 dallo psicologo statunitense Frank Rosenblatt. Quello che vorrei proporre, almeno a titolo di esperimento mentale, è di invertire in qualche modo la critica filosofica all’AI. D’accordo, l’IA è stupida per natura, e secondo me non c’è ragione per credere diversamente. Ma siamo proprio sicuri di essere noi intelligenti?

Quando esordivo dicendo che l’intelligenza è sopravvalutata, volevo proprio dire questo: prima di umiliare le macchine per esaltare noi stessi, dovremmo per lo meno assumere una postura più modesta. Più che animali intelligenti, infatti, direi che gli umani sono animali dell’abitudine, i più abitudinari e abituati tra tutti gli animali. Fin da piccoli, siamo educati a incarnare certe abitudini, una seconda natura che dovrebbe prendere il posto della prima. Impariamo a muovere lingua e palato per far uscire suoni che risultino essere voce e parola all’interno di un determinato contesto linguistico e sociale. Impariamo a usare forchetta e coltello, a sederci correttamente a tavola, a non masticare con la bocca aperta né ruttare — cose che, come si sa, sono invece segno di apprezzamento in altre parti del mondo. Impariamo tante cose a scuola, e poi all’università. Apprendiamo anche a parlare e scrivere di filosofia, per poi poter applicare la parola e la scrittura filosofiche, con i loro stili ben definiti e codificati, al momento opportuno. E possiamo farlo con attenzione, certo, ma per lo più lo facciamo con una certa distrazione, come se le parole parlate e scritte provenissero da altrove — e in effetti, provengono da altrove, da quelle pratiche di internalizzazione dell’habitus filosofico a cui siamo stati allenati per anni.

Insomma, quello che voglio dire è che forse siamo meno intelligenti, immaginanti o creativi di quello che crediamo. E per questo siamo anche molto più simili alle macchine d’IA di quel che crediamo. Se creatività, immaginazione e intelligenza esistono, queste non sono altro che dei piccoli scarti tra una abitudine e l’altra, un po’ come i glitch, ovvero quei picchi brevi e improvvisi causati in informatica da un errore non prevedibile — una parola che sembra provenire dal tedesco glitschen (slittare) e dall’yiddish gletshn (scivolare, pattinare).

In fondo, sono proprio le nuove macchine, quelle di machine learning e big data, a insegnarci quanto stupide sono quelle nostre attività che abbiamo creduto per lungo tempo intelligenti, immaginative e creative. Mi riferisco, per esempio, al fatto che oggi sembra possibile quantificare e prevedere la reputazione e il successo nel mondo dell’arte attraverso trattamenti massivi di dati, come dimostrato da un articolo su Science del 2018 di Fraiberger et al. Mi riferisco, più in generale, al fatto che le digital humanities in tutte le loro varianti rappresentano un’occasione eccezionale per riscontrare dei pattern, e dunque delle riprese, ripetizioni e abitudini, all’interno delle nostre produzioni intellettuali e culturali, comprese quelle ritenute più autentiche. Così, sembra anche possibile ricavare un messaggio antropologico da tutto questo, secondo cui anche le vite più degnamente vissute (per intenderci, le vite sartriane, heideggeriane, nietzschiane, etc.) sono delle esistenze d’abitudine. Ben inteso, ciò non toglie che delle grandi differenze tra umani e IA ci siano. Ma queste, a mio avviso, non vanno cercate sul piano dell’intelligenza in generale. Piuttosto, si dovrebbe scomporre quel che noi chiamiamo “intelligenza” in una molteplicità di livelli — addirittura, senza parlare di livelli, si dovrebbe dire “funzioni” – per confrontare umani e IA, e per identificare magari quelli che ormai sono prerogativa della seconda.

Così come alcune macchine digitali d’oggi ci mettono davanti alla nostra stupidità, così altre possono credo aiutarci a “correggerla”. In questo momento, in Germania, sono coinvolto nella valutazione etica e filosofica di un progetto chiamato LOUISA, che vuole creare uno strumento basato su un algoritmo di machine learning per la rilevazione automatica del dolore. Una delle questioni al cuore della mia riflessione è proprio quella delle abitudini e della abituazione del corpo per mezzo di tecnologie digitali portatili. A questo proposito, sto portando avanti l’idea, da implementare nel design dell’oggetto che stiamo creando, di “abitudini intelligenti”. Questa idea la riprendo dal filosofo pragmatista Richard Shusterman, il quale la riprende a sua volta da Dewey, che a sua volta pare la riprendesse da Frederick Matthias Alexander, l’inventore del metodo Alexander — questa catena sta a dimostrare che anche le migliori idee sono risultato per lo più di bricolage, ripresa e ripetizione. Secondo Shusterman, che parla del rapporto tra mente e corpo per raggiungere una “coscienza corporale” ottimale, bisogna riconoscere che da un lato le abitudini precedono la coscienza, ma dall’altro che ci possono essere delle abitudini che si formano in maniera cosciente e intelligente e che con altrettanta coscienza e intelligenza possono essere periodicamente controllate ed eventualmente corrette. Il gioco sta proprio nel trovare il giusto equilibrio, nelle abitudini, tra coscienza e incoscienza, e dunque, nel caso specifico, tra attenzione e disattenzione al corpo — ai suoi movimenti, sensazioni, dolori, etc.

Shusterman e la sua corrente di pensiero (la “somaestetica”) disdegna l’uso di tecnologie che non siano elementari, come uno specchio di fronte a sé per seguire i movimenti del proprio corpo. La mia idea è invece di dire che alcune tecnologie digitali possono, se correttamente progettate, promuovere una buona alternanza tra coscienza e incoscienza, attenzione e disattenzione verso il corpo. Per esempio, nel caso di LOUISA, stiamo cercando di implementare una struttura “dialogica”, in cui l’utente non subisca passivamente il risultato della macchina (“lei ha l’80% di possibilità di sentire dolore al ginocchio destro”) ma che possa interagire con essa, fino a rifiutare il risultato della macchina stessa. La cosa interessante, qui, è che non sono due intelligenze, l’una artificiale e l’altra naturale, messe insieme a fare il trucco. Si tratta piuttosto di due stupidità. Cosicché, si potrebbe dire, è la somma delle stupidità a far emergere quella che a noi pare essere intelligenza.

Concludo svelando un piccolo segreto. In questo articolo, siete stati vittima di un esperimento. Ho infatti cercato di fare il più abbondante uso possibile di Wikipedia. Perché Wikipedia corrisponde bene a quello che ho detto fino adesso: un insieme di stupidità che, messe insieme, fanno emergere qualcosa che a noi sembra intelligente. Con questo, non voglio dire che i contenuti di Wikipedia siano stupidi di per sé. Voglio invece dire che le task che per lo più un compilatore di pagine Wikipedia compie sono ripetitive e abitudinarie. Le istruzioni per stilare una pagina Wikipedia sono estremamente codificate e lasciano il minor margine di manovra possibile all’autore. Come già osservavano Niederer e van Dijk in un articolo pubblicato del 2010 su New Media and Society, molte di queste task sono compiute non da umani ma da bot, e questi bot occupano un livello alto nella burocrazia complessa di Wikipedia — appena sotto gli amministratori. Eppure, nonostante questo “ammazzamento” continuo d’intelligenza, immaginazione e creatività umane, Wikipedia è ormai una autorevole fonte di conoscenza, tanto che a noi sembra bastare ricombinare un po’ le sue pagine per creare qualcosa di affatto nuovo.

ENDOXA - BIMESTRALE FILOSOFIA

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: