NOTE PER UN’EPISTEMOLOGIA FENOMENOLOGICA DELLA DEVIANZA

58378338_2458729524145593_7074542406233751552_n01CLAUDIO TARDITI

Quando si parla di devianze, vengono subito in mente comportamenti illeciti, criminosi o immorali che, come tali, si discostano dalle leggi, dalle norme o dagli usi e costumi di un certo sistema sociale o di una certa cultura. Da questo punto di vista, le devianze sono oggetti di studio della psicologia, della psichiatria, della sociologia, della criminologia e dell’etica. In ognuna di queste discipline, il concetto di devianza rimanda necessariamente alla questione dei processi di istituzione di un sistema di criteri o norme, più o meno condivise, a partire dal quale poter tracciare un confine preciso – identificabile, per esempio, dalla medicina o dalla giurisprudenza – tra condotte comunemente accettate e devianti, cioè eccedenti rispetto al confine tracciato dalla norma stessa. In questa prospettiva, il nesso tra norma e devianza investe questioni capitali come quella del discrimine tra salute e malattia, o quella della perseguibilità di certe condotte ritenute illecite (come ampiamente mostrato, giusto per richiamare un autore tra i più noti, da Foucault), ma anche quella della distinzione tra comportamenti funzionali e disfunzionali o dell’originalità di un’opera d’arte rispetto ai canoni estetici di una certa epoca.

       Tuttavia, il concetto di devianza non ha solo a che fare con i processi di istituzione di norme, ma svolge un ruolo decisivo nella prassi scientifica di osservazione e misurazione sperimentale. Per esempio, se in fisica la devianza, o forza deviatrice, è definita come la componente della risultante delle azioni aerodinamiche agenti su un solido in moto traslatorio, perpendicolare al piano individuato dalla velocità del solido e dalla portanza, ossia la spinta che il solido riceve per effetto della differenza di pressione tra la superficie inferiore e quella superiore (Enciclopedia delle scienze fisiche, 1996), in statistica è un indice di dispersione che descrive sinteticamente la variabilità di una distribuzione statistica quantitativa, cioè misura quanto i valori presenti nella distribuzione distano da un valore centrale scelto come riferimento (Enciclopedia della matematica, 2013). Ne consegue che la devianza emerge insieme e attraverso l’osservazione e la misurazione di un certo fenomeno o stato di cose in un sistema di riferimento: il piano definito da velocità e portanza per il solido, il valore di riferimento per la devianza statistica. Naturalmente, ciò non implica che l’osservazione provochi la devianza, cioè produca un’alterazione dello stato di cose osservato, ma semplicemente che la devianza possa essere descritta come tale soltanto da un osservatore, umano o artificiale, che, per così dire, si ponga da un certo punto di osservazione rispetto allo stato di cose osservato.

Certo, bisogna ammettere che noi siamo già sempre in un rapporto di osservazione degli stati di cose in cui siamo immersi, rapporto che di per sé non è problematico e non comporta alcuna misurazione né formalizzazione, quindi alcuna emersione della devianza. Semmai, essa diventa per così dire visibile soltanto allorché l’osservatore inizi a osservare, insieme agli oggetti, anche se stesso nell’atto di osservare (operazione certamente possibile per i soggetti umani, ancora da indagare a fondo per gli agenti artificiali). Dal punto di vista filosofico, a partire dalla modernità vi è traccia di questo tipo di “osservazione di secondo grado”, ancorché in una molteplicità di direzioni, nella filosofia trascendentale (da Kant a Husserl) e nella cibernetica di second’ordine (Wiener). Tuttavia, in generale va riconosciuto che tali sviluppi si sono inestricabilmente intrecciati con la riflessione sui fondamenti della matematica, della geometria e della fisica almeno a partire dalla metà del XIX secolo. Infatti, nei primi due decenni del XX secolo si assiste, da un lato, alla formalizzazione degli spazi di Hilbert, cioè spazi vettoriali a struttura lineare su cui è definito un prodotto scalare (che permette di misurare distanze e angoli) e, dall’altro lato, alla distinzione riemanniana tra spazio estensivo, euclideo, uniforme, privo di riferimento a un osservatore che occupa una certa posizione, e spazio intensivo, non uniforme, sempre relativo a un osservatore possibile. Com’è noto, tali sofisticatissimi strumenti matematici hanno permesso la formalizzazione sia della teoria della relatività generale di Einstein, in cui i tensori delimitano le porzioni di spazio curvo entro cui agiscono le forze del campo gravitazionale, sia della meccanica quantistica, dove uno stato fisico può essere rappresentato da una combinazione lineare di vettori entro uno spazio di Hilbert.

Pertanto, a ben vedere il fenomeno della devianza emerge come osservabile soltanto a partire da una devianza epistemologica fondamentale, corrispondente all’introduzione di spazi intensivi orientati a partire da un osservatore al posto dello spazio estensivo euclideo. In altre parole, la devianza fondamentale è costituita dal soggetto osservatore che, nell’operazione di osservazione della propria osservazione, impone al campo osservato un sistema di riferimento. Tale devianza epistemologica – è bene ricordarlo – non altera in alcun modo la realtà, che resta solidamente uguale a se stessa, con le proprie modificazioni continue e le metamorfosi di cui soltanto il reale è capace. Ma se vogliamo descrivere tali complesse metamorfosi in modo formalmente condivisibile, per esempio utilizzando un linguaggio matematico (come accade in Occidente almeno da Galileo in poi), entreremo per così dire “in scena” come osservatori, imporremo un sistema di riferimento in grado di connotare il campo intensivamente e lasceremo così emergere le devianze come fenomeni osservabili. Il che significa che esse sono sempre devianze per uno o più soggetti osservatori (umani o artificiali), che le descriveranno fino a offrirne una formalizzazione oggettivamente valida entro i confini e sui presupposti delle loro operazioni osservative.

In questa prospettiva, che si situa chiaramente nel solco della tradizione fenomenologico-trascendentale, è l’esercizio stesso del pensiero riflessivo a inaugurare una devianza epistemologica tale da permettere poi la descrizione di qualunque ordine di devianze, quale che sia l’ambito in cui esse si manifestano. In altri termini, proprio in quanto la pratica del pensiero filosofico “devia” dal senso comune – assumendo la postura di un’osservazione di osservazione da parte di un osservatore possibile – produce una molteplicità di scarti direttamente connessi alla visione prospettica che caratterizza ogni singolo osservatore e che lo induce a misurare la propria osservazione con quella di altri soggetti possibili, per così dire intersoggettivamente. Soltanto laddove una molteplicità di osservatori registreranno una certa devianza all’interno del proprio decorso esperienziale si potrà ipotizzare, con un alto margine di veridicità e un basso margine di errore (tuttavia mai eliminabile del tutto), che quella devianza caratterizzi lo stato di cose osservato intersoggettivamente. Così sorgono, dal punto di vista di una fenomenologia trascendentale, i modelli scientifici di descrizione di qualsiasi ordine o regione di realtà.

Storicamente, non vi è dubbio che, sin dai suoi esordi, la fenomenologia si pone come un metodo atto a descrivere le pratiche scientifiche e a interrogarle tanto sulle proprie operazioni fondamentali quanto sui propri presupposti. La teoria fenomenologica delle varietà, che sviluppa le formalizzazioni geometriche dello spazio di Hilbert e Riemann, si pone come scienza delle condizioni di possibilità di una teoria in generale, in altri termini una teoria della teoria: in sintesi, a ogni teoria corrisponde un campo di conoscenze e di oggetti a cui quella teoria si applica e, pertanto, una varietà è un insieme di oggetti che presentano certe relazioni, deviando pertanto da altre varietà in cui si danno altre relazioni. Tale dottrina delle varietà presenta evidenti tracce in ambito mereologico, nella teoria della percezione e nella tematizzazione del rapporto tra soggetto empirico e trascendentale. Chiaramente, tale prospettiva si pone in aperto contrasto con la visione neo-empirista della scienza, secondo cui le teorie scientifiche sono entità linguistiche verificabili secondo leggi puramente logiche – visione maggioritaria sin dalla ricostruzione logica della teoria della relatività generale di Einstein da parte di  Schlick (contro quella di stampo critico di Cassirer) fino almeno agli anni Sessanta del secolo scorso, quando la filosofia della scienza inizia a orientarsi verso una ricostruzione delle teorie scientifiche in termini non più logici, ma matematici, mostrando peraltro come il metodo fenomenologico anticipi di alcuni decenni i modelli semantici di van Fraassen e Suppes. È comunque un fatto che la filosofia della scienza del secondo Novecento, pur superando la visione neo-empirista, si sia orientata in senso naturalista, cancellando sostanzialmente ogni tentativo di introduzione del soggetto trascendentale nella fondazione della fisica e delle scienze naturali – eccezion fatta per i progetti di Weyl, non a caso di formazione neo-kantiana e poi fenomenologica, di unificare i campi elettromagnetico e gravitazionale attraverso la geometria infinitesimale, e di London, che reintroduce la funzione fondamentale della coscienza dell’osservatore nella meccanica quantistica, formulando così una serie di obiezioni alla visione naturalista “classica” di Schrödinger.

È dunque a questo complesso dibattito che dobbiamo guardare se vogliamo interrogarci a fondo sulla struttura interna di ogni devianza, non soltanto nell’ambito delle scienze naturali. Infatti, anche nelle scienze umane la descrizione della devianza come eccedenza o deviazione da un decorso comunemente presunto lineare implica operazioni di osservazione riflessiva da parte di osservatori possibili. È precisamente per questa ragione che esse necessitano di una sorveglianza epistemologica estremamente accurata, affinché la descrizione delle norme e delle devianze che le eccedono non si sleghino dalla considerazione dei presupposti a partire da cui sono state istituite come tali. Un tale compito è tanto più urgente quanto le scienze naturali e umane si trovano oggi a misurarsi con forme di intelligenze artificiali di natura eminentemente computazionale, veri e propri agenti osservatori con cui interagiamo continuamente e che concorrono a incrementare notevolmente le nostre possibilità di osservazione del mondo. A tal proposito, anziché disperderci in slanci entusiastici o catastrofismi infondati, derivanti in fondo da un’inadeguata comprensione delle nostre capacità di osservatori di secondo grado, si apre una sfida epistemologica ancora tutta da giocare sul piano della riflessione trascendentale.

Solo a queste condizioni discipline come la psichiatria, la psicologia, la sociologia e l’etica possono affrontare seriamente il tema delle devianze evitando quell’oscillazione, che le ha talvolta caratterizzate, tra un naturalismo ingenuo e un ben più pericoloso dogmatismo.

ENDOXA - BIMESTRALE FILOSOFIA

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: