Flussi di Sergio Benvenuto

Il riduzionismo infinito01/lug/2016


1.

          Mi sembra opportuno distinguere i due impatti – ambedue crescenti – delle scienze biologiche: quello sul sapere scientifico, e quello sulla nostra cultura in generale. Da una parte c’è la questione epistemologica della forza esplicativa dei modelli biologici nell’ambito delle scienze dell’uomo; dall’altra la questione – messa in risalto da Castelfranchi (2008) – della “biologizzazione” e “medicalizzazione” della vita. Certo, oggi il biologico è di moda. E non solo nelle scienze: in ambiti filosofici distanti da esse, vanno per la maggiore certi scritti di Derrida, Agamben o Esposito focalizzati sui temi della “nuda vita”, sulla vita animale, ecc. Non a caso tra i libri di filosofia politica più fortunati troviamo Bios e Immunitas di Roberto Esposito. Anche i media, ovviamente, riflettono questo primato del biologico. Credo che questa Stimmung culturale non dipenda solo dai progressi (indubbi) delle ricerche biologiche, ma anche da un tropismo generale della cultura attuale che sarebbe il caso di studiare senza pregiudizi polemici.

Ho vissuto in epoche quando erano culturalmente egemoni altre dottrine e teorie: marxismo, esistenzialismo, psicoanalisi, psichiatria anti-istituzionale, ecc. Ognuna di queste egemonie ha improntato i media e il modo di pensare dell’epoca, imponendo schematismi, Vulgate, dogmatismi, cliché. Oggi si forniscono alle folle “facilonerie” (come le chiama Castelfranchi) che riflettono questo primato del biologico. Qui si tratta di riduzionismo nel senso di banalizzazione: ogni epoca ha le sue banalizzazioni - così fu, così è, e così sarà. Dovrei preferire ai semplicismi di oggi (del tipo “esiste il gene dell’infedeltà coniugale”) quelli di ieri (del tipo “la malattia mentale esprime le contraddizioni della società capitalista avanzata”)?

 

2.

          Sia Castelfranchi che Parisi (2008) distinguono giustamente due riduzionismi - “il buono” e “il cattivo” secondo Parisi, “riduzione” e “riconduzione” secondo Castelfranchi. Io parlerei di “riduzionismo ontologico” (RO) e di “riduzionismo epistemologico” (RE). A cui aggiungerei l’Anti-Riduzionismo (AR) presente nel pensiero scientifico di oggi (esempi illustri: Bohr, Popper, Eccles, Prigogine, Nagel, Varela, Anderson, McGuinn, Chalmers, ecc.). Il RO caratterizza la stragrande maggioranza di coloro che si rifanno in qualche modo al materialismo scientifico. Secondo l’RO le spiegazioni ultime di tutto ciò che accade nel mondo – quindi anche di fatti mentali e culturali – dovrebbero esser date in termini di particelle e forze studiate dalla fisica. Lo stesso Freud (citato polemicamente da Castelfranchi) aderiva a questo RO. In questa gerarchia ontologica, in cima alla piramide c’è il gigante Fisica, la nostra super-scienza, e alla base le sette nane di cui parla Parisi (le scienze umane). Il riduzionismo consisterebbe nel far risalire univocamente le spiegazioni dalla base nana al vertice gigantesco, cercando insomma di accordare a ogni costo l’epistemologia all’ontologia (è l’”eliminativismo” evocato da Castelfranchi). La stessa biologia si occupa di strutture complesse che trovano nei processi della materia studiati dalla fisica la loro spiegazione ultima.

Ora, questo modello gerarchico è ovvio solo in teoria. Del resto, la gerarchia può essere concepita come continua o discreta. Se si pensa che la Scienza sia unica, solo che si focalizza su oggetti più o meno complessi, si ha una visione continuista della gerarchia; se invece si pensa che ogni scienza a un certo livello debba elaborare concetti che le sono specifici (ci sono più scienze, non La Scienza), allora abbiamo una visione discreta. Di fatto, comunque, il sapere scientifico non si sviluppa come una costruzione lineare e armoniosa dal basso all’alto o viceversa.

Il RO (gerarchico lineare) non vieta che si possano studiare con rigore scientifico degli olà – degli insiemi o “interi” sociali o mentali – senza fare riferimento diretto alla struttura fisica fondamentale. Quando Darwin scrisse The Origin of Species non pensava che la sua teoria dell’evoluzione fosse deducibile dalla fisica newtoniana. Per il RE invece una spiegazione scientifica di qualsiasi cosa – anche di processi storici, di assetti culturali, di formazioni mentali, ecc. – dovrebbe fare riferimento diretto, esplicito, ai processi fisio-chimici. E’ a questo punto che il RO e il RE entrano in conflitto, anche se il RE appare un sotto-insieme del RO.

          Ad esempio, se leggiamo Kant o Darwin, cerchiamo di capire i loro concetti del tutto indipendentemente dagli embodied minds che Kant e Darwin erano (anche perché entrambi sono morti da un pezzo): la nostra comprensione è olistica, per così dire. Il Riduzionista Epistemologico direbbe invece: “Per capire certi punti fondamentali del pensiero di Kant o di Darwin dobbiamo tener conto delle specificità del cervello di Kant o di Darwin...” Si tratta di un esempio estremo, quindi ridicolo. Ma esso esemplifica la frizione tra RO e RE.

          A mio parere, però, il dissidio tra RO, RE e AR di fatto maschera o elude questioni molto più complesse. Il punto è: che cosa dobbiamo intendere per spiegazione scientifica soddisfacente?

 

3.

Classicamente, spiegare significa trovare le cause dei fenomeni. Aristotele distinse quattro cause, come è noto: efficiente (da che cosa viene un movimento), finale (verso che cosa va un movimento), formale (secondo che cosa esso avviene), materiale (sotto che cosa esso avviene). Non si tratta solo di antiquariato filosofico: grandi filosofi della scienza come A. Koyré e T.S. Kuhn hanno fatto uso proficuo delle distinzioni aristoteliche.

Nell’Ottocento si pensava che per rendere scientifiche le scienze sociali – la “fisica sociale” come diceva Durkheim – si dovesse rinunciare alle cause finali, ovvero agli scopi coscienti degli attori sociali (persino in economia politica veniva evitato il riferimento ai desideri dei soggetti!). Il cognitivismo funzionalista è riuscito invece a far riammettere a pieno titolo le cause finali come strumenti esplicativi fondamentali. L’uomo cognitivo è un calcolatore razionale che ha desideri e credenze. Mi pare di capire che il riduzionismo denunciato da Castelfranchi sia il voler escludere di nuovo le cause finali, riportandole a cause efficienti.

Ma l’incertezza sul tipo di causa fondamentale attraversa anche tutta la storia della fisica moderna, come Koyré e Kuhn hanno mostrato. Ad esempio, per loro la fisica oggi privilegia la causa formale (e non la causa efficiente come molti credono)[1]. Molto spesso il dibattito sull’autonomia o meno delle spiegazioni “sociologiche”, “psicologiche”, “biologiche”, ecc., maschera una preferenza per un tipo di causalità. Questa preferenza dipende dai tropismi filosofici, politici, religiosi, etici e persino estetici degli scienziati.

          Se nelle scienze dell’uomo rifarsi a spiegazioni biologiche è riduzionismo, il punto è che la biologia stessa annovera oggi modelli diversi, tra loro rivali. Riduzione quindi a quale biologia? Ad esempio, il modello neurale di Edelman valorizza fortemente la componente storico-evolutiva (ontogenesi) nella formazione del cervello-mente (per lui, due gemelli omozigoti nel ventre materno hanno già due cervelli diversi); mentre un modello alla Dawkins segna il primato di quello che chiamerei pre-formismo genetico (filogenesi).

 

4.

          Un’altra questione spinosa è quella del determinismo. Anche qui distinguerei un determinismo ontologico, uno epistemologico, e un anti-determinismo. Per la maggior parte degli scienziati spiegare equivale a descrivere un meccanismo, ovvero, si presume che la natura sia congegnata come una macchina. Quello di macchina è un concetto antropomorfico, dato che siamo noi esseri umani a costruire macchine: la natura sarebbe una macchina senza ingegnere (dato che su un Demiurgo hypothesis non fingo). Ogni macchina è deterministica nella misura in cui funziona, ovvero è prevedibile (se non è più prevedibile, diciamo che si è rotta). Non a caso oggi, sempre più, nelle scienze cognitive si costruiscono robot che funzionano secondo certe teorie: se una macchina può “vivere” come un essere vivente, allora – si pensa – il vivente è come questo tipo di macchina.

Il determinismo epistemologico afferma di solito che la spiegazione scientifica perfetta coincide con la previsione esatta (per la filosofia empirista, prevalente tra gli scienziati, la causalità si riduce a regolarità, quindi a prevedibilità). Eppure alcune teorie scientifiche – che si suppongono deterministiche - non comportano affatto un aumento di prevedibilità, nemmeno retrospettiva. Ad esempio, il darwinismo non ci dice nulla sul futuro delle specie viventi. Quando entra in gioco la storia (anche della vita), la prevedibilità spesso va a farsi benedire. Per le teorie del caos e della complessità, questa non prevedibilità vale per tutti i processi estremamente sensibili alle condizioni iniziali, non lineari. Insomma, la scienza può essere ontologicamente determinista, ma epistemologicamente non predittiva.

La scienza di fatto non si riduce a previsioni, ma punta a fornire dei modelli che rendano la natura intelligibile (René Thom [1980, 1991] ha molto insistito su questo punto). Il successo di teorie come il darwinismo o quella del Big Bang è dovuto – oltre che alle corroborazioni empiriche – anche al fatto che esse offrono un modello semplicissimo di come funzionano le cose, che anche un bambino può capire. Ma dato che anche altri discorsi – filosofici, religiosi, astrologici, ecc. - rendono il mondo intelligibile, allora in che cosa consiste l’intelligibilità scientifica? Su questo punto le opinioni divergono, anche all’interno di una stessa disciplina. Ad esempio, i criteri di intelligibilità del biologico che hanno Dawkins e Dennett da una parte, Gould e Lewontin dall’altra, e Kauffman da un’altra ancora, sono alquanto diversi (nel caso di Lewontin, per esempio, il modello di intelligibilità è hegeliano). C’è disaccordo su che cosa intendere per “spiegazione biologica convincente”.

          Il determinismo epistemologico (come quello di Laplace) viene oggi criticato in quanto “teologico”: se avessimo un’informazione infinita – quella di Dio – tutto nell’universo sarebbe prevedibile. La scienza è allora un tentativo (necessariamente infinito) di approssimarsi alla conoscenza perfetta del Dio? Alcuni – come Popper – preferiscono rinunciare al determinismo tout court: per loro, occorre disfarsi del presupposto “cartesiano” che la natura funzioni come una macchina. Il successo della scienza non sarebbe legato al successo di uno specifico modello metafisico: la scienza è caratterizzata solo dal suo metodo nel procedere, non dalla natura del suo oggetto.

          Personalmente credo che il gap e la tensione tra prevedibilità e intelligibilità siano costitutivi dello sforzo scientifico (e credo che il conflitto tra RO, RE e AR ne sia espressione). Alcuni storici dicono che la vittoria del modello di Newton su quello di Cartesio nel Seicento abbia significato la vittoria della prevedibilità sull’intelligibilità nella scienza. La fisica di Cartesio rendeva ogni cosa intelligibile ma non permetteva di prevedere alcunché; quella di Newton invece aveva una terribile carenza di intelligibilità (soprattutto, supponeva un’inesplicabile attrazione a distanza tra le masse), ma rendeva tante cose prevedibili. Eppure la carenza di intelligibilità del sistema newtoniano, pur trionfante, non ha cessato di inquietare le menti degli scienziati – almeno finché Einstein non trovò la soluzione per accordare di nuovo intelligibilità e prevedibilità. Comunque, lo stesso Einstein ha criticato spesso i paradossi della meccanica quantistica, ovvero le sue carenze di intelligibilità. Denunciò l’equivalente in meccanica quantistica della “miracolosa” attrazione a distanza di Newton, ovvero la “non località” (la possibilità che una particella interagisca istantaneamente con un’altra posta a grande distanza)[2]. La quantum theory cozza con la nostra esperienza macroscopica: elettroni che si comportano come particelle in un esperimento e come onde in un altro, che si trovano in due posti nello stesso momento...[3] Credo che il bisogno di rendere il mondo intelligibile operi sempre, magari tacitamente, nelle menti di chi fa scienza – anche quando dispone già di una previsione esattissima. Ma la coincidenza assoluta, definitiva, tra previsione e intelligibilità è impossibile.

 

5.

          Talvolta i dibattiti tra scienziati deludono il filosofo perché si basano su un’immagine idealizzata della scienza: in questi la scienza appare un’attività “angelica” di pura contemplazione del Vero, come nell’ideale greco antico di theoria. I filosofi seri invece, paradossalmente, sono meno astratti: pensano che la scienza sia un’attività umana quindi impura, ovvero prodotta da tutte le passioni, bisogni, pregiudizi degli esseri umani. La scienza post-galileiana risponde al doppio bisogno di rendere il mondo che ci circonda intelligibile e/o prevedibile – cioè, in fin dei conti, di renderlo meglio abitabile o abitabile tout court. Questa è la concezione pragmatista che quasi tutta la filosofia contemporanea ha fatto propria (per questa ragione, ad esempio, Heidegger considerava la nostra non l’epoca della Scienza, ma quella della Tecnica). Altri direbbero che la scienza è la scommessa incessante di trovare un Ordine nel Caos (ordine e disordine sono criteri del tutto soggettivi). Il punto è che intelligibilità e prevedibilità spesso non coincidono, come abbiamo visto.

          Un altro scontro metafisico che non convince molti filosofi è quello tra atomismo ed olismo, virulento soprattutto nelle scienze sociali (l’atomismo o individualismo appare spesso riduzionista agli occhi dell’olista). Questo scontro verrebbe superato se ci ricordassimo della funzione vitale della scienza, quella di rendere appunto il mondo meglio abitabile agli umani[4]. Ad esempio, è impossibile prevedere il risultato di un processo aleatorio come un lancio di dadi: per prevedere il risultato di un singolo lancio, occorrerebbe una macchina calcolatrice infinita (divina). Ma la scienza abilmente, volgendosi alla teoria della probabilità, si è focalizzata su “popolazioni” di lanci: se facciamo mille lanci, sapremo più o meno come si distribuiranno i risultati. Questa ottica olista è importante nelle scienze umane. Non sapremo mai con certezza se X o Y si suiciderà entro l’anno, ma abbiamo dati sul tasso di suicidi di una popolazione, tasso che resta alquanto stabile. Per cui se all’improvviso questo tasso si impennasse, allora saremmo spinti a cercare la causa di questa modificazione. In generale, la scienza del Novecento è passata da un determinismo del particolare a un determinismo delle popolazioni, dato che il secondo ha dimostrato una buona forza predittiva. Anche se ontologicamente vituperato, l’olismo è spesso epistemologicamente utile.

Una delle ragioni che impedisce al RE di prevalere è che la scienza si confronta con entità di tale complessità, che la prevedibilità a partire dalle particelle elementari (o dalle cellule viventi) è di fatto impossibile. (E si apre una vexata quaestio: la previsione a partire dall’elementare è impossibile per ragioni gnoseologiche, tecnologiche od ontologiche?...) Certe ipotesi riduzioniste vanno respinte non per ragioni metafisiche a prioriste, ma semplicemente perché sarebbero troppo complicate. Le nostre vite sono troppo brevi per aspettarci di trovare la spiegazione fisio-chimica ultima. Dobbiamo accontentarci: meglio scienze nane, che non-scienze in beckettiana attesa del Gigante.

Certe ipotesi riduzioniste, metafisicamente impeccabili, di fatto non funzionano perché non rispetterebbero il criterio del rasoio di Occam. Il rasoio di Occam spesso taglia la gola al RE. Certe spiegazioni deterministiche lineari sarebbero talmente complesse, da ricordare la famosa mappa 1:1 voluta dal bizzarro imperatore cinese immaginato da Borges. A cosa servirebbe mai una mappa 1:1?[5]

          Credo, per ragioni logiche, che la scienza sia un processo illimitato, e che quindi ogni pretesa di avere una teoria ultima, fondamentale, onnicomprensiva perché descriverebbe i processi più elementari, sia un’illusione. Se la scienza potesse spiegare tutto, dovrebbe dare una risposta alla domanda metafisica per eccellenza “perché l’essere anziché nulla?” (o: “perché questo essere e non un altro?”) Ma la fisica non dà risposte a domande metafisiche. Lungo la catena delle cause[6], possiamo andare sempre più lontano. L’intelligibile è un pozzo senza fondo. “Per quanto lontano ci spingiamo – diceva David Bohm[7] – esisterà sempre l’illimitato. Sembra che, per quanto lontano si vada, salterà sempre fuori qualcuno con un altro interrogativo cui si deve rispondere. E non vedo come si potrebbe mai porre fine a tutto ciò”. Gli antichi greci lo avevano capito, e siccome avevano orrore dell’infinito o illimitato (ápeiron), Aristotele ipotizzò una Causa Prima, dandole i caratteri della divinità. Noi, che con l’infinito siamo più a nostro agio, possiamo fare a meno della Causa Prima (anche se ogni tanto qualcuno propone una megalomane Teoria del Tutto).

Certo la scienza oggi ha una vocazione riduzionista, ma il punto è che questo riduzionismo è infinito: possiamo andare sempre al più elementare – in cosmologia, sempre al più precedente... (se il Big Bang è stato l’inizio di tutto, qual è stata la causa del Big Bang?...  e così via) In conclusione, “Non possiamo spiegare tutto di tutto, ma qualcosa di tutto” (Per Bak[8]).

 

6.

          Mi si dirà spazientiti: “ma insomma, cosa ne pensi tu del primato della spiegazione biologica nelle scienze umane?” Quel che posso dire è che spesso mi capita di leggere dei libri di biologia interessanti, stimolanti, acuti, che aprono nuove prospettive. Invece, raramente mi capita di leggere testi interessanti di psicologia o sociologia cognitive: troppo spesso vi leggo più il bisogno di confermare il buon senso comune o certi ideali politici che un’apertura di orizzonti impensati. Ma questo non dipende dal primato metafisico di una spiegazione biologica rispetto a spiegazioni di altro tipo: dipende piuttosto dalla congiuntura storica, dal fatto che un certo pensiero biologico oggi si trova a un passaggio cruciale (in un’epoca di “scienza straordinaria” nel senso di Kuhn?) più di quanto non avvenga in altre discipline. E anche dal fatto che le biotecnologie ci pongono questioni etiche, politiche, filosofiche ed esistenziali del tutto nuove e drammatiche – film come Blade Runner ci impressionano più di The Day After. L’eccellenza della biologia oggi è storica, non ontologica. Tra dieci o venti anni la situazione potrebbe cambiare – magari chissà, i bei libri, quelli davvero stimolanti, saranno di filologia classica o di filosofia morale.

 

Riferimenti

 

Castelfranchi, C., 2008, Contro il riduzionismo biologico prossimo venturo. Sistemi Intelligenti, n.

 

Horgan, J., 1998, La fine della scienza, Milano, Adelphi.

 

Kuhn, T.S., 1977, “Concepts of Cause in the Development of Physics”, The Essential Tension, Univ. of Chicago Press, Chicago-London, pp. 21-30. Tr.it. in M. Bunge et al., Le teorie della causalità, Einaudi, Torino 1974, pp. 5-15.

 

Parisi, D., 2008, Di chi è la colpa? Sistemi Intelligenti, n.

 

R. Thom, R. (1980), Paraboles et catastrophes, Paris, Flammarion.

 

R. Thom (1991), Prédire n’est pas expliquer, Paris, Flammarion.

 

Wheeler, J. & Zurek, W.H. (1983), Quantum Theory and Measurement. Princeton NJ., Princeton Univ. Press.



[1] [1] Kuhn (1977) distingue quattro stadi nella fisica occidentale: (1) la fisica aristotelica spiega il mondo naturale essenzialmente nei termini di due cause, la formale e la finale; (2) nella fisica classica dei secoli 17° e 18°, una vera spiegazione è sempre meccanica e richiede una causa efficiente (le forze newtoniane erano trattate generalmente come simili alle forze di contatto); (3) nella fisica del 19° secolo una combinazione di cause formali ed efficienti era la regola; (4) nella fisica più recente, le cause formali dominano il “campo”. Nel 20° secolo, infatti, la nozione di forze è stata sostituita dal concetto di campo (una causa formale aristotelica); ma anche la materia ha acquisito proprietà formali non immaginabili sul piano meccanico (lo spin, la parità, la stranezza, ecc.) e descrivibili solo in termini matematici. La meccanica quantistica ha negato l’assunto delle cause efficienti a livello subatomico, dato che per essa molti fenomeni accadono senza causa – ad esempio, il tempo in cui una particella alfa lascia un nucleo (se questa emissione venisse spiegata, la teoria quantistica sarebbe confutata).

 

[2] Sulla storia di questo dibattito (noto come quello dell’esperimento EPR), dal valore filosofico cruciale, rimando a Wheeler & Zurek (1983).

 

[3] Detto tra parentesi: il fatto che la teoria quantistica resti la regina della fisica moderna, malgrado le conseguenze assurde (non intelligibili) a cui porta, per molti demolisce de facto il criterio di falsificazione di Popper come regola fondamentale della scienza. Le teorie scientifiche sono sempre falsificate, eppure alcune prevalgono e altre vengono eliminate.

 

[4] Da secoli gli scienziati discutono se la realtà è granulare o continua, ovvero, se essa in ultima analisi è descrivibile con numeri interi o con numeri reali. Quel che è certo, è che la scienza ha bisogno di numeri, interi o reali che siano: ovvero di Ordine.

[5] Dennett osservava che un programma per calcolatore che modellizzasse con precisione il cervello umano potrebbe essere altrettanto imperscrutabile per noi quanto il cervello stesso. Per questa ragione, alcuni sostengono provocatoriamente che i veri scienziati del futuro saranno i computer stessi: solo loro potrebbero trovare intelligibile un modello esplicativo complicatissimo.

 

[6] In verità oggi pensiamo sempre più alle cause in termini reticolari, sempre meno in termini di catene lineari. Il che rafforza l’illimitatezza della spiegazione scientifica.

 

[7] Citato da Horgan (1998, p. 144). D.J. Bohm (1917-1992), fisico anglo-americano, partecipò al progetto Manhattan. Celebre per la “Bohm diffusion” e l’”Aharonov-Bohm Effect”, ha dato contributi importanti anche in neurofisiologia (modello olonomico del cervello, assieme a K. Pribram). Il suo pensiero è stato ispirato, oltre che dalla meccanica quantistica, da Hegel e Krishnamurti.

 

[8] Per Bak (1948-2002), fisico teorico danese, è famoso per il concetto di “criticalità auto-organizzata”.

Flussi © 2016Privacy Policy