Flussi di Sergio Benvenuto

Macchine celibi09/nov/2021


Sergio Benvenuto

Pubblicato su Aut aut, 388, dicembre 2020, pp. 179-195.


    Da tempo una parte della scienza scommette sulla possibilità che le macchine intelligenti, l’Intelligenza Artificiale (IA), evolvano fino a emanciparsi dal dominio umano, divenendo esseri pensanti a tutti gli effetti. Non solo la scienza: non si contano romanzi e film di fantascienza in cui i rapporti di servitù tra gli umani e le macchine intelligenti si capovolgono, e le macchine giungono a servirsi degli esseri umani – come nella famosa serie dei film Matrix, che tanto ha impressionato i filosofi . Questa prospettiva è considerata verosimile soprattutto perché è la prospettiva che nel fondo desideriamo (e proprio per questo temiamo): il fatto che le macchine, nostre creature, possano superare i propri creatori. Sorpassarli in capacità intellettuali. È un po’ come certi genitori che desiderano che i loro figli realizzino cose che loro non sono stati capaci di compiere.
    Non esamineremo invece qui lo sviluppo della robotica che tende a imitare la struttura materiale del cervello umano, a riprodurre le reti neurali. Né dei robot che sono programmati per comportarsi come esseri viventi, riprodursi, ecc. In questo caso dovremmo parlare piuttosto di vita artificiale . Comunque, appare già enormemente complesso riprodurre artificialmente la mente di una formica.
Ma tutto il dibattito su questa possibilità – che le macchine intelligenti divengano davvero intelligenti – non può esimersi dal problematizzare filosoficamente il concetto che ne è alla base: quello di macchina. Cosa intendevamo, e intendiamo, per μηχαν?, macchina?

1.
    L’IA è il punto di arrivo oggi di una evoluzione delle macchine che comincia con oggetti come ciotole e brocche. Non mi pare un caso che Heidegger, quando si è misurato con l’essenza del concetto di “cosa” (das Ding), abbia preso come campione non un oggetto naturale, come alberi o stelle, ma proprio la brocca, insomma un artefatto . È una brocca già, a suo modo, un’IA? John Searle, tra gli altri, risponderebbe di sì. In effetti, si può descrivere in termini di computazione binaria qualsiasi cosa, anche il funzionamento di una brocca.
    È noto l’argomento di Searle chiamato della “stanza cinese” . Egli immagina che lui, completamente ignaro del cinese, stia in una stanza nella quale entrano testi in ideogrammi cinesi. Lui dispone di un manuale in inglese che gli dice con quali caratteri cinesi deve “rispondere” all’input dei testi che giungono, per cui il suo output sarà corretto. Vista la cosa dall’esterno della stanza, sembrerebbe che Searle conosca perfettamente il cinese, ma di fatto lui non lo capisce. Diciamo che simula la comprensione del cinese. Per Searle i computer sono delle macchine che simulano la comprensione umana, ma non comprendono nulla. Perché le loro operazioni sono sintattiche, non semantiche: la sintassi di una frase può essere corretta ma la frase può non produrre alcun senso. Come nell’enunciato “Colorless green ideas sleep furiously”.
    Resta da capire che cosa intendiamo quando diciamo che un essere umano capisce quel che ascolta o dice, al di là del fatto di avere un comportamento linguistico corretto. La fenomenologia si è focalizzata su questa interrogazione sulla comprensione, ma io non seguirò la traccia fenomenologica.
    Concepiamo la comprensione umana come una sorta di percezione, che non avviene però attraverso i cinque sensi. In filosofia si dice che è intuizione:  si intuiscono non cose materiali ma oggetti astratti. La comprensione potrebbe essere considerata, in fondo, anche un sesto senso, il senso intellettuale.
    Searle dice che anche un coltello o una sedia sono macchine a loro modo intelligenti, solo che hanno un programma estremamente noioso. Io ho preferito l’esempio heideggeriano della brocca, ma il concetto è lo stesso: il programma della brocca – riempirsi di un liquido ed evacuarlo – è anch’esso un programma semplicissimo, ma è comunque un programma.
Ciò che dovrebbe meravigliarci dell’IA non è il fatto che essa si comporti come una mente umana, ma il fatto che essa mostri con quanta intelligenza gli esseri umani possano usare certe cose come macchine. Mostra l’uso intelligente che a un certo punto si è stati capaci di fare del sistema binario.
Bisogna dire che la teoria di Searle è comunque riduzionista (ogni vero materialismo è riduzionista) perché lega strettamente la mente alla struttura del cervello umano. Per Searle, è il cervello materiale a produrre comprensione e coscienza. Al che si è obiettato: dei singoli neuroni e nemmeno di insiemi di neuroni si può dire che “comprendano”, eppure il risultato globale dell’attività neuronica è il fatto che un essere umano capisca. Dalla materia cerebrale emerge la mente. Ma non si può dire allora anche che da una serie di macchine emerga una mente? Il materialismo usa un argomento di buon senso: che ci voglia un cervello perché ci sia una mente, è cosa scontata che tutti accettiamo. Ma è ancora da mostrare l’essenziale: come da una serie di attività cerebrali vengano fuori la comprensione, la coscienza…. Il nesso è postulato – e soddisfa le nostre credenze comuni sul rapporto corpo/mente – ma non è di fatto descritto dalle neuroscienze. Né dalle filosofie che a esse fanno appello.

2.
    Si dà il caso che la scienza moderna, materialista e meccanicista, abbia deciso di considerare la natura intera, Homo sapiens incluso, come un grande meccanismo. La macchina, oggetto costruito dagli umani per servirsene, è divenuta il modello stesso della spiegazione scientifica: si spiega qualcosa quando si descrive il suo funzionamento come un meccanismo. Abbiamo avuto così la meccanica classica, poi la meccanica relativista e quella quantistica. La scienza smonta – intellettualmente, ma talvolta anche praticamente – la natura rivelandola come macchina. La differenza è che i meccanismi naturali non servono a niente, l’essere umano si serve delle macchine che costruisce, ma nessuno si serve della “macchina umana”. A meno che non si ipotizzi Matrix. La natura, per la scienza moderna, è come le macchine farraginose e inutili costruite da Jean Tinguely: si dà come assunto di base che la natura sia una macchina che non serva a nessuno. La scienza analizza la natura come se fosse una macchina. La scienza è come un bambino che smonti un orologio per capire come funziona. Ma credere che l’IA sia una mente come quella umana, o viceversa, equivale a credere che, descrivendo il funzionamento di un orologio, si possa capire che cosa sia il tempo.
Nella prospettiva della scienza, anche il pensiero e la capacità umane di capire vanno descritte come funzioni di un meccanismo. Da qui il paragone ormai consunto della mente umana con il computer: il nostro cervello sarebbe l’hardware, ciò grazie a cui funziona un software, che in sé non è cerebrale. Si è molto ironizzato su questo, si è fatto notare che da sempre si è descritta la mente umana in analogia con la macchina di punta di ogni epoca. La si è paragonata a un mulino (Leibniz), poi a un telegrafo, quindi a un telaio jacquard e poi a una centralina telefonica. Ma già i greci, pare, descrivevano la mente come una catapulta. Oggi che la macchina più avanzata tecnologicamente è il computer, si tende a descrivere la mente umana come fosse un computer. Questo è un corollario, anche se intriso di ingenuità, del fatto che appunto la scienza, da oltre quattro secoli, descrive gli enti, e quindi anche l’ente mentale, sul modello di macchine costruite dagli umani.
Quindi, se Homo sapiens è una macchina biologica che è capace di pensare, perché escludere che le nostre macchine elettroniche, i nostri robot, non possano pensare, con buona pace di Searle? Ma si dimentica che ciò che fa di qualcosa una macchina è l’uso. In sé, una sedia, una brocca, un computer non sono macchine: è l’uso che ne facciamo che le rende tali. „Non esiste nulla che sia intrinsecamente un calcolatore digitale“ . Ora, noi partiamo dall’assunto che l’essere umano, compresa la sua mente, non sia usato da nessuno. O possiamo dire che il cervello, o la mente, sono macchine che l’essere umano usa? Ma allora chi usa la mente umana? Finiamo nelle bamboline russe degli homunculi, di quelle menti che stanno dentro la macchina mentale e la muovono, e che rimandano a un homunculus sempre più interno. Cosa che non risolve affatto il problema.
La sfida meccanicista oggi non consiste tanto nel dire che noi esseri umani siamo macchine quindi determinati, ma che le macchine possano evolvere fino a diventare non solo come noi umani, ma meglio di noi. Macchine più perfezionate di quanto non siamo noi.


3.    
    La questione cervello/mente di solito, come si vede, viene affrontata in termini sincronici. Ci si chiede che rapporti ci siano oggi tra un meccanismo – sia un cervello umano, sia un computer – e le capacità mentali. Ma sarebbe più utile affrontarla in termini diacronici, ovvero sullo sfondo della storia della vita.
Certamente per la biologia moderna, post-darwiniana e post-mendeliana, gli organismi viventi sono macchine costituite da sostanze organiche. Ma sono macchine molto particolari. Ogni essere vivente, essere umano incluso, ha un programma per dir così, il proprio genoma. Ma a parte il fatto che non esistono due individui con lo stesso genoma (tranne i gemelli omozigoti), c’è qualcosa di fondamentale alla vita: che la vita tende a cambiare continuamente programma. Questo cambiamento è descritto come stocastico: nel ricopiare geni, la natura si sbaglia. Questi “errori” sono selezionati dall’ambiente après-coup. Essi sono alla base di tutta la storia della vita, chiamata evoluzione: perché il loro accadere è all’origine della straordinaria varietà delle forme viventi.
In effetti, comprendere, pensare, decidere sono funzioni umane che derivano da tutta la storia della vita, ovvero sono frutto di una sterminata variazione di programmi. Quando diciamo che un animale comprende e decide, lo diciamo sulla base dell’analogia con quel che per noi umani è comprendere e decidere, ma questo perché alcuni istinti fondamentali ci sembrano comuni a tutti i viventi. La nostra visione del vivente è necessariamente antropomorfica. Qualunque cosa sia l’essenza del comprendere, essa implica il vivente, ovvero il risultato di innumerevoli mutazioni e selezioni.
Si dirà che il darwinismo è una teoria recente, mentre gli esseri umani hanno sempre descritto gli animali in analogia a se stessi. Questo perché gli umani hanno sempre intuito qualcosa che chiamerei la fondamentale unità della vita. È l’intuizione di questa unità che ci porta a dire che un animale ha paura, sente gioia, decide, soffre, a suo modo pensa… Così già nella Grecia omerica si poteva dire che il cane Argo riconobbe Ulisse.
    Il punto cruciale quindi non è la differenza tra mente umana e mente artificiale, è la differenza tra vivente e non vivente. E in effetti, ci sentiamo di solito molto più vicini a un gatto che a un computer che sia capace di battere tutti a scacchi. Per questa ragione possiamo avere compassione per un gatto se soffre, possiamo amarlo, mentre non possiamo amare una macchina pensante, né avere compassione per essa, anche se il costruttore le immettesse un programma in cui simulasse perfettamente la sofferenza. Forse in certi casi possiamo anche amare una macchina e compatirla – i bambini, si sa, spesso amano una macchina - ma un robot che simula sofferenza non è diverso da un attore che simuli la sofferenza del personaggio: sappiamo che in entrambi i casi non c’è soggetto sofferente. Questo perché tutti i vari concetti di mente che ci siamo costruiti nel corso della storia sono inscindibili dalla vita biologica da cui sono estrapolati. Non possiamo nemmeno immaginare che cosa possa significare una mente – che abbia qualcosa di simile alla nostra coscienza – che non sia intrecciata con le esigenze e gli assili della vita. La coscienza, per noi, è essenzialmente una coscienza sofferente e godente. Per noi la mente è qualcosa di essenzialmente patetico.

4.
Se volessimo quindi che l’IA manifestasse qualcosa come la nostra comprensione, dovremmo aspettarci che anche le IA entrino in un processo evolutivo di mutazione del loro programma. Ma è possibile programmare una macchina che sia capace di cambiare il proprio programma? Il punto è che il cambiamento viene sempre dall’esterno di un programma, non è programmabile, nella vita esso è una conseguenza di errori di riproduzione. Per dire che un computer “capisce”, dovremmo avere dei computer che si riproducano. Oggi si costruiscono robot maschi e femmine che si riproducono, è vero. Ma è possibile costruire un meta-programma che permetta un cambiamento, anche randomizzato, di programmi? Non so cosa rispondere a questa domanda. Il limite dell’IA è che essa è una macchina celibe, come disse Marcel Duchamp; non si riproduce. E quindi non può variare.
Penso che un computer abbia la possibilità di emanciparsi dal nostro uso umano solo se si rompesse, come si vede con il computer HAL nel film di Kubrick 2001: Odissea nello spazio. Anche in una brocca può prodursi un buco, e quindi tutto il liquido fuoriuscire. Potrebbe essere una brocca dadaista. Le IA dovrebbero continuamente rompersi per poter “evolvere”, come è accaduto agli organismi viventi. Rompersi nel senso di modificare casualmente i propri programmi.
    Molti pensano che le IA “evolvano” se vi immettiamo sempre più informazioni e modi sempre più sofisticati di processarle. Ma questo si basa su un radicale fraintendimento di evoluzione in senso darwiniano. Questi molti danno a evoluzione un senso “progressista”, pensano che una cosa evolva perché si perfeziona. Ma la storia della vita per le scienze dell’evoluzione non è affatto un perfezionamento o complicazione, è solo moltiplicarsi di varianti. Suol dirsi che attualmente il pianeta è dominato da Homo sapiens, ma potremmo dire che è dominato anche dalle formiche, che a miliardi non cessano di riprodursi. Non è perfezionando le macchine che le si fa evolvere.
Attraverso il personaggio di HAL, il cinema ha ipotizzato un computer che si umanizza, che cessa di servire agli umani, proprio perché si rompe. Così HAL acquisisce un istinto di auto-perpetuazione che assomiglia all’istinto di sopravvivenza degli umani: si ribella al progetto umano di spegnerlo per sempre. HAL non era stato programmato per avere un istinto di auto-perpetuazione: lo acquisisce per errore. Ma è un puro caso – immaginato per ragioni drammatiche – che questa rottura porti a un comportamento del tutto simile a quello degli umani, che lottano per sopravvivere. Potrebbe portare a comportamenti del tutto non-umani, e da non viventi, che gli umani avrebbero problemi a interpretare come atti.
    Oggi gli informatici progettano programmi che siano in grado di cambiarsi. Ma questo implica appunto la definizione di un meta-programma che contempli il cambiamento, magari casuale, di programmi. Le IA sarebbero sempre dentro un meta-programma, ma nella vita sulla terra non esiste questo meta-programma. Non c’è una regia dell’evoluzione.
Quindi, anche dando alle macchine la capacità di riprodursi e di cambiare programma, non abbiamo alcuna idea di che cosa questo produrrebbe col tempo. È estremamente improbabile che l’evoluzione di queste macchine replichi l’evoluzione della intelligenza vivente. Delle macchine che si riproducessero e mutassero potrebbero prendere una linea di sviluppo del tutto diversa da quella della vita, potrebbero prendere strade per noi impensabili, perché mai sperimentate dalla vita. Wittgenstein disse che “se un leone potesse parlare, noi non potremmo capirlo”, perché non siamo leoni . Analogamente, dico che se le IA sviluppassero un loro pensiero, noi non potremmo intenderlo – o meglio, non potremmo nemmeno riconoscerlo come un pensiero - perché non possiamo avere alcuna esperienza di un pensiero frutto di una riproduzione di macchine e non di esseri viventi (ripeto: non ‘non abbiamo avuto alcuna esperienza’, ma ‘non possiamo avere’…). Anche illustri scienziati che credono nell’evoluzione delle IA in esseri pensanti autonomi da noi partono da presupposti molto antropocentrici: danno per scontato che le menti artificiali siano nel fondo simili alle menti umane, e a quelle animali in generale. Si immaginano le IA evolute come delle menti superiori alle nostre, ma pur sempre menti uman-simili. Invece, se questa evoluzione delle macchine avvenisse, è lo stesso concetto di mente che diverrebbe problematico. Molti scienziati e filosofi decisamente mancano di immaginazione.
Abbiamo detto che tendiamo a credere che basti inserire in una macchina una quantità straordinaria di informazioni e di regole combinatorie per creare delle menti superiori. Con questa immagine cognitivista della mente non ci si rende conto che quel che rende comprensibile per noi umani il concetto di “comprensione” è intimamente connesso al fatto che ciascuno capisca a modo proprio. Difatti, non siamo mai sicuri che l’altro ci abbia veramente capito, né che io abbia veramente capito l’altro. Il malinteso è una dimensione ubiqua della comunicazione umana. Questo perché ciascuno ha il proprio programma genetico e la propria storia, e solo per approssimazione possiamo dire che ci capiamo tra noi. In un certo senso, parliamo sempre con dei leoni. Ciò che chiamiamo “esperienza” è sempre il frutto di una evoluzione che ha “deciso” ciò di cui possiamo avere esperienza e ciò di cui non possiamo.
Insomma, ciò che è fondamentale nel nostro rapporto con gli altri, non è solo ciò che comunichiamo, ma anche ciò che non comunichiamo, e che fa da sfondo alla nostra distanza dall’altro. È l’abissale solitudine dell’altro ciò che ce lo rende umano, un interlocutore. Il fatto che l’altro possa non capirci, o non condividere affatto i nostri ragionamenti che pur ci sembrano inoppugnabili – cosa che accade ogni giorno – è la prova che l’altro ha una mente, ovvero che l’altro ci sia almeno in parte inaccessibile.
La vita insomma è caratterizzata da una costante imperfezione , mentre le IA sono troppo perfette. Per esempio, sappiamo che l’80% del nostro DNA non svolge alcuna funzione, è junk genetico, eppure in questa parte inutile si annidano possibilità future. Ora, il concetto di imperfezione è teleologico: qualcosa è imperfetto in relazione a un suo supposto fine o funzione. Se costruiamo una brocca o una sedia, cerchiamo di renderla il più perfetta possibile in relazione alla sua funzione, mentre nei processi biologici non è affatto così. Nel nostro caso, dobbiamo ammettere che il vivente è imperfetto rispetto alla sua supposta capacità comunicativa. La teoria della comunicazione distingue il segnale dal rumore. Ora, come una parte del DNA è rumore rispetto a una sua supposta efficienza come segnale, analogamente nella comunicazione umana non tutto è segnale, molto è spazzatura comunicativa, ma forse è proprio questa spazzatura, o rumore, a costituire quell’incertezza che fa di ciascuno di noi un soggetto.
    Abbiamo parlato della necessità del malinteso nella comunicazione umana. E ricorderemo che – all’estremo opposto del pensiero occidentale – Heidegger faceva del malinteso, assieme alla chiacchiera e alla curiosità, le tre espressioni principali della vita inautentica. Perché Heidegger ha scelto proprio questi tre modi? Quel che hanno in comune, in effetti, è la loro insufficienza comunicativa. Nella chiacchiera non comunichiamo nulla, svolgiamo la funzione che la linguistica chiama fatica, ovvero di mantenere un contatto con l’altro. Come quando parliamo del buono o cattivo tempo con una persona: manteniamo il contatto tra noi interlocutori, senza dire sostanzialmente nulla. E la curiosità nasce dall’esigenza di far entrare nella comunicazione qualcosa che ancora non è entrato, è puro desiderio di comunicare in cui non si comunica ancora nulla. Questi limiti della comunicazione sono però essenziali perché si possa parlare di “soggetti”.

5.
    La migliore letteratura fantascientifica ha immaginato esseri che non sono né menti né oggetti, o forse sono entrambe le cose. Enti che sfuggono, insomma, al dualismo cartesiano. Ad esempio nel romanzo Solaris di Stanislaw Lem – da cui hanno tratto più film, in particolare quello di Andrej Tarkovskij – viene tematizzato un ente in gran parte impensabile, “l’oceano vivente”. Quando esseri umani mettono piede sul pianeta Solaris, dove si stende questo oceano, esseri sepolti nella mente degli umani prendono forma concreta, diventano replicanti a loro volta viventi. Ora, possiamo dire che l’oceano di Solaris, con la sua capacità quasi psicoanalitica di recuperare memorie del passato, è una mente? Ha ancora senso parlare di mente a proposito di enti come questi?
    Forse ci sono già delle macchine che ci usano, ci dominano, come noi facciamo con cani o gatti, ma non ce ne rendiamo conto perché non possiamo pensare questo dominio. Non possiamo averne i concetti per pensarlo, e difatti dire “dominio” è già dire troppo. Il nostro intelletto, abbiamo detto, è frutto di un assetto particolarissimo ed estremamente improbabile delle cose. La stessa vita è un ordine altamente improbabile delle combinazioni chimiche. Col nostro intelletto possiamo certamente immaginare l’esistenza di un inintelligibile – come stiamo facendo qui – ma l’inintelligibile resta tale. (Del resto, che cosa hanno fatto, sempre, le religioni e le mistiche se non ricordarci che non dobbiamo essere antropocentrici, che c’è dell’inintelligibile, qualcosa che non potremo mai capire ma che potrebbe esistere?) Perché le nostre capacità di comprensione sono in funzione del nostro ambiente biologico, dell’Umwelt. Ma l’ambiente di una macchina da noi costruita non è biologico.

     Alcuni diranno: perché dobbiamo per forza pensare che il concetto di mente sia indistricabile dalla vita, e quindi dagli istinti, dalle pulsioni? Non potremmo isolare le funzioni puramente mentali dai corpi viventi, il pensiero dalle pulsioni? Oggi certi computer sono capaci di battere anche grandi campioni di scacchi o di go. Quando giochiamo a questi giochi logici, non mettiamo in atto dei processi di ragionamento che possono essere riprodotti in una macchina? Eppure anche i computer campioni di scacchi simulano i ragionamenti umani, non ragionano come gli umani. Non diversamente da come la ciotola riproduce il modo di raccogliere l’acqua con il cavo della mano, ma la ciotola non è cavo delle mani. E come una ciotola non sarà mai un essere umano con delle mani, analogamente un computer non sarà mai una mente umana. Mente a-umana, potremmo dire tutt’al più. Perché nel concetto di ragionamento implichiamo una certa idea di sforzo, un certo focalizzarsi della mente che ignora tutto ciò che le sta attorno, che il computer non avrà mai. A meno che, appunto, i computer non evolvano a loro volta come esseri viventi, che non ripercorrano l’iter della vita che giunge fino a noi... cosa molto, molto improbabile.

6.
Il biologo Johannes von Uexküll – che fu allievo di Heidegger - chiamò Umwelt, ambiente, il ‘mondo-attorno’ a un organismo . Ora, l’ambiente è quel che risulta rilevante, significativo, sempre e solo per un organismo di una data specie: è quell’insieme di tratti che costituiscono un segnale pertinente, capace cioè di innescare certe reazioni prescritte, scritte prima, nell’organismo. Questo significa che per le specie che abitano in uno stesso territorio, gli ambienti sono diversi: ogni specie ha il proprio ambiente. Questo porta von Uexküll a un’affermazione di tenore kantiano: «nessun animale può entrare in relazione con un oggetto come tale (als solchem)».
Von Uexküll portò l’esempio dell’ixodes ricinus, zecca dei boschi, un animale che reagisce elettivamente a tre soli segnali esterni: a) l’odore dell’acido butirrico, b) la temperatura di 37°, c) una certa tipologia della pelle dei mammiferi. Solo questi tre sono “portatori di significato”. Qualsiasi altra cosa non ha alcuna rilevanza per questo aracnide; per esso il resto è rumore, non segnale.
Insomma, l’approccio naturalistico conduce a una conclusione scettica: dell’universo che supponiamo esistere, ci accorgiamo solo di quello che fa segnale per la nostra specie, che fa scattare le nostre reazioni.
Heidegger (1983), riprendendo von Uexküll, chiamò disinibitori questi «portatori di significato» . Di contro però al relativismo a cui porta la biologia, Heidegger esalta la differenza umana: oltre il cerchio disinibitore c’è un Welt di cui l’essere umano è costruttore. Quella di Heidegger è la posizione umanista classica, che si regge sulla separazione netta tra animalità e umanità. L’eccezionalità del Dasein, dell’esser-ci, rispetto a qualsiasi animale consiste nel fatto che egli ha relazione, al di là del cerchio disinibitore, proprio con l’ente in quanto tale. Solo l’essere umano tematizza l’essere dell’ente.
Ma non seguiremo questa via heideggeriana. Daremo invece per buono il punto di vista naturalista, secondo cui Homo sapiens è un animale come gli altri. Quindi, anche Homo sapiens sarà strutturato in relazione al proprio Umwelt, e non ha accesso al Welt, al mondo come tale. Questo significa che il suo comprendere e pensare è sempre in relazione al proprio ambiente. Inevitabilmente Homo sapiens antropomorfizza tutto, anche e soprattutto quando fa scienza. La scienza non è fatta da angeli o da marziani, ma da una specie determinata, che reagisce solo al proprio ambiente. Possiamo andare anche sulla luna, biologicamente non usciremo mai dal nostro ambiente. Quando gli astronauti hanno visto la terra intera dalla luna, semplicemente hanno inserito la vista della terra nel loro ambiente. Possiamo dire che la scienza, involontariamente, è sempre tolemaica.
    Da qui la stupidità di quei teorici che evocano gli extra-terrestri: “Se un marziano venisse sulla terra, che cosa penserebbe…?” Ma se esistessero altre menti non emerse dalla vita terrestre, vedrebbero le cose da tutt’altro punto di vista, nemmeno immaginabile per noi. La nostra conoscenza che si dice obiettiva non è “marziana”, è legata intimamente ai nostri istinti naturali, alle nostre pulsioni. La conoscenza in questo senso non è radicalmente diversa dalla sessualità, per esempio: così come apprezziamo certi tratti erotici dell’altro perché siamo animati da una sessualità che in ultima istanza è effetto del nostro genoma, analogamente ci accorgiamo di certe cose del mondo e non di altre perché così si esprimono certe nostre predisposizioni biologiche. Non possiamo conoscere ciò che esula dal nostro ambiente. Basti pensare a come vediamo diversamente le cose quando siamo bambini: se torniamo in una città in cui eravamo stati da bambini piccoli, vedremo tutt’altra cosa. E se varia talmente la nostra percezione del mondo nel corso della nostra vita, figuriamoci cosa potremmo intendere di una “percezione” non prodotta dalla vita. La conoscenza oggettiva non si libererà mai dalle catene della vita.

Eppure, grazie al linguaggio, Homo sapiens riesce a pensare qualcosa che non è pensabile per lui: quello che chiamerei il reale al di là del proprio Umwelt. In effetti, nel momento stesso in cui dico che possiamo conoscere solo il nostro ambiente, ipso facto pongo qualcosa che non è nel nostro ambiente, che non ci disinibisce. Come è possibile che l’essere umano riesca a pensare – ovvero, a situare nell’essere - qualcosa che determina come impensabile? E soprattutto: si manifesta in qualche modo questo reale a lui? Ovvero, il rumore si segnala in qualche modo a lui? Ma se il rumore si segnala come tale, non cessa di essere rumore? Potrebbe segnalarsi come un buco nell’ambiente, potrebbe insomma segnalarsi come un non-essere. Forse qualcosa di simile a ciò che i polinesiani chiamano mana. Ma se il rumore è precisamente ciò che non ci disinibisce (nel senso heideggeriano), come può disinibirci in modo che possiamo dire “nel mondo c’è un buco, un’assenza di segnale”? La filosofia si trova insomma di fronte a qualcosa di paradossale, ai limiti del pensabile. Eppure la filosofia nasce proprio perché si misura con questo impensabile.
In effetti, non c’era bisogno di aspettare von Uexküll perché la filosofia tematizzasse – ovviamente in un linguaggio molto diverso – questa divisione di ciò che è. Una divisione tra ciò che è dato alla nostra esperienza (l’Umwelt) e ciò che non è dato all’esperienza, ma il cui essere va presupposto. Forse la filosofia, sin dagli inizi, ha cercato di venire a capo di questo imbroglio. Penso che gli antichi greci chiamassero questo reale al di là dell’ambiente ousìa, letteralmente “il patrimonio”. Da qui l’idea platonica di una caverna in cui vediamo solo ombre, cioè solo ciò che fa segnale per la nostra specie. Platone supponeva che qualcuno fosse capace di uscire dalla caverna e vedere il reale, l’ousìa; mentre noi moderni tendiamo a non credere che si possa uscire dalla caverna, vedere in faccia le cose reali. Eppure sappiamo che stiamo in una caverna, e che non esistono solo delle ombre in una caverna.
Avanzo questa ipotesi: che ciò che chiamiamo la coscienza, i qualia, il senso di un’esperienza assolutamente privata, l’interiorità, comunque la si voglia chiamare, è qualcosa che fa rumore nel nostro mondo. Il che a prima vista sembra assurdo, perché la nostra coscienza, le nostre sensazioni private, la nostra mente intima, sembrano essere al contrario ciò che per noi è più significativo.
Wittgenstein nelle Ricerche filosofiche ha sviluppato un’analisi ingegnosa dello statuto del mondo privato, divenuto poi noto come Argomento del Linguaggio Privato (che molti considerano piuttosto un sofisma) . Detto in modo molto stringato, Wittgenstein sostiene che noi possiamo certamente esprimere il nostro privato, ma non lo possiamo conoscere. Perché per Wittgenstein il linguaggio è sempre cosa pubblica, ovvero – nella nostra terminologia – è correlato a ciò che fa segnale per la nostra specie. Possiamo conoscere solo ciò che fa segnale per la nostra specie, e che quindi in quanto tale può essere reso pubblico (comunicato a membri della stessa specie) attraverso il linguaggio. Ma questo non implica affatto – come credono molti che fraintendono Wittgenstein – che per questo il privato non conti. Al contrario, il privato è proprio la cosa essenziale, anche se inconoscibile. Il privato è ciò che ci fa menti viventi, e non macchine intelligenti.
Se qualcuno mi dice “Ho mal di denti”, do per scontato che abbia un’esperienza privata di dolore, almeno che non menta o non simuli. Ma questa esperienza in quanto sua privata non mi è accessibile. La presuppongo come qualcosa che sfugge al senso, e che pure dà senso alla frase “ho mal di denti”. Secondo Wittgenstein, “ho mal di denti” non è la descrizione di un oggetto mentale, come tale conoscibile, piuttosto è un modo di esprimere il dolore. Ma di questo dolore conosco solo la sua espressione. E sappiamo che un dolore può anche non essere espresso. Dunque, non “penso dunque sono”, ma “non posso pensare ciò che tu pensi, dunque sei”.
Non bisogna pensare però che l’inesprimibile, il privato, siano affetti ed emozioni. Come ben sappiamo, affetti ed emozioni private si segnalano fortemente, non meno delle cose percepite. Anche in un animale siamo capaci di leggere la paura, la gioia, la rabbia, il desiderio… e possiamo empatizzare con lui per questo. Ciò che non si segnala è la soggettività degli affetti e delle emozioni, ovvero ciò che non possiamo conoscere. Ma che resta come sullo sfondo, quello sfondo che non presupponiamo alla macchina. A meno che essa non ci inganni, simulando.
Anche gli esseri umani possono, certo, simulare come computer. Si prenda il caso di ciechi dalla nascita che parlano di colori, o di sordi dalla nascita che parlano di suoni. Essi possono imparare a usare correttamente i nomi dei colori o dei suoni, un cieco può dire che il rosso di un tramonto è impressionante, un sordo che il canto di un usignolo è incantevole, ma parlando di queste cose è come se simulassero. Perché non stanno immaginando ciò di cui stanno parlando. In effetti, non possiamo mai definire una sensazione di un colore, di un suono, che potremmo trasmettere attraverso proposizioni: o siamo capaci di avere queste sensazioni, che saranno sempre le mie, oppure non farò che simulare di avere quelle sensazioni. Il concetto di un colore, in particolare, rimanda sempre a qualcosa che non sarà mai concettualizzabile, e che pure dà senso a tutti i concetti di colore.
Una macchina può essere programmata per dare informazioni false, ma non può mentire. Solo Homo sapiens può mentire, perché supponiamo in ciascun soggetto uno scarto più o meno ampio tra ciò che esprime e ciò che non esprime; e l’idea stessa di menzogna implica un pensare che non si segnala, e che quindi è rumore. È questo sfondo di rumore che ci fa considerare gli altri esseri viventi come simili a noi.
Ora, come abbiamo detto, non c’è nulla di più facile che costruire un robot che si contorca e pianga come uno che senta dolore, e che dica pure “ho mal di denti”. Se è una macchina di Turing, il suo comportamento sarà indistinguibile da quello di un essere vivente reale. Ma c’è una differenza fondamentale: che non empatizzerò mai con il comportamento doloroso di un robot, come abbiamo visto. E che cosa ha in più un essere vivente che una macchina non avrà mai, anche se i comportamenti di entrambi possono essere identici? È che del vivente si segnala qualcosa di inconoscibile perché è solo rumore per l’altro: il suo essere qualcuno che io non sarò mai. Ma allora, paradossalmente, il rumore si segnala come tale, come ciò di cui posso conoscere solo l’espressione, non l’essere. È questa la distanza tra una macchina di Turing e un’intelligenza vivente, per quanto elementare.
Ogni macchina, essendo una mente troppo perfetta, è senza storia. Essa risponde bene a tutti i segnali, ma non contiene in sé quel rumore che ci umanizza, quell’inconoscibile che ci tocca il cuore. In effetti l’IA è una costruzione della scienza, la quale scienza fa sempre indietreggiare il rumore, il reale, restituendocelo come segnali a cui possiamo rispondere. Ma la stessa scienza è segretamente polarizzata, attratta, sferzata direi, dal reale. Comunque, la scienza va verso di esso. Per questa ragione non è giustificato il disprezzo che una parte della filosofia (detta “continentale”) nutre nei confronti dell’intrapresa scientifica, animata dal reale anche se senza saperlo.


Ringrazio Domenico Parisi per i commenti e le critiche che mi hanno permesso di migliorare, spero, questo testo.



Flussi © 2016Privacy Policy