Flussi di Sergio Benvenuto

Macchine celibi09/nov/2021


Sergio Benvenuto

Macchine celibi

- Edizione rivista di: "Macchine celibi",  aut aut, 388, dicembre 2020, pp. 179-195.

 

 

            I media, dai più popolari ai più raffinati, sono invasi dall’Artificial Intelligence (AI). Intellettuali raffinati e avventurieri come Musk pubblicano lettere accorate in cui si mette in guardia dai pericoli delle nuove macchine intelligenti, mentre altri celebrano il trionfo della macchina di Turing. Se le risposte di una macchina sono indistinguibili da quelle di un essere umano, allora, sulla base del principio dell’identità degli indiscernibili, possiamo dire che la mente umana e quella meccanica sono la stessa cosa.

            Insomma, rivive oggi la grande fantasia della creatura di Frankenstein, di un essere senziente e intelligente creato dagli umani. Dobbiamo essere fieri o dobbiamo essere inorriditi per il fatto che Homo sapiens sia capace di creare menti, proprio come Dio?

 

            Una parte della scienza così come la cultura popolare scommettono sulla possibilità che l’AI evolva fino a emanciparsi dal dominio umano, dato che sembra avere capacità intellettuali superiori a quelle degli umani. Non si contano romanzi e film di fantascienza in cui i rapporti di servitù tra gli umani e le macchine intelligenti si capovolgono, e le macchine giungono a servirsi degli esseri umani – come nella serie dei film Matrix, che tanto ha impressionato i filosofi[1]. Questa prospettiva è considerata verosimile soprattutto perché è la prospettiva che nel fondo desideriamo, e proprio per questo temiamo: il fatto che le macchine, nostre creature, possano superare i propri creatori. Sorpassarli in capacità intellettuali. È un po’ come quando i genitori desiderano che i loro figli realizzino cose che loro non sono stati capaci di compiere.

            Non esamineremo qui lo sviluppo di quella robotica che tende a imitare la struttura materiale del cervello umano, a riprodurre le reti neurali. Né dei robot che sono programmati per comportarsi come esseri viventi, riprodursi, ecc. In questo caso dovremmo parlare piuttosto di vita artificiale[2]. Comunque, appare già enormemente complesso riprodurre artificialmente la mente di una formica.

Ma tutto il dibattito su questa possibilità – che le macchine intelligenti divengano davvero intelligenti – non può esimersi dal problematizzare filosoficamente il concetto che ne è alla base: quello di macchina. Cosa intendiamo, per μηχαν?, macchina?

 

1.

            L’AI è il punto di arrivo oggi di una evoluzione delle macchine che comincia con oggetti come ciotole e brocche. Non mi pare un caso che Heidegger, quando si è misurato con l’essenza del concetto di “cosa” (das Ding), abbia preso come campione non un oggetto naturale, come alberi o stelle, ma proprio la brocca, insomma un artefatto[3]. È una brocca già, a suo modo, un’AI?

John Searle ha risposto di sì. In effetti, si può descrivere in termini di computazione binaria qualsiasi cosa, anche il funzionamento di una brocca. Searle è autore della famosa confutazione dell’idea secondo cui le macchine possano essere vere intelligenze nel senso umano del termine.

            È noto l’argomento di Searle chiamato della “stanza cinese”[4]. Egli immagina che lui, completamente ignaro del cinese, stia in una stanza nella quale entrano testi in ideogrammi cinesi. Lui dispone di un manuale in inglese che gli dice con quali caratteri cinesi deve “rispondere” all’input dei testi che giungono, per cui il suo output sarà corretto. Vista la cosa dall’esterno della stanza, sembrerebbe che Searle conosca perfettamente il cinese, ma di fatto lui non lo capisce. Diciamo che simula la comprensione del cinese. Per Searle i computer sono delle macchine che simulano la comprensione umana, ma non comprendono nulla. Perché le loro operazioni sono sintattiche, non semantiche: la sintassi può essere corretta ma in sé non produce alcun senso. Come nella frase Idee verdi e incolori dormono furiosamente: essa è perfettamente sintattica, ma non significa nulla di comprensibile.

            Resta da capire che cosa intendiamo quando diciamo che un essere umano capisce quel che ascolta o dice, al di là del fatto di avere un comportamento linguistico corretto. La fenomenologia filosofica si è focalizzata su questa interrogazione sulla comprensione, ma io non seguirò la traccia fenomenologica.

            Concepiamo la comprensione umana come una sorta di percezione, che non avviene però attraverso i cinque sensi. In filosofia si dice che è intuizione: si intuiscono non cose materiali ma oggetti astratti. La comprensione potrebbe essere considerata, in fondo, anche un sesto senso, il senso intellettuale.

            Searle dice che anche un coltello o una sedia sono macchine a loro modo intelligenti, solo che hanno un programma estremamente noioso. Io ho preferito l’esempio della brocca, ma il concetto è lo stesso: il programma della brocca – riempirsi di un liquido ed evacuarlo – è anch’esso un programma semplicissimo, ma è comunque un programma.

Ciò che dovrebbe meravigliarci dell’AI non è il fatto che essa si comporti come una mente umana, ma il fatto che essa mostri con quanta intelligenza gli esseri umani possano usare certe cose come macchine. Mostra l’uso intelligente che a un certo punto si è stati capaci di fare del sistema binario. Perché tutti i software si basano sul sistema binario, sui bits.

Bisogna dire che la teoria di Searle è comunque riduzionista (ogni vero materialismo è riduzionista) perché lega strettamente la mente alla struttura del cervello umano. Per Searle, è il cervello materiale a produrre comprensione e coscienza, non un software. Al che si è obiettato: dei singoli neuroni e di insiemi di neuroni non si può dire che “comprendano”, eppure il risultato globale dell’attività neuronica è il fatto che un essere umano capisca. Dalla materia cerebrale emerge la mente. Ma non si può dire allora anche che da una serie di macchine emerga una mente? Il materialismo usa il buon senso come argomento: che ci voglia un cervello perché ci sia una mente, è cosa scontata che tutti accettiamo. Ma è ancora da mostrare l’essenziale: come da una serie di attività cerebrali parziali vengano fuori la comprensione, la coscienza…. Il nesso è postulato – e soddisfa le nostre credenze comuni sul rapporto corpo/mente – ma non è di fatto descritto dalle neuroscienze. Né dalle filosofie che a esse fanno appello.

 

2.

            Si dà il caso che la scienza moderna, materialista e meccanicista, abbia deciso di considerare la natura intera, Homo sapiens incluso, come un grande meccanismo. La macchina, oggetto costruito dagli umani per servirsene, è divenuta il modello stesso della spiegazione scientifica deterministica: si spiega qualcosa quando si descrive il suo funzionamento come un meccanismo. Abbiamo avuto così la meccanica classica, poi la meccanica relativista e quella quantistica. La scienza smonta – intellettualmente, ma talvolta anche praticamente – la natura rivelandola come macchina. Nella misura in cui anche il cervello umano è un oggetto natuyrale, anch’esso va smontato come macchina.

La differenza è che i meccanismi naturali non servono a niente, l’essere umano si serve delle macchine che costruisce, ma nessuno si serve della “macchina umana”. A meno che non si creda in Matrix. La natura, per la scienza moderna, è come le macchine farraginose e inutili costruite da Jean Tinguely: si dà come assunto di base che la natura sia una macchina che non serva a nessuno. Diciamo che la scienza analizza la natura come se fosse una macchina. La scienza è come un bambino che smonti un orologio per capire come funziona. Ma credere che l’AI sia una mente come quella umana, o viceversa, equivale a credere che, descrivendo il funzionamento di un orologio, si possa capire in che cosa consista il tempo.

Nella prospettiva della scienza, anche il pensiero e la capacità umane di capire vanno descritte come funzioni di un meccanismo. Da qui il paragone ormai consunto della mente umana con il computer: il nostro cervello sarebbe l’hardware, ciò grazie a cui funziona un software, che in sé non è cerebrale. Si è fatto notare, molto ironicamente, che da sempre si è descritta la mente umana in analogia con la macchina di punta di ogni epoca. La si è paragonata a un mulino (Leibniz), poi a un telegrafo, quindi a un telaio jacquard e poi a una centralina telefonica. Ma già i Greci, pare, descrivevano la mente in analogia con la catapulta. Oggi che la macchina più avanzata tecnologicamente è il computer, si tende a descrivere la mente umana come fosse un computer. Questo è un corollario del fatto che appunto la scienza da oltre quattro secoli descrive gli enti, e quindi anche l’ente mentale, sul modello di macchine costruite dagli umani.

Quindi, se Homo sapiens è una macchina biologica che è capace di pensare, perché escludere che le nostre macchine elettroniche, i nostri robot, non possano pensare, con buona pace di Searle? Ma si dimentica che ciò che fa di qualcosa una macchina è l’uso.

In sé, una sedia, una brocca, un computer non sono macchine: è l’uso che ne facciamo che le rende tali. „Non esiste nulla che sia intrinsecamente un calcolatore digitale“[5]. Ora, noi partiamo dall’assunto che l’essere umano, compresa la sua mente, non sia usato da nessuno – a meno che non si tratti di zombi haitiani. O possiamo dire che il cervello, o la mente, sono macchine che l’essere umano usa? Ma allora chi è questa mente che usa la mente umana? Finiamo nelle bamboline russe degli homunculi, di quelle menti che stanno dentro la macchina mentale e la muovono, e che rimandano a un homunculus sempre più interno. Cosa che non risolve affatto il problema.

La sfida meccanicista oggi non consiste tanto nel dire che noi esseri umani siamo macchine quindi determinati, ma che le macchine possano evolvere fino a diventare non solo come noi umani, ma meglio di noi. Macchine più perfezionate di quanto non siamo noi.

Una terribile complicazione viene però dalla fisica quantistica, secondo la quale il mondo macroscopico in cui viviamo è deterministico (quindi assimilabile a meccanismi), mentre a livello delle particelle elementari non lo è. La fisica quantistica dice che a livello microscopico vale l’entanglement, il garbuglio, qualcosa di diverso dalle classiche relazioni di causa-effetto. È vero che il cervello umano appartiene indubitabilmente al mondo macroscopico, ma nessuno ci garantisce che la sua struttura fine sia deterministica. E se la mente umana fosse una macchina quantistica, ovvero non deterministica? Il che non significa libera, perché per noi la libertà è connessa alla deliberazione, al poter scegliere. Forse i tratti mentali non deliberano, eppure non sono determinati, sono senza causa.

 

3.       

            La questione cervello/mente di solito, come si vede, viene affrontata in termini sincronici. Ci si chiede che rapporti ci siano oggi tra un meccanismo – sia un cervello umano, sia un computer – e le capacità mentali. Ma sarebbe più utile affrontarla in termini diacronici, ovvero come parte della storia della vita.

Certamente per la biologia moderna gli organismi viventi sono macchine costituite da sostanze organiche. Ma sono macchine molto particolari. Ogni essere vivente, essere umano incluso, ha un programma per dir così, il proprio genoma. Ma a parte il fatto che non esistono due individui con lo stesso genoma (tranne i gemelli omozigoti), c’è qualcosa di fondamentale alla vita: che la vita tende a cambiare continuamente programma. Questo cambiamento sarebbe stocastico: nel ricopiare geni, la natura si sbaglia. Questi “errori” sono selezionati dall’ambiente successivamente. Questi errori sono in realtà differenze, e come tali sono alla base di tutta la storia della vita, chiamata evoluzione: perché il loro prodursi è all’origine della straordinaria varietà delle forme viventi.

In effetti, non dobbiamo dimenticare che comprendere, pensare, decidere sono funzioni umane che derivano da tutta la storia della vita, ovvero sono frutto di una sterminata variazione di programmi. Quando diciamo che un animale comprende e decide, lo diciamo sulla base dell’analogia con quel che per noi umani è comprendere e decidere, ma questo perché alcuni istinti fondamentali ci sembrano comuni a tutti i viventi. La nostra visione del vivente è necessariamente antropomorfica. Qualunque cosa sia l’essenza del comprendere, essa implica il vivente, ovvero il risultato di innumerevoli mutazioni e selezioni.

Si dirà che il darwinismo è una teoria recente, ma gli esseri umani hanno sempre descritto gli animali in analogia a sé stessi. Questo perché gli umani hanno sempre intuito la fondamentale unità della vita. È l’intuizione di questa unità che ci porta a dire che un animale ha paura, sente gioia, decide, soffre, a suo modo pensa… Così già nella Grecia omerica si poteva dire che il cane Argo riconobbe Ulisse.

            Il punto cruciale quindi non è la differenza tra mente umana e mente artificiale, è la differenza tra vivente e non vivente. E in effetti, ci sentiamo di solito molto più vicini a un gatto che a un computer che sia capace di battere tutti a scacchi. Possiamo avere compassione per un gatto se soffre, possiamo amarlo, mentre è molto difficile amare una macchina pensante, né avere compassione per essa, anche se il costruttore le immettesse un programma in cui simulasse perfettamente il dolore. Forse in certi casi possiamo anche amare una macchina e compatirla – i bambini, si sa, spesso amano una macchina - ma un robot che simuli sofferenza non è diverso da un attore che simuli la sofferenza del personaggio: sappiamo che in entrambi i casi non c’è soggetto sofferente. Perciò l’Actor’s Studio di New York spinge gli attori a soffrire e gioire realmente come i loro personaggi, per essere credibili allo spettatore. Questo perché tutti i vari concetti di mente che ci siamo costruiti nel corso della storia sono inscindibili dalla vita biologica da cui sono estrapolati. Non possiamo nemmeno immaginare che cosa possa significare una mente – che abbia qualcosa di simile alla nostra coscienza – che non sia intrecciata con le esigenze e gli assili della vita – con la fame, la sete, il desiderio, la delusione. La coscienza, per noi, è essenzialmente una coscienza sofferente e godente. Per noi la mente è qualcosa di essenzialmente patetico.

 

4.

Se volessimo quindi che l’AI manifestasse qualcosa come la nostra comprensione, dovremmo aspettarci che anche le AI entrino in un processo evolutivo di mutazione del loro programma. Ma è possibile programmare una macchina che sia capace di cambiare il proprio programma? Il punto è che il cambiamento viene sempre dall’esterno di un programma, non è programmabile, nella vita esso è una conseguenza di errori di riproduzione. Per dire che un computer “capisce”, dovremmo avere dei computer che si riproducano. Oggi si costruiscono robot maschi e femmine che si riproducono, è vero. Ma è possibile costruire un meta-programma che permetta un cambiamento, anche randomizzato, di programmi? Non so cosa rispondere a questa domanda. L’AI ha un limite, quello di essere una macchina celibe, come disse Marcel Duchamp. Non nel senso che non si riproduce, ma nel senso che la sua riproduzione non è una minaccia al programma grazie a cui si è riprodotta… E quindi non può variare.

Di fatto, un computer ha la possibilità di emanciparsi dal nostro uso umano solo se si rompesse, come si vede con il computer HAL nel film di Kubrick 2001: Odissea nello spazio. Anche in una brocca può prodursi un buco, e quindi tutto il liquido fuoriuscire. Potrebbe essere una brocca dadaista. Le AI dovrebbero continuamente rompersi per poter evolvere, come è accaduto agli organismi viventi. Rompersi nel senso di modificare casualmente i propri programmi.

            Molti pensano che le AI evolvano se vi immettiamo sempre più informazioni e modi sempre più sofisticati di processarle. Ma questo si basa su un radicale fraintendimento di evoluzione in senso darwiniano. Questi molti danno a evoluzione un senso “progressista”, pensano che una cosa evolva perché si perfeziona. Ma la storia della vita per le scienze dell’evoluzione non è affatto un perfezionamento o complicazione, è solo moltiplicarsi di varianti. Suol dirsi che attualmente il pianeta è dominato da Homo sapiens, ma potremmo dire che è dominato anche dalle formiche, che a miliardi non cessano di riprodursi. Non è perfezionando le macchine che le si fa evolvere. Se oggi esistono tanti conigli, non è perché sono più perfezionati rispetto ad altre specie scomparse, ma solo perché la loro straordinaria velocità di riproduzione rende molto difficile sterminarli una volta per sempre.

Attraverso il personaggio di HAL, il cinema ha raccontato di un computer che si umanizza, che cessa di servire agli umani, proprio perché si rompe. Così HAL acquisisce un istinto di auto-perpetuazione che assomiglia all’istinto di sopravvivenza degli umani: si ribella al progetto umano di spegnerlo per sempre. HAL non era stato programmato per avere un istinto di auto-conservazione: lo acquisisce per errore. Ma è un puro caso – immaginato per ragioni drammatiche – che questa rottura porti a un comportamento del tutto simile a quello degli umani, che lottano per sopravvivere. Potrebbe portare a comportamenti del tutto non-umani, che gli umani avrebbero problemi a interpretare come atti.

            Oggi gli informatici progettano programmi che siano in grado di cambiarsi nel corso del tempo. Ma questo implica appunto la definizione di un meta-programma che contempli il cambiamento, magari casuale, di programmi. Le AI sarebbero sempre dentro un meta-programma, ma nella vita sulla terra non esiste questo meta-programma. Non c’è una regia dell’evoluzione: è una storia senza senso.

Quindi, anche dando alle macchine la capacità di riprodursi e di cambiare programma, non abbiamo alcuna idea di che cosa questo produrrebbe col tempo. È estremamente improbabile che l’evoluzione di queste macchine replichi l’evoluzione della intelligenza terrestre. Delle macchine che si riproducessero e mutassero potrebbero prendere una linea di sviluppo del tutto diversa da quella della vita, potrebbero prendere strade per noi impensabili, perché mai sperimentate dalla vita. Wittgenstein disse che “se un leone potesse parlare, noi non potremmo capirlo”, perché non siamo leoni”[6]. Analogamente, dico che se le AI sviluppassero un proprio pensiero, noi non potremmo intenderlo – o meglio, non potremmo nemmeno riconoscerlo come un pensiero - perché non possiamo avere alcuna esperienza di un pensiero frutto di una riproduzione di macchine e non di esseri viventi. Ripeto: non ‘non abbiamo avuto alcuna esperienza’, ma ‘non possiamo avere’... Anche illustri scienziati credono nell’evoluzione delle AI in esseri pensanti autonomi da noi, uno di questi era Stephen Hawking. Costoro partono da presupposti molto antropocentrici: danno per scontato che le menti artificiali siano nel fondo simili alle menti umane, e a quelle animali in generale. Si immaginano le IA evolute come delle menti superiori alle nostre, ma pur sempre menti uman-simili. Invece, se questa evoluzione delle macchine avvenisse, è lo stesso concetto di mente che diverrebbe problematico. La nostra idea di mente è inscindibile dagli esseri biologici da cui abbiamo tratto il concetto. Molti scienziati e filosofi decisamente mancano di immaginazione.

Abbiamo detto che tendiamo a credere che basti inserire in una macchina una quantità straordinaria di informazioni e di regole combinatorie per creare delle menti superiori. Questa immagine cognitivista della mente non ci fa capire una cosa essenziale: che quel che rende comprensibile per noi umani il concetto di “comprensione” è intimamente connesso al fatto che ciascuno capisca a modo proprio. Difatti, non siamo mai sicuri che l’altro ci abbia veramente capito, né che io abbia veramente capito l’altro. Il malinteso è una dimensione ubiqua della comunicazione umana. Questo perché ciascuno ha il proprio programma genetico e la propria storia, e solo per approssimazione possiamo dire che ci capiamo tra noi. In un certo senso, parliamo sempre con dei leoni. Ciò che chiamiamo “esperienza” è sempre il frutto di una evoluzione che ha “deciso” ciò di cui possiamo avere esperienza e ciò di cui non possiamo.

Insomma, è fondamentale nel nostro rapporto con gli altri non solo ciò che comunichiamo, ma anche ciò che non comunichiamo, e che fa da sfondo alla nostra distanza dall’altro. È l’abissale solitudine dell’altro ciò che ce lo rende umano, un interlocutore. Il fatto che l’altro possa non capirci, o non condividere affatto i nostri ragionamenti che pur ci sembrano inoppugnabili – cosa che accade ogni giorno – è la prova che l’altro ha una mente, ovvero che l’altro ci sia almeno in parte inaccessibile.

La vita insomma è caratterizzata da una costante imperfezione[7], mentre le AI sono troppo perfette. Invece, la forza del linguaggio (e delle lingue) è proprio la sua imperfezione, grazie a cui possiamo goderne. Le AI sono costruite per un fine, mentre la vita non ha fini.

Per esempio, sappiamo che l’80% del nostro DNA non svolge alcuna funzione, è junk genetico, eppure in questa parte inutile si annidano possibilità future. Ora, il concetto di imperfezione è teleologico: qualcosa è imperfetto in relazione a un suo supposto fine o funzione. Se costruiamo una brocca o una sedia, cerchiamo di renderla il più perfetta possibile in relazione alla loro funzione, mentre nei processi biologici non è affatto così. Nel nostro caso, dobbiamo ammettere che il vivente è imperfetto rispetto alla supposta capacità comunicativa.

La teoria della comunicazione distingue il segnale dal rumore. Ora, come gran parte del DNA è rumore rispetto a una sua supposta efficienza come segnale, analogamente nella comunicazione umana non tutto è segnale, molto è spazzatura comunicativa. Ma forse è proprio questa spazzatura o rumore a costituire quell’incertezza che fa di ciascuno di noi un soggetto, ovvero una singolarità.

Diceva Darwin: molti organi animali “possono essere paragonati alle lettere di una parola, che pur essendo conservate nella grafia sono diventate inutili per la pronuncia, ma servono come chiave per l’etimologia”. La vita e il linguaggio hanno questo in comune: che non tutto in loro è trasparente, ci sono opacità connesse a una storia superata. Ma queste opacità vengono scambiate per segnali, da qui gli enormi malintesi.

            Abbiamo parlato della necessità del malinteso nella comunicazione umana. E ricorderemo che Heidegger faceva del malinteso, assieme alla chiacchiera e alla curiosità, le tre espressioni principali della vita inautentica. Perché Heidegger ha scelto proprio questi tre modi? Quel che hanno in comune, in effetti, è la loro insufficienza comunicativa. Nella chiacchiera non comunichiamo nulla, svolgiamo la funzione di mantenere un contatto con l’altro. Come quando parliamo del buono o cattivo tempo con una persona: manteniamo il contatto tra noi interlocutori, senza dire sostanzialmente nulla. E la curiosità nasce dall’esigenza di far entrare nella comunicazione qualcosa che ancora non è entrato, è puro desiderio di comunicare in cui non si comunica ancora nulla. Questi limiti della comunicazione sono però essenziali perché si possa parlare di “soggetti”, e che chiamerei piuttosto singoli, evocando così la singolarità in fisica.

 

5.

            La migliore letteratura fantascientifica ha immaginato esseri che non sono né menti né oggetti, o forse sono entrambe le cose. Enti che sfuggono, insomma, al dualismo cartesiano. Nel romanzo Solaris di Stanislaw Lem – da cui hanno tratto più film, in particolare quello di Andrej Tarkovskij – viene tematizzato un ente in gran parte impensabile, “l’oceano vivente”. Quando esseri umani mettono piede sul pianeta Solaris che contiene questo oceano, esseri sepolti nella mente degli umani prendono forma concreta, diventano di nuovo viventi. Sono replicanti. Ora, possiamo dire che l’oceano di Solaris, con la sua capacità quasi psicoanalitica di recuperare memorie del passato, è una mente? Ha ancora senso parlare di mente a proposito di enti come questi?

            Forse ci sono già delle macchine che ci usano, ci dominano, come noi facciamo con cani o gatti, ma non ce ne rendiamo conto perché non possiamo pensare questo dominio. Non possiamo averne i concetti per pensarlo, e difatti dire “dominio” è già dir troppo. Il nostro intelletto, abbiamo detto, è frutto di un assetto particolarissimo ed estremamente improbabile delle cose. La stessa vita è un ordine altamente improbabile delle combinazioni chimiche. Col nostro intelletto possiamo certamente immaginare l’esistenza di un non-intelligibile – come stiamo facendo qui – ma il non-intelligibile resta tale. (Del resto, che cosa hanno fatto, sempre, le visioni mistiche se non ricordarci che non dobbiamo essere antropocentrici, che c’è del non-intelligibile, qualcosa che non potremo mai capire ma che potrebbe esistere?) Perché le nostre capacità di comprensione sono in funzione del nostro ambiente biologico, dell’Umwelt. Ma l’ambiente di una macchina da noi costruita non è biologico.

 

             Alcuni diranno: perché dobbiamo per forza pensare che il concetto di mente sia indistricabile dalla vita, e quindi dagli istinti, dalle pulsioni? Non potremmo isolare le funzioni puramente mentali dai corpi viventi, il pensiero dalle pulsioni? Oggi certi computer sono capaci di battere anche grandi campioni di scacchi o di go. Quando giochiamo a questi giochi logici, non mettiamo in atto dei processi di ragionamento che possono essere riprodotti in una macchina? Eppure anche i computer campioni di scacchi simulano i ragionamenti umani, non ragionano come gli umani. Non diversamente da come la ciotola riproduce il modo di raccogliere l’acqua con il cavo della mano, ma la ciotola non è cavo delle mani. E come una ciotola non sarà mai un essere umano con delle mani, analogamente un computer non sarà mai una mente umana. Mente a-umana, potremmo dire tutt’al più. Perché nel concetto di ragionamento implichiamo una certa idea di sforzo, un certo focalizzarsi della mente che mette tra parentesi tutto ciò che le sta attorno, che il computer non avrà mai. A meno che, appunto, i computer non evolvano a loro volta come esseri viventi, che non ripercorrano l’iter della vita che giunge fino a noi...

 

6.

Il biologo Johannes von Uexküll chiamò Umwelt, ambiente, il ‘mondo-attorno’ a un organismo[8]. Ora, l’ambiente è quel che risulta rilevante, significativo, sempre e solo per un organismo di una data specie: è quell’insieme di tratti che costituiscono un segnale pertinente, capace cioè di innescare certe reazioni prescritte, scritte prima, nell’organismo. Questo significa che per le specie che abitano in uno stesso territorio, gli ambienti sono diversi: ogni specie ha il proprio ambiente. Questo porta von Uexküll a un’affermazione di tenore kantiano: «nessun animale può entrare in relazione con un oggetto come tale (als solchem)».

Von Uexküll portò l’esempio dell’ixodes ricinus, zecca dei boschi, un animale che reagisce elettivamente a tre soli segnali esterni: a) l’odore dell’acido butirrico, b) la temperatura di 37°, c) una certa tipologia della pelle dei mammiferi. Solo questi tre sono “portatori di significato”. Qualsiasi altra cosa non ha alcuna rilevanza per questo aracnide; per esso il resto è rumore, non segnale.

Insomma, l’approccio naturalistico conduce a una conclusione scettica: dell’universo che supponiamo esistere, ci accorgiamo solo di quello che fa segnale per la nostra specie, che fa scattare le nostre reazioni.

Heidegger (1983), riprendendo von Uexküll, chiamò disinibitori questi «portatori di significato»[9]. Di contro però al relativismo a cui porta la biologia, Heidegger esalta la differenza umana: oltre il cerchio disinibitore c’è un Welt, un mondo, di cui l’essere umano è costruttore. Ma non seguiremo questa via heideggeriana. Daremo invece per buono il punto di vista naturalista, secondo cui Homo sapiens è un animale come gli altri. Quindi, anche Homo sapiens sarà strutturato in relazione al proprio Umwelt, e non ha accesso al Welt, al mondo come tale. Questo significa che il suo comprendere e pensare è sempre in relazione al proprio ambiente. Inevitabilmente Homo sapiens antropomorfizza tutto, anche e soprattutto quando fa scienza. La scienza non è fatta da angeli o da marziani, ma da una specie determinata, che reagisce solo al proprio ambiente. Possiamo andare anche sulla luna, biologicamente non usciremo mai dal nostro ambiente – e difatti sopravviviamo sulla luna solo se ricostruiamo attorno a noi il nostro ambiente, a cominciare dall’aria. Quando gli astronauti hanno visto la terra intera dalla luna, semplicemente hanno inserito la vista della terra nel proprio ambiente. Possiamo dire che la scienza, involontariamente, è sempre tolemaica.

            Da qui la stupidità di quei teorici che indulgono a evocare gli extra-terrestri: “Se un marziano venisse sulla terra, che cosa penserebbe…?” Per esempio: “…che cosa il marziano penserebbe del modo in cui gli umani descrivono la loro terra?” Ma se esistessero altre menti non emerse dalla vita terrestre, vedrebbero le cose da tutt’altro punto di vista, nemmeno immaginabile per noi. La nostra conoscenza che si dice obiettiva non è “marziana”, è legata intimamente ai nostri istinti naturali e pulsioni. La conoscenza in questo senso non è radicalmente diversa dalla sessualità, per esempio: così come apprezziamo certi tratti erotici dell’altro perché siamo animati da una sessualità che in ultima istanza è effetto del nostro genoma, analogamente ci accorgiamo di certe cose del mondo e non di altre perché così si esprimono certe nostre predisposizioni biologiche. Non possiamo conoscere ciò che esula dal nostro ambiente. Basti pensare a come vediamo diversamente le cose quando cresciamo: se torniamo in una città in cui eravamo stati da bambini piccoli, vedremo tutt’altra cosa. E se varia talmente la nostra percezione del mondo nel corso della nostra vita, figuriamoci cosa potremmo intendere di una “percezione” non prodotta dalla vita. La conoscenza oggettiva non si libererà mai dalle catene della vita.

 

Eppure, grazie al linguaggio, Homo sapiens riesce a pensare qualcosa che non è pensabile per lui: quello che chiamerei il reale al di là del proprio Umwelt. In effetti, nel momento stesso in cui dico che possiamo conoscere solo il nostro ambiente, ipso facto pongo qualcosa che non è nel nostro ambiente, che non ci disinibisce. Come è possibile che l’essere umano riesca a pensare – ovvero, a situare nell’essere - qualcosa che determina come impensabile? E soprattutto: si manifesta a lui in qualche modo questo reale? Ovvero, il rumore si segnala in qualche modo a lui? Ma se il rumore si segnala come tale, non cessa di essere rumore? Potrebbe segnalarsi come un buco nell’ambiente, potrebbe insomma segnalarsi come un non-essere. Forse qualcosa di simile a ciò che i polinesiani chiamano mana. Ma se il rumore è precisamente ciò che non ci disinibisce (nel senso heideggeriano), come può disinibirci in modo che possiamo dire “nel mondo c’è un buco, un’assenza di segnale”? La filosofia si trova insomma di fronte a qualcosa di paradossale, ai limiti del pensabile. Eppure la filosofia nasce proprio perché si misura con questo impensabile.

In effetti, non c’era bisogno di aspettare von Uexküll perché la filosofia tematizzasse – ovviamente in un linguaggio molto diverso – questa divisione di ciò che è. Una divisione tra ciò che è dato alla nostra esperienza (l’Umwelt) e ciò che non è dato all’esperienza, ma il cui essere va presupposto. Forse la filosofia, sin dagli inizi, ha cercato di venire a capo di questo imbroglio. Penso che gli antichi Greci chiamassero questo reale al di là dell’ambiente ousìa, letteralmente “il patrimonio”. Da qui l’idea platonica di una caverna in cui vediamo solo ombre, cioè solo ciò che fa segnale per la nostra specie. Platone supponeva che qualcuno fosse capace di uscire dalla caverna e vedere il reale, l’ousìa; mentre noi moderni, di solito, non crediamo che si possa uscire dalla caverna, vedere in faccia le cose reali. Eppure sappiamo che stiamo in una caverna, e che non esistono solo delle ombre in una caverna.

Avanzo questa ipotesi: che ciò che chiamiamo la coscienza, i qualia, il senso di un’esperienza assolutamente privata, l’interiorità, comunque la si voglia chiamare, è qualcosa che fa rumore nel nostro mondo. Il che a prima vista sembra assurdo, perché pensiamo come Descartes: che la nostra coscienza, le nostre sensazioni private, la nostra mente intima, sono al contrario ciò che per noi è più significativo.

Wittgenstein nelle Ricerche filosofiche ha sviluppato un’analisi ingegnosa dello statuto del mondo privato, divenuto poi noto come Argomento del Linguaggio Privato[10]. Wittgenstein sostiene che noi possiamo certamente esprimere il nostro privato, ma non lo possiamo conoscere. Perché per Wittgenstein il linguaggio è sempre cosa pubblica, ovvero – nella nostra terminologia – è correlato a ciò che fa segnale per la nostra specie. Possiamo conoscere solo ciò che fa segnale per la nostra specie, e che quindi in quanto tale può essere reso pubblico attraverso il linguaggio. Ma questo non implica affatto che per questo il privato non conti. Al contrario, il privato è proprio la cosa essenziale, anche se inconoscibile. Il privato è ciò che ci fa menti viventi, e non macchine intelligenti.

Se qualcuno mi dice “Ho mal di denti”, do per scontato che abbia un’esperienza privata di dolore, almeno che non menta o simuli. Ma questa esperienza in quanto sua privata non mi è accessibile. La presuppongo come qualcosa che sfugge al senso, e che pure dà senso alla frase “ho mal di denti”. Secondo Wittgenstein, “ho mal di denti” non è la descrizione di un oggetto mentale, come tale conoscibile, piuttosto è un modo di esprimere il dolore. Ma di questo dolore conosco solo la sua espressione. E sappiamo che un dolore può anche non essere espresso. Dunque, non “penso dunque sono”, ma “non posso pensare ciò che tu pensi, dunque sei”.

Non bisogna pensare però che l’inesprimibile, il privato, siano affetti ed emozioni. Come ben sappiamo, affetti ed emozioni private si segnalano fortemente, non meno delle cose percepite. Anche in un animale siamo capaci di leggere la paura, la gioia, la rabbia, il desiderio… e possiamo empatizzare con lui per questo. Ciò che non si segnala è la singolarità degli affetti e delle emozioni, ovvero ciò che non possiamo conoscere. Ma che resta come sullo sfondo, quello sfondo che non presupponiamo alla macchina. A meno che essa non ci inganni, simulando.

Anche gli esseri umani possono, certo, simulare come computer. Si prenda il caso di ciechi dalla nascita che parlano di colori, o di sordi dalla nascita che parlano di suoni. Essi possono imparare a usare correttamente i nomi dei colori o dei suoni, un cieco può dire che il rosso di un tramonto è impressionante, un sordo che il canto di un usignolo è bello, ma parlando di queste cose è come se simulassero. Perché non stanno immaginando ciò di cui stanno parlando. In effetti, non possiamo mai definire una sensazione di un colore, di un suono, che potremmo trasmettere attraverso proposizioni: o siamo capaci di avere queste sensazioni, che saranno sempre le mie, oppure non farò altro che simulare di avere quelle sensazioni. Il concetto di un colore, in particolare, rimanda sempre a qualcosa che non sarà mai concettualizzabile, e che pure dà senso a tutti i concetti di colore.

Una macchina può essere programmata per dare informazioni false, ma non può mentire. Solo Homo sapiens può mentire, perché supponiamo in ciascun soggetto uno scarto più o meno ampio tra ciò che esprime e ciò che non esprime; e l’idea stessa di menzogna implica un pensare che non si segnala, e che quindi è rumore. È questo sfondo di rumore che ci fa considerare gli altri esseri viventi come simili a noi.

Ora, come abbiamo detto, non c’è nulla di più facile che costruire un robot che si contorca e pianga come uno che senta dolore, e che dica pure “ho mal di denti!” con voce strozzata. Se è una macchina di Turing, il suo comportamento sarà indistinguibile da quello di un essere vivente reale. Ma c’è una differenza fondamentale: che non empatizzerò mai con il comportamento doloroso di un robot, come abbiamo visto. E che cosa ha in più un essere vivente che una macchina non avrà mai, anche se i comportamenti di entrambi possono essere identici? È che del vivente si segnala qualcosa di inconoscibile perché è solo rumore per l’altro: il suo essere qualcuno che io non sarò mai. Ma allora, paradossalmente, il rumore si segnala come tale, come ciò di cui posso conoscere solo l’espressione, non l’essere. È questa la distanza tra una macchina di Turing e un’intelligenza vivente, per quanto elementare.

Ogni macchina, essendo una mente troppo perfetta, è senza storia. Essa risponde bene a tutti i segnali, ma non contiene in sé quel rumore che ci umanizza, quell’inconoscibile che ci tocca il cuore. In effetti l’AI è una costruzione della scienza, la quale scienza fa sempre indietreggiare il rumore, il reale, restituendocelo come segnali a cui possiamo rispondere. Ma la stessa scienza è segretamente polarizzata, attratta, sferzata direi, dal reale. Comunque, la scienza va verso di esso. Per questa ragione non è giustificato il disprezzo che una parte della filosofia detta “continentale” nutre nei confronti dell’intrapresa scientifica, animata dal reale anche se senza saperlo.

 

 



[1] W. Irwin, ed., The Matrix and Philosophy: Welcome to the Desert of the Real, Open Court Publishing, Chicago 2002.

[2] D. Parisi, Future Robots. Towards a robotic science of human beings, John Benjamins Publ., Amsterdam 2014.

[3] M. Heidegger, “Das Ding”, in Voträge und Aufsätze, G. Neske, Pfullingen 1954.

[4] J. Searle, Minds, brains and science, Harvard University Press, Cambridge, MA, 1984. J. Searle, “L’analogia cervello-computer: un errore filosofico”, in G. Giorello e P. Strata, L’automa spirituale. Menti, cervelli e computer, Laterza, Roma-Bari 1991, pp. 199-213.

[5] J. Searle, “L’analogia cervello-computer: un errore filosofico”, cit., p. 207.

[6] L. Wittgenstein, Ricerche filosofiche, trad. it. R. Piovesan e M. Trinchero, Einaudi, Torino 1967, p. 292.

[7] Cfr. T. Pievani, Imperfezione, Raffaello Cortina, 2019.

[8] J. von Uexküll e G. Kriszat, Streifzüge durch Umwelten von Tieren und Menschen. Ein Bilderbuch unsichtbarer Welten. Bedeutungslehre, Rowohlt, Hamburg 1934; trad. It. Ambiente e comportamento, Il Saggiatore, Milano 1967.

[9] Vedi anche G. Agamben, L’aperto: l’uomo e l’animale, Bollati Boringhieri, Torino 2002.

[10] Wittgenstein, cit., §§ 243-370.


Ringrazio il compianto Domenico Parisi per i commenti e le critiche che mi hanno permesso di migliorare questo testo.



Flussi © 2016Privacy Policy