1.
Le ipotesi che si formulano nel corso di una ricerca sono spesso dovute a diversi flussi di intuizioni e di pensieri, in parte coscienti, in parte inconsci, che ad un certo punto, convergono e si condensano in una formulazione concettuale sufficientemente delineata.
Nella mia esperienza di psicopatologo teorico una sola volta la condensazione è sopravvenuta per effetto di un’immagine.
Tale circostanza si è realizzata verso la metà degli anni ‘80 allorché la teoria dei bisogni intrinseci prese corpo fino al punto di configurarsi come una chiave esplicativa di tutti i vissuti, i sintomi e i comportamenti psicopatologici. Fu per associazione inconscia, allora, che fui spinto a riprendere in mano due libri già letti nei quali si esponeva in forma divulgativa la Teoria delle Catastrofi (TC), messa a fuoco da Renée Thom.
Il primo libro, che ho smarrito, era il numero di una Rivista di psichiatria francese dedicato a Henry Ey, morto nel 1977. In essa un articolo era dedicato alle possibili applicazioni della TC in ambito psichiatrico, e veniva utilizzato uno dei modelli formulati da Thom, quello della cuspide. Al di là di spunti suggestivi, l’articolo era complessivamente mediocre.
Nello stesso anno, era uscito il secondo volume dell’Enciclopedia Einaudi nel quale, a nome di Krzysztof Pomian, veniva analizzata la voce Catastrofi, che invece, pur nella estrema sintesi, era particolarmente interessante. Lo riporto integralmente (pp. 789-803):
Fino a poco tempo fa, gli uomini di scienza hanno ammesso, quasi fosse una verità assiomatica, che le cause le cui azioni variano in modo continuo possono provocare unicamente variazioni continue degli effetti. Certo, sin dalla seconda metà del xix secolo si conoscevano eccezioni a questa regola, ma erano considerate marginali.
Raramente esplicitato, l'assioma in questione, che si può definire come assioma di conservazione della continuità, era preso in considerazione soprattutto da parte di coloro che ne vedevano le difficoltà o lo contestavano per ragioni d'ordine filosofico.
I primi sono ben rappresentati da Georges Cuvier: tutta una serie di osservazioni lo portò a concludere che la crosta terrestre aveva subito nel passato trasformazioni molto profonde, cui si accompagnava, ogni volta, la scomparsa di specie viventi. Queste « rivoluzioni della superficie del globo» avevano, secondo Cuvier, un carattere violento e improvviso; erano rotture di continuità, catastrofi (la parola stessa appare a più riprese nella sua opera). Quali potevano esserne le cause? Cuvier esaminò successivamente quattro fattori che alterano attualmente la superficie dei continenti - le piogge ed i disgeli, le acque correnti, il mare, i vulcani - e mostrò che essi non bastano a provocare gli effetti osservati in quanto la loro eccessiva lentezza renderebbe impossibile la spiegazione di catastrofi improvvise.
E’ da precisare che per Cuvier questa lentezza è del tutto relativa; altrove egli insiste sulla rapidità dei mutamenti che si sono verificati nel corso della storia. E vero, tuttavia, che i fattori che agiscono attualmente sulla superficie del globo sono lenti rispetto alle catastrofi che si sono prodotte, invece, quasi istantaneamente. Ora, Cuvier constata che nessuna «causa lenta » può aver provocato effetti istantanei e questo principio, affermato senza neppure tentar di dimostrarlo, svolge nel suo pensiero un ruolo assolutamente capitale. In realtà, si tratta solo di una formulazione particolare dell'assioma di conservazione della continuità.
Le «cause lente” sono semplicemente quelle le cui azioni variano in modo continuo, e per questa ragione Cuvier ritiene che non possano provocare catastrofi. Ma queste ultime sono, secondo Cuvier, debitamente constatate attraverso una molteplicità di osservazioni. Ne consegue, in virtù di una semplice legge logica, che le cause che ne sono responsabili devono avere a loro volta un carattere discontinuo. Tuttavia, evidentemente, Cuvier non riesce a concepire simili « cause improvvise”, per cui non ne parla affatto, e tutta la sua teoria geologica resta come sospesa nel vuoto.
Le difficoltà per Cuvier derivano in particolare dal fatto che egli ammette simultaneamente l'assioma di conservazione della continuità e la constatazione empirica, o pretesa tale, della presenza delle catastrofi in natura. Essendo le due cose difficilmente conciliabili, occorreva o negare la realtà delle «rivoluzioni della superficie del globo» o sbarazzarsi dell'assioma. Ma la seconda soluzione era inaccettabile per gli uomini di scienza, per i quali - e questo ormai dal XVII secolo - la sola spiegazione vera dei fenomeni era quella che li integrava in questo o quel modello quantitativo, cioè in un sistema d'equazioni che definisse l'evoluzione di certi parametri in funzione di altri; fra questi ultimi un posto privilegiato spettava al tempo.
Il potere esplicativo di un modello del genere dipende, in primo luogo, dal carattere e dalla capacità di risoluzione degli strumenti di misura di cui si dispone; per fare un esempio banale, la termodinamica era impossibile senza l'invenzione ed il perfezionamento del termometro. Ma il potere esplicativo di un modello quantitativo dipende anche dalla ricchezza del linguaggio matematico, dalla sua capacità di descrivere le diverse funzioni. Tutte le relazioni che il linguaggio matematico non sa indicare, e per le quali non ha formule, sono inconcepibili nel quadro di un modello quantitativo e devono quindi, necessariamente, esser lasciate da parte. Questo non vuoi dire che ci si disinteressi di esse: se ne parla nel linguaggio corrente, che permette di render conto dei risultati, delle osservazioni e delle esperienze; ma questo è considerato solo un espediente, e l'ideale è di riuscire ad avere solo modelli quantitativi. Non dobbiamo entrare qui nel merito delle varie giustificazioni della preminenza che vien loro accordata. Quel che interessa è che, una volta ammessa questa preminenza, diventava inevitabile, visto lo stato del linguaggio matematico fino agli ultimissimi anni, tener per vero l'assioma di conservazione della continuità.
In effetti, «niente mette un matematico più a disagio di una discontinuità, perché ogni modello quantitativo utilizzabile si fonda sull'impiego di funzioni analitiche, dunque continue» [Thom 1972, p. 25]. Ne consegue che, se si considera che l'insieme di fenomeni può essere spiegato, in linea di principio, nel quadro di un modello quantitativo (o di modelli quantitativi), bisogna ammettere che tutte le interazioni tra i fenomeni si lasciano rappresentare con funzioni analitiche, cioè che le discontinuità che si osservano sono solo apparenti. In altri termini, la tesi secondo la quale le cause le cui azioni variano in modo continuo non possono provocare che variazioni continue degli effetti va eretta a regola di validità universale.
I filosofi, non erano sottoposti a simili obblighi, ed è appunto nei testi di alcuni di loro che si possono meglio vedere le conseguenze cui conduceva il rifiuto dell'assioma di conservazione della continuità. Si prenda l'esempio di Hegel [1831]: «In quanto lo svolgersi di una qualità è nella interrotta continuità della quantità, i rapporti approssimantisi ad un punto qualificante, considerati quantitativamente, differiscono solo per il più ed il meno. Da questo lato il mutamento avviene a poco a poco. Ma l'avvenire a poco a poco riguarda semplicemente il lato estrinseco del mutamento stesso, non il suo qualitativo; il rapporto quantitativo precedente, che è infinitamente vicino al susseguente, è pur tuttavia un altro esserci qualitativo. Dal lato qualitativo, perciò, il procedere puramente quantitativo dell'a poco a poco, che non è in se stesso un limite, resta assolutamente interrotto; in quanto la nuova qualità che si affaccia, considerata sotto il suo rispetto puramente quantitativo, è, a fronte di quella che sparisce, una qualità diversa indeterminatamente, una qualità indifferente, il passaggio è un salto; le due qualità sono poste come completamente estrinseche l'una all'altra » (trad. it. p. 411).
Il « quantitativo » è, per Hegel, sinonimo del continuo parametrizzato. La variazione che è dell'ordine dell'“a poco a poco” consiste in una crescita (o una diminuzione) di questa o quella grandezza, senza che ne sia apparentemente intaccata l'identità dell'essere che muta, definita in quanto permanenza delle sue proprietà nonmisurabili, delle sue «qualità». Se ci si attiene a quest'apparenza, il mutamento qualitativo, che è una rottura di continuità, un «salto», sembra non essere affatto legato alla variazione quantitativa. Ma, secondo Hegel, questo legame esiste. « L'acqua, col cambiare temperatura, non diventa semplicemente meno calda, ma passa attraverso agli stati solido, vaporoso e liquido. Questi diversi stati non sorgono a poco a poco, ma il semplice progresso graduale del mutamento di temperatura viene anzi interrotto e arrestato ad un tratto da questi punti, e il subentrare di un altro stato è un salto. Ogni nascita ed ogni morte, invece di essere un continuato "a poco a poco" sono anzi un troncarsi deli' "a poco a poco" e il salto dal mutamento quantitativo nel mutamento qualitativo » [ibid., p. 4131.
Questa è anche la posizione di Marx [1867] che, studiando la trasformazione del valore in capitale, osserva: «Qui, come nelle scienze naturali, si rivela la validità della legge scoperta da Hegel nella sua Logica, che mutamenti puramente quantitativi vono a un certo punto in differenze qualitative (trad. it. p. 37 ). Engels riprenderà le stesse idee nell'Anti-Dühring [1878, trad. it. p. 113].
Sappiamo oggi che l'intuizione di Hegel era giusta. Infatti, generalmente parlando, non è vero che le cause le cui azioni variano in modo continuo possano provocare unicamente variazioni continue negli effetti.
Ciò detto, va aggiunto subito che si trattava di un'intuizione scientificamente sterile e che Marx aveva torto ad affibbiarle il nome di “legge”. In realtà è una legge ben strana quella che si limita a constatare che «mutamenti puramente quantitativi si risolvono a un certo punto in differenze qualitative». Qual è questo «certo punto» al quale «mutamenti puramente quantitativi» devono giungere per risolversi in differenze qualitative»? O, in altri termini, quali sono le condizioni necessarie e sufficienti perché le cause che agiscono in modo continuo possano provocare l'apparizione di discontinuità?
Né in Hegel né in Marx né in Engels si trova risposta a tale domanda, e questo fa si che il legame fra le cause e gli effetti, fra la «quantità» e la «qualità» resti per loro, e per i loro lettori, completamente opaco. Che lo si chiami «salto» o in un altro modo, non si è per questo andati più avanti.
Inoltre, sia Hegel sia Engels procedono per esemplificazione. Quando cercano di ricavarne una regola generale, arrivano solo a formule vaghe, puramente verbali, che non permettono di capire meglio ciò di cui si parla, ed ancor meno di prevedere alcunché, a parte quel che si sapeva già. Del resto, per quel che concerne più particolarmente Hegel, rifiutando l'assioma di conservazione della continuità, egli era costretto a negare la capacità del linguaggio matematico di descrivere l'insieme dei fenomeni.
Infatti, Hegel privilegia le rotture di continuità, i «salti», sui quali il linguaggio matematico della sua epoca non ha presa. Secondo lui la variazione quantitativa scivola, per così dire, sull'esterno dell'essere; solo il passaggio da una qualità ad un'altra ha un significato ontologico. Conclusione: il linguaggio comune è il solo capace di render conto del reale nella sua totalità. Sebbene Hegel indicasse contemporaneamente in modo estremamente pertinente, come si vedrà, i limiti del linguaggio matematico - di un certo linguaggio matematico, quello del suo secolo e di una buona parte del nostro - egli non aveva da proporre agli uomini di scienza altro che un programma molto più vicino alla tradizione di Aristotele che a quella di Galileo.
Niente di strano allora se non ha avuto la minima influenza sull'evoluzione della ricerca scientifica. Lo stesso vale per il materialismo dialettico che si richiama ad Engels: malgrado le loro pretese di scientificità, i rappresentanti di questa corrente si trovavano sistematicamente in conflitto con la scienza. La teoria della relatività, la meccnica quantistica, la genetica mendeliana hanno incontrato, dal canto loro, una resistenza tanto feroce quanto vana; e la lista avrebbe potuto essere più lunga.
Dal punto di vista degli uomini di scienza, l'assioma di conservazione della continuità era intoccabile: essi erano dunque obbligati a trattare le rotture di continuità come se fossero solo apparenti, a ridurle a variazioni continue. Così per tornare all'esempio della geologia, Lyell {1830-33) mostrò che le trasformazioni della crosta terrestre non erano affatto catastrofiche. Egli non le attribuisce a sconvolgimenti misteriosi, concentrati in periodi di tempo molto brevi, come faceva Cuvier, bensi all'azione lenta delle sedimentazioni, delle oscillazioni di temperatura, del vento e dell'acqua, cioè a mutamenti infinitamente piccoli che provocano effetti spettacolari solo perché si sommano continuamente nel corso milioni di anni.
Così facendo, Lyell introduce nella geologia un nuovo approccio. Per spiegare le discontinuità visibili a occhio nudo, egli invoca cambiamenti impercettibili ma che si producono in modo continuo. Nello stesso tempo, modifica la scala del tempo che subisce una dilatazione e accoglie un grandissimo numero di tali cambiamenti la cui integrazione porta a trasformazioni visibili.
Certo, Lyell descriveva i fenomeni geologici nel linguaggio comune; tuttavia, il suo modo di procedere era simile a quello di un fisico che adopera un modello quantitativo. Nei due casi, infatti, si sostituisce ad una discontinuità visibile o macroscopica un processo microscopico e continuo, procedendo simultaneamente ad una dilatazione del tempo. La discontinuità si rivela così soltanto apparente, prodotta non dalle cose stesse ma dal nostro modo di percepirle. Ciò permette di utilizzare il linguaggio matematico disponibile, quello del calcolo differenziale ed integrale, ma obbliga anche ad accrescere costantemente il potere di risoluzione degli strumenti di osservazione e di misura per essere in grado di scendere sempre di più nel mondo microscopico e per avere dei parametri che possano essere introdotti nei modelli quantitativi.
E’ grazie ad un approccio del genere che la fisica del XIX secolo aveva risolto la maggior parte dei problemi cui si era trovata di fronte. L'idea stessa che ci potessero essere in natura discontinuità irriducibili a cambiamenti microscopici e continui, era considerata da molti scienziati e filosofi come contraria allo spirito della scienza. Basterà ricordare in proposito le battaglie, accanite intorno alla teoria atomica della materia e le reticenze dello stesso Max Planck nei confronti della teoria dei quanti, che pure era opera sua.
Si è già accennato ai limiti del linguaggio matematico usato nel XIX e per la maggior parte del XX secolo. Un sistema d’equqzioni differenziali ordinarie che serve a descrivere l’evoluzione di queste o quelle variabili in funzione del tempo è, infatti, difficilmente utilizzabile, o addirittura chiaramente inutilizzabile, per studiare due tipi di situazioni. La prima è quella di oggetti che restano immutati per un lungo periodo e poi subiscono bruscehe modificazioni. La seconda - e piu importante- è quella che riguarda i sistemi complessi, quando mettono in gioco un gran numero di variabili che non si possono raggruppare in un piccolo di classi oche, se questo raggruppamento è possibile, non possono essere ridotte a medie all'interno di ciascuna di queste.classi [Sussman 1975].
Il primo ad essersi interessato alle situazioni di questo secondo tipo sembra sia stato Maxwell. L'11 febbraio 1876 egli pronunziò nel club che frequentava a Cambridge una conferenza che ancor oggi non si può leggere senza stupore, a tal punto certi passaggi restano attuali malgrado il secolo - e che secolo! - che è trascorso da allora. Ma il titolo della conferenza è lì per richiamare il clima intellettuale dell'epoca: «Il progresso della scienza fisica tende ad avvantaggiare l'opinione della necessità (o determinismo) rispetto a quella della contingenza degli eventi e della libertà della volontà?»
Presentando la sua risposta a questa domanda, Maxwell è indotto a porre il problema della storia e quello della previsione. Si tratta di sapere se, a partire dallo stato presente, noto, di un oggetto (oggi si direbbe piuttosto: di un sistema reale), si possono dedurre, da una parte, gli stati passati dell'oggetto stesso e, dall'altra, i suoi stati futuri. Nell'astronomia, i due problemi sono solubili. Ma nella teoria del calore, per esempio, si può dedurre il futuro dal presente, mentre una deduzione dal passato è impossibile. E si possono concepire casi in cui il passato, ma non il futuro, avrebbe potuto esser dedotto dal presente.
Il problema che, nel linguaggio di Maxwell, è enunziato come quello della possibilità di dedurre lo stato futuro di un oggetto a partire dal suo stato presente, è precisamente quello della possibilità di utilizzare un sistema d'equazioni differenziali ordinarie per descrivere l'evoluzione di un sistema reale. Infatti, un sistema d'equazioni differenziali ordinarie ha una soluzione che, a partire da uno stato iniziale, determina una, ed una sola, traiettoria del sistema reale descritto da queste equazioni. Si ha dunque a che fare col problema del determinismo: lo stato iniziale di un sistema determina in modo univoco la successione dei suoi stati futuri? E si ha a che fare anche col problema della presenza delle discontinuità nei sistemi reali stessi: è chiaro che ogni volta che una piccola variazione delle condizioni iniziali provoca una grande variazione delle condizioni finali, si verifica una indeterminazione pratica di quest'ultima ad opera della prima. Ne consegue che l'evoluzione di un sistema reale in cui appare una tale discontinuità non può esser descritta attraverso un sistema d'equazioni differenziali ordinarie.
Il problema che Maxwell affronta a questo punto del suo discorso è il seguente: quali sono le condizioni alle quali deve soddisfare un sistema reale perché il suo futuro possa essere dedotto dal suo presente? Questo problema è formulato in modo negativo: quali sono le condizioni che rendono impossibile una tale deduzione? Ecco la risposta: «Si può fare molta luce su alcuni di questi problemi prendendo in considerazione la stabilità e l'instabilità. Quando lo stato delle cose è tale che una variazione infinitamente piccola dello stato presente altererà soltanto di una quantità infinitamente piccola lo stato ad un momento futuro del tempo, la condizione del sistema, che sia in riposo o in movimento, è detta stabile; ma quando una variazione infinitamente piccola nello stato presente può causare una differenza finita nello stato del sistema in un tempo finito, la condizione del sistema è detta instabile. E evidente che l'esistenza di condizioni instabili rende impossibile la previsione di eventi futuri, se la nostra conoscenza dello stato presente è solo approssimata e non accurata” [Maxwell 1876, ed. 1882 p. 440).
Come si vede, il problema di Maxwell è proprio quello che né Hegel né Engels si erano mai posto. Egli vi risponde precisando che se le condizioni di un sistema reale sono instabili, la previsione dei suoi stati futuri è possibile solo a colui che possiede una conoscenza esaustiva del suo stato presente. Una tale conoscenza è accessibile all'uomo? O, per riprendere i termini di Maxwell, è vero sempre e dovunque l'assioma secondo il quale «da antecedenti simili seguono conseguenze simili”? In altri termini, l'assioma di conservazione della continuità, che ne è un caso particolare, si applica a tutti i sistemi reali?
La risposta di Maxwell non è netta. E’ affermativa, per quel che riguarda i casi in cui «il corso degli avvenimenti è stabile», cioè dove un piccolo errore nei dati iniziali produce solo un piccolo errore nel risultato; è così, per esempio, nello studio del sistema solare. E’ negativa, al contrario, quando si ha a che fare con «altre classi di fenomeni che sono più complessi, ed in cui possono presentarsi casi d'instabilità, il numero di questi casi aumentando, in modo estremamente rapido, coll'aumentare del numero delle variabili... In un elemento a rifrazione doppia ci sono due raggi rifrangenti, ma è vero di ciascuno di essi che cause simili producono effetti simili. Ma se la direzione del raggio all'interno di un cristallo biassiale è quasi, ma non esattamente, coincidente coll'asse radiale del cristallo, un piccolo cambiamento di direzione produrrà un grande cambiamento nella direzione del raggio emergente. Naturalmente, questo deriva da una singolarità nelle proprietà dell'asse radiale, e ci sono solo due assi radiali fra il numero infinito delle direzioni possibili delle linee nel cristallo; ma bisogna attendersi che in fenomeni di maggiore complessità ci sarà un numero molto più grande di singolarità, in prossimità delle quali l'assioma su cause simili che producono effetti simili cessa di essere vero» (ibid., pp. 442-431)
Il concetto del determinismo combattuto da Maxwell è quello di Laplace per cui un demone che conoscesse li stati iniziali di tutte le particelle di cui è composto l'universo e tutte le forze che vi agiscono, sarebbe capace di dedurne la successione completa degli stati futuri. La critica di Maxwell oppone a ciò due obiezioni: innanzitutto, quella che il soggetto della conoscenza non può essere assimilato ad un Dio; poi quella che la presenza di singolarità in certi sistemi reali rende impossibile la previsione univoca degli stati futuri di tali sistemi, poiché, nelle vicinanze di punti singolari, «influenze la cui grandezza fisica è troppo piccola per essere presa in conto da un essere finito, possono produrre risultati della più grande importanza» (ibid., p. 443). E questo perché in prossimità di singolarità appaiono discontinuità fra le cause e gli effetti, cessando cause simili di provocare effetti simili. Si giunge così alla fine ad un'immagine del mondo in cui il determinismo di Laplace si applica, tutt'al più, a qualche sistema poco complesso, ma non all'universo nel suo insieme. Più si sale sulla scala della complessità e più si ha a che fare con sistemi la cui evoluzione futura è imprevedibile ad un osservatore umano; si ha a che fare in altri termini, con una indeterminazione pratica.
Sarebbe superfluo specificare le differenze fra la critica dell'assioma di conservazione della continuità fatta da Hegel o da Engels e quella che Maxwell presenta nella conferenza che si è appena riassunta e commentata. Vale tuttavia la pena di sottolineare il fatto che la critica dei primi non conduce ad alcuna scoperta, poiché, se si ammette una volta per tutte che le variazioni quantitative producono mutamenti qualitativi, il ruolo della scienza si riduce a fornire esempi a sostegno di questa tesi.
La critica di Maxwell sfocia invece su un invito a privilegiare lo studio delle singolarità e delle instabilità, trascurate a vantaggio delle continuità e delle stabilità, e conduce dunque a postulare un nuovo orientamento della ricerca. E vero che quest'invito non fu ascoltato - eccezion fatta per qualche autore che non ebbe grande influenza -, sebbene la conferenza di Maxwell fosse stata pubblicata nel 1882. Solo oggi vi si ritrovano delle idee a cui, nel frattempo, si è arrivati per tutta un'altra strada.
Questo lungo periodo di latenza si spiega col fatto che il linguaggio matematico è restato, per tutto questo tempo, incapace di padroneggiare le discontinuità. Ora, checché ne dicano i positivisti vecchi e nuovi, il linguaggio matematico non è semplicemente un comodo strumento di notazione che permette, inoltre, di effettuare calcoli e di ottenere così previsioni quantitative: il ruolo della matematica nella ricerca scientifica è molto più importante e diversificato.
In primo luogo, gli scienziati cedono inconsciamente alla tendenza a ritagliare, per così dire, il reale a misura del linguaggio che è a loro disposizione; ad attribuire al reale le proprietà che lo rendono suscettibile di descrizione mediante tale linguaggio. Il determinismo di Laplace è un buon esempio di un procedimento del genere: esso non fa che caratterizzare l'universo in modo da poterne descrivere l'evoluzione mediante un sistema d'equazioni differenziali ordinarie. Un altro esempio dello stesso procedimento è fornito dall'assioma di conservazione della continuità, che trasforma in una tesi assegnata ai processi reali l'incapacità del linguaggio matematico, ad un certo momento della sua storia, di cogliere il legame fra le cause le cui azioni variano in modo continuo e gli effetti discontinui.
In breve, la situazione del linguaggio matematico si ripercuote sull'ontologia implicita della scienza e di conseguenza sul contenuto delle dottrine filosofiche che si sforzano di verbalizzare e convalidare tale ontologia. D'altra parte, «non c'è quasi alcun dubbio che solo la matematica è capace di "teorizzare", di dirigere lo sperimentatore verso le "buone" domande* [Thorn 1975, p. 79]. Teorizzare, cioè integrare la molteplicità di dati sperimentali in un insieme coerente. Dirigere verso le «buone» domande, cioè verso quelle risposte che rendono problematica una coerenza già stabilita ed obbligano quindi a cercarne una nuova. Certo, l'osservazione e l'esperienza offrono talvolta dati che non rispondono ad alcuna domanda posta all'inizio, che sono del tutto inattesi e di fronte ai quali il linguaggio matematico resta impotente. Ma tali dati ricevono uno status di eccezioni o di curiosità; sono respinti al margine o neutralizzati, fin quando non si giunge ad integrarli in una teoria che è necessariamente formulata in un linguaggio matematico, foss'anche rudimentale. La situazione del linguaggio matematico si ripercuote dunque non solo sull'ontologia implicita della scienza - qui si aveva soprattutto presehte la fisica - ma anche sull'insieme di domande col quale affronta la realtà.
E difficile presentare non foss'altro che una visione superficiale dell'evoluzione del linguaggio matematico, che, nel corso degli ultimi cent'anni, era giunta ad introdurvi tutt'un insieme di nozioni che permettono di pensare le discontinuità, senza che sia necessario far ricorso alle metafore imprecise, se non ingannevoli, del linguaggio comune. Basterà dire che un'evoluzione che andava in questo senso è cominciata verso la metà del secolo scorso, che i settori della matematica che vi hanno contribuito più degli altri sono stati la topologia e la dinamica qualitativa, e che un ruolo molto importante vi è stato svolto in particolare da Bernard Riemann e da Henri Poincaré.
Tuttavia, è solo nel corso degli anni '50 e '6o che René Thom ha elaborato la teoria detta delle catastrofi, formulando il teorema che porta il suo nome e che stabilisce un legame intelligibile fra le cause le cui azioni variano in modo continuo e gli effetti discontinui [cfr. Bruter (1974, pp. 231 sgg.).
Sulle origini di questa teoria, esposta nel modo più completo, anche se molto difficile, nel libro di Thom Stabilité structurelle et morphogénèse [1972], l'autore stesso cosí si spiega in un articolo precedente: «La teoria che propongo proviene dalla congiunzione di due fonti: da una parte, le mie stesse ricerche in Topologia ed in Analisi Differenziale sul problema detto della stabilità strutturale: data una forma geometricamente definita dal grafico di una funzione F(x) per esempio, ci si propone di sapere se questa funzione è strutturalmente stabile, cioè, se, perturbando la funzione F abbastanza poco, la funzione perturbata G = F+ eF ha ancora la stessa forma (topologica) della funzione iniziale F. D'altra parte, la lettura dei trattati di Embriologia, ed in particolare dei libri di C. H. Waddington, le cui idee di "chréode" e di "paesaggio epigenetico" mi son sembrate adattarsi molto bene allo schema astratto che avevo incontrato nella mia teoria della stabilità strutturale delle funzioni ed applicazioni differenziabili.
Ciò vuol dire che la teoria presenta un grande carattere di astrazione e di generalità, ed il suo campo di applicazione va ampiamente al di là dell’Embriologia o anche della Biologia.“ (Thom 1965 , ed. 1974 p. 253].
Il ruolo dell’embriologia che Thom mette così in evidenza è interessante per più di un aspetto. I processi morfogenetici studiati da questa disciplina sono, infatti, fra i più ribelli al linguaggio matematico tradizionale, perché cosparsi di discontinuità di cui non ci si riesce a sbarazzare, usando l'approccio descritto in precedenza. Nello stesso tempo erano proprio i processi di questo tipo che, in quanto fornivano un paradigma generale di ogni sviluppo.e di ogni evoluzione, erano fatti valere dall'aristotelismo al quale la scienza moderna opponeva la sua convinzione che un tale paradigma deve esser cercato nel movimento di un punto materiale (o di una nube di punti materiali).
Anche coloro che hanno criticato questo presupposto della scienza moderna hanno messo l'accento, con ragione, sul suo carattere riduzionista; è in particolare il caso di Hegel che, nei passaggi citati, mostra come l'approccio scientifico tradizionale sia incapace di render conto della comparsa e scomparsa delle forme, della loro nascita e della loro morte.
Anche Thom si pone dalla parte di coloro che considerano i processi di morfogenesi come capaci di fornire un paradigma generale di tutta l'evoluzione: «Lo spettacolo dell'universo è un movimento incessante di nascita, di sviluppo, di distruzione di forme. L'oggetto di ogni scienza è di prevedere quest'evoluzione di forme e, se possibile, spiegarla» [Thom 1972, p. 17].
Ma questa parola 'spiegare' ha, nel linguaggio di Thom, un significato particolare; non vuol dire solo 'inserire in un modello quantitativo', ma anche, o soprattutto, 'rendere intelligibile, offrire delle rappresentazioni qualitative soddisfacenti'. La parola 'qualititivo' a sua volta deve essere epurata da tutta la sua aura hegeliana o aristotelica. «Bisogna infatti convincersi di un fatto: in seguito ai progressi recenti della Topologia e dell'Analisi Differenziale, l'accesso ad un pensiero qualitativo rigoroso è ormai possibile; sappiamo (in teoria) definire una forma, e possiamo determinare se due funzioni hanno, o no, lo stesso tipo topologico, la stessa forma » [ibid., p. 22]. E questo che permette di porre il problema della stabilità, che si è già incontrato in Maxwell, come problema matematico.
E’ nota la definizione della stabilità strutturale di una funzione: a partire di qui, è chiaro che una funzione non è strutturalmente stabile, quando una piccola perturbazione è sufficiente per cambiarne il tipo topologico, la forma. Quando una piccola perturbazione trasforma il tipo topologico di una funzione, appare una nuova forma di questa; si produce dunque una soluzione di continuità, una catastrofe. Ma - e questo è un risultato apparentemente paradossale sul quale si ritornerà - le catastrofi stesse hanno forme che a loro volta sono strutturalmente stabili.
C'è appena bisogno di dire che tutti i termini qui introdotti, compreso 'piccola perturbazione', hanno, nel linguaggio matematico, un senso rigorosamente definito. Le poche osservazioni che si sono fatte e quelle che si faranno in seguito non pretendono certo di raggiungere questo rigore. Il loro scopo per il momento era solo di mostrare come la teoria delle catastrofi di Thom si ponga al punto di confluenza di due correnti analizzate in precedenza: la tradizione aristotelico-hegeliana e la tradizione maxwelliana.
Il lettore interessato troverà una presentazione accessibile della teoria delle catastrofi in una delle numerose opere ad essa dedicate [oltre alle opere già citate cfr. Stewart 1975 e Zeeman 1976]. L'importante per noi è di renderci conto, in modo inevitabilmente approssimativo di come, utilizzando un modello qualitativo, Thom stabilisce un legame fra le cause le cui azioni variano in modo continuo e gli effetti discontinui. Ci si servirà a tal fine di un esempio tratto da Zeeman,e si parlerà ormai non di 'cause' ma di 'variabili di controllo', non di 'effetti' ma di 'variabili di stato'.
Supponiamo dunque che la collera e la paura di un cane possano essere misurate e che quel che interessa sia la variazione probabile dell'aggressività del cane in funzione di queste due variabili di controllo. Se solo la collera cresce, anche l'aggressività cresce, finché non si trasforma in un attacco. Se cresce solo la paura, l'aggressività diminuisce, finché non si traduce in una fuga. Se non ci sono né collera né paura, il cane resta in uno stato neutro. Ma cosa succede quando la collera e la paura crescono simultaneamente? Il comportamento del cane diventa imprevedibile: è altrettanto probabile che attacchi e che fugga. La figura 1 mostra allora che la distribuzione di probabilità cambia di forma: invece di un solo vertice ne ha due divisi da un avvallamento.
Disponiamo i valori della collera e della paura su due assi verticali, rispettivamente x e y. I valori d'aggressività li disponiamo sull'asse orizzontale z, essendo inteso che z = o significa un comportamento neutro. “Possiamo ora tracciare il grafico tridimensionale di z come funzione di x e y. Al di sopra di ciascun punto (x, y) del piano orizzontale, segnamo quel punto z che rappresenta il comportamento più probabile (preso dalla corrispondente distribuzione di probabilità). Risulta, dal teorema di Thom, che dobbiamo ottenere una superficie simile alla catastrofe a cuspide, come è illustrata nella figura 2.
Per esempio, nel Caso 1, dove c'è solo la collera, otteniamo un unico punto segnato (1) sul grafico, che indica l'attacco. Lo stesso vale per i Casi 2 e 3. Tuttavia, nell'interessante Caso 4 otteniamo due punti segnati (4) sul grafico, che indicano i due vertici della distribuzione di probabilità. Inoltre, c'è un altro punto (4) fra questi due che indica il comportamento neutro meno probabile. La ragione per includere i punti meno probabili come i punti più probabili sul grafico è che ciò dà al grafo una superficie completamente liscia. Questo risultato è notevole, ed è una delle conseguenze del teorema di Thom. Perciò è importante ricordare quando si usa la catastrofe a cuspide che il tratto intermedio della superficie (ovvero il tratto di sotto della sporgenza superiore) rappresenta sempre il comportamento meno probabile” [Zeeman 1971].
Se ora ci rappresentiamo le variazioni dell'aggressività del cane attraverso il movimento di un punto sulla superficie che si trova nella figura 2, detta la Cuspide, vediamo che è la struttura di questa superficie che determina tutti i movimenti possibili del punto rappresentativo e, fra questi, il passaggio brusco da un comportamento d'attacco a quello di fuga o viceversa.
E’ appunto questa superficie (o un'equazione corrispondente) che costituisce, nel nostro esempio, il modello qualitativo grazie al quale si opera la congiunzione fra una discontinuità osservabile e la variazione continua delle variabili di controllo. E’ ancor essa (o un'equazione corrispondente) che caratterizza il tipo di topologia della catastrofe, la sua forma. Questa superficie è un'immagine grafica della variabile di stato come funzione di due variabili di controllo.
Nel nostro esempio, avevamo a che fare solo con una variabile di stato, ma uno dei risultati notevoli del teorema di Thom è che qualunque sia il numero delle variabili di stato (in altri termini: qualunque sia il numero di dimensioni dello spazio degli stati), ogni volta che abbiamo due variabili di controllo (in altri termini: ogni volta che lo spazio di controllo ha solo due dimensioni), se una catastrofe appare, avrà la stessa forma: quella della Cuspide.
Generalmente parlando, tramite certe condizioni matematiche che non è certo che si verifichino automaticamente, il teorema di Thom stabilisce che i tipi topologici delle catastrofi, le loro forme, dipendono dal numero di dimensioni dello spazio di controllo e, quando questo numero è uguale o più grande di 3, dal numero di dimensioni dello spazio degli stati.
Tuttavia, per le dimensioni dello spazio di controllo uguali a 3 o a 4 (le dimensioni maggiori non interessano, sebbene siano studiate dai matematici), il tipo topologico della catastrofe resta lo stesso per tutte le dimensioni dello spazio degli stati uguali o più grandi di 2. Poiché le catastrofi che appaiono nelle dimensioni inferiori dello spazio di controllo sono presenti anche nelle sue dimensioni superiori, ci sono solo sette catastrofi che possono presentarsi in uno spazio di controllo a 4 dimensioni, equivalenti allo spazio-tempo usuale; esse sono chiamate catastrofi elementari (cfr. tabella 1).
Si vede che il concetto di soluzione di continuità o di catastrofe perde ormai il carattere vago che ne rendeva cosí difficile l'utilizzazione. Il teorema di Thom classifica tutte le catastrofi elementari possibili in uno spazio-tempo a 4 dimensioni sulla base dei loro tipi topologici (per questa ragione, è chiamato anche teorema di classificazione). Si constata, d'altra parte, che le forme delle catastrofi sono strutturalmente stabili, sebbene le funzioni stesse non lo siano in prossimità di alcuni punti che ne costituiscono le singolarità; nell'esempio del cane, è evidentemente il caso del punto (4), in prossimità del quale una piccola perturbazione è sufficiente per produrre un passaggio brusco dall'attacco alla fuga o viceversa. Risulta infine, e non è il risultato meno sorprendente della teoria di Thom, che “si può creare una teoria della morfogenesi in abstracto, puramente geometrica, indipendente dal sostrato delle forme e della natura delle forze che le creano» [Thom 1972, p. 24].
Elaborando un linguaggio matematico che permette di offrire modelli qualitativi delle catastrofi - ed in certi casi privilegiati a quanto pare anche modelli quantitativi; ma questo punto è oggetto di una viva controversia [cfr. da una parte Zeeman 1972 a e b, 1974; Isnard e Zeeman 1976; dall'altra Bari Kolata 1977] - la teoria di Thom risponde all'invito di Maxwell, e realizza il suo desiderio di vedere il determinismo di Laplace sostituito da un'altra forma di determinismo.
Certo, nel caso dei fenomeni quantistici, il determinismo di Laplace è fallito cinquant'anni fa, ma si supponeva ancora governasse il mondo macroscopico. La teoria delle catastrofi conduce a rimettere in causa il suo monopolio anche in questo campo. In effetti, dovunque appaiono nel corso del tempo discontinuità nella rappresentazione matematica di un processo reale, il modello di Laplace cessa di essere applicabile perché lo stato iniziale del processo non definisce in modo univoco la successione dei suoi stati futuri.
In altri termini, là dove appare una discontinuità, il processo diventa indeterminato, se si concepisce il determinismo nello stesso modo in cui lo concepiva Laplace. Evidentemente, si può sostenere che il processo non è indeterminato ma che, pur essendo determinato, è strutturalmente instabile. Questa è tuttavia, secondo Thom, una distinzione puramente verbale: «Nessun criterio sperimentale permetterà di distinguere un fenomeno strutturalmente instabile e determinato da un fenomeno fondamentalmente indeterminato. Perciò, quando si svuota il problema del determinismo della sua dimensione filosofica, esso si riduce sul piano fenomenologico all'affermazione seguente, difficilmente contestabile: ci sono fenomeni più o meno determinati; il carattere più o meno determinato di un processo si esprime essenzialmente attraverso la continuità piu o meno liscia (differenziabile) dell'evoluzione di questo processo in funzione delle condizioni iniziali».
Se si accetta quest'affermazione, si è naturalmente portati ad ammettere anche il postulato seguente: “(Postulato (EL). Il carattere più o meno determinato di un processo è determinato dallo stato locale di questo processo. Per ogni processo che soddisfi a (EL), si è così portati a distinguere due tipi di regioni; le regioni in cui il processo è ben determinato e strutturalmente stabile e le zone d'instabilità o d'indeterminazione» [Thom 1972, p. 132).
Ma allora il mondo macroscopico cessa di esser retto dal determinismo di Laplace ed il problema del carattere determinato o indeterminato, strutturalmente stabile, o strutturalmente instabile, dei processi studiati deve ricevere una risposta tratta non da una professione di fede, filosofica o altro, ma da una ricerca concreta che identifichi, per riprendere un'espressione di Thom, «le isole di determinismo » nell'oceano delle indeterminazioni.
E non è tutto: rimettendo in questione il determinismo di Laplace, Thom riapre anche il dossier del problema dei rapporti fra il linguaggio scientifico e il linguaggio comune. All’approccio, tradizionale da tre secoli, che considera il mondo dell’esperienza quotidiana come il campo dell'apparenza e che porta a ridurre le discontinuita osservabili a processi microscopici e continui, egli oppone la sua convinzione che le discontinuità osservabili sono reali.
Invece di sforzarsi di eliminarle, bisogna partire «dall'esame macroscopico della morfogenesi di un processo, dallo studio locale o globale delle sue singolarità» e sforzarsi di risalire «alla dinamica che lo genera» [ibid., p. 24]. In altri termini, è tutto il problema dei rapporti fra il microscopico ed il macroscopico che viene posto, dal momento che la teoria delle catastrofi, contrariamente a quelle che dominano in fisica o in biologia, privilegia il macroscopico, il che sfocia nell'idea di un nuovo orientamento della ricerca: «In fondo la scelta dei fenomeni considerati scientificamente interessanti è probabilmente molto arbitraria. La fisica attuale costruisce macchine enormi per mettere in evidenza situazioni la cui durata di vita non va al di là di 1-23 secondi; non si ha probabilmente torto a volere, attraverso l'uso di tutti i mezzi tecnici disponibili, far l'inventano di tutti i fenomeni accessibili all'esperienza. Ci si può nondimeno porre legittimamente una domanda: una grande quantità di fenomeni familiari (al punto che non attirano più l'attenzione!) sono tuttavia difficili da teorizzare; per esempio, le lucertole su un vecchio muro, la forma di una nube, la caduta di una foglia morta, la schiuma di un boccale di birra... Chissà se una riflessione matematica un po' più spinta su questo genere di piccoli fenomeni non si rivelerebbe, in fin dei conti, più utile alla scienza?» [ibid., p. 26].
Questi pochi esempi sono sufficienti per capire l'interesse suscitato dalla teoria delle catastrofi e dall'insieme dell'opera di René Thom, ed anche per capire le resistenze che incontra. Attualmente si assiste ad un dibattito di cui è impossibile prevedere l'esito. La teoria delle catastrofi, sviluppata e perfezionata, diventerà un nuovo linguaggio di validità universale, il nuovo linguaggio della scienza? Il linguaggio tradizionale riuscirà ad assimilarla ed a contenerla in limiti ben definiti, assegnandole il posto di un sottolinguaggio particolare? I due linguaggi coesisteranno, l'uno a fianco all'altro, uniti da un rapporto di complementarietà, come la teoria corpuscolare e la teoria ondulatoria della luce? Ogni risposta a queste domande sarebbe prematura. La sola certezza che si possa avere è che sono poste e che nei prossimi anni saranno al centro di dibattiti all'interno della scienza e della filosofia."
2.
Non sono mai riuscito a leggere, date le mie scarse competenze di matematica superiore, l’opera principale di Thom, anche se essa è stata tradotta in italiano (Stabilità strutturale e morfogenesi. Saggio di una teoria generale dei modelli, Torino, 1980). Ho letto però tutto ciò che mi è stato possibile riguardo alla Teoria delle catatsrofi, compresa la densa intervista concessa da Thom a Giulio Gioriello e S. Morini (Parabole e catastrofi, Milano, 1982). Sono giunto alla conclusione che il modello psicopatologico struttural-dialettico, costruito sulla base della teoria dei bisogni intrinseci, non solo è compatibile, ma potrebbe essere formalizzato in termini catastrofici.
Cerco di fornire gli elementi su cui si basa tale convinzione.
Partiamo dal modello grafico della cuspide:
Il significato del grafico è abbastanza semplice da spiegare. Esso rappresenta in superficie i cambiamenti morfologici, o meglio fenomenologici, che possono intervenire in un sistema complesso sulla base della composizione dinamica di due variabili che agiscono al di sotto della superficie stessa.
Il “gioco” delle variabili comporta quattro stati fenomenologici: la prevalenza di una variabile sull’altra (1, 2), l’equilibrio (3), dovuto al compenso reciproco delle variabili, e l’instabilità (4).
L’instabilità definisce uno stato critico che non può durare indefinitamente. Esso, infatti, tende ad evolvere catastroficamente verso lo stato 1 e quello 2. La catastrofe significa semplicemente che la morfologia superficiale cambia repentinamente e imprevedibilmente.
E’ l’imprevedibilità, infatti, l’essenza dello stato instabile, che può virare verso l’una o l’altra delle due morfologie, Della catastrofe si può, però, prendere atto solo dopo che essa è avvenuta.
Non si stenta a capire perché questo modello mi abbia letteralmente suggestionato. Nella sua forma più semplice la teoria psicopatologica struttural-dialettica comporta solo due variabili, che rappresentano l’infrastruttura dinamica della personalità: l’una riconducibile al bisogno di appartenenza/integrazione sociale, l’altra al bisogno di opposizione/individuazione.
Il conflitto tra questi bisogni, che può rimanere latente anche molto a lungo, raggiunge ad un certo punto, in conseguenza della sua intensificazione, uno stato critico, al di là del quale avvengono cambiamenti più o meno catastrofici a livello della superficie della coscienza e del comportamento.
Tali sintomi possono attestare la prevalenza della funzione superegoica, attraverso la quale si esprime il bisogno di appartenenza/integrazione sociale, o la prevalenza dell’Io antitetico, attraverso la quale si esprime il bisogno di opposizione/individuazione. Nel primo caso la sintomatologia ha un rilievo handiccapante sul comportamento, riconducibile alla punizione, alla riparazione o alla prevenzione di comportamenti colpevoli; nel secondo essa ha un rilievo opposizionistico o sfidante, riconducibile all’affermazione rabbiosa della libertà individuale.
Il Grafico potrebbe assumere la forma seguente:
Nella sua genericità, il grafico dice ben poco. Nelle sue applicazioni, però, alle varie sindromi esso risulta interessante. Per esempio, la fenomenologia dei disturbi cosiddetti bipolari si articolerebbe nel seguente modo:
Non solo il viraggio verso la depressione o l’eccitamento e viceversa risulterebbe più comprensibile. Il grafico potrebbe permettere di comprendere anche il significato degli stati misti, dovuti al mantenersi di uno stato di instabilità.
Anche un’esperienza delirante potrebbe essere ricondotta alla cuspide:
E’ proprio il confronto tra questi due ultimi grafici che fa affiorare dei dubbi.
Com’è possibile che le stesse variabili diano luogo a fenomeni soggettivi e comportamentali così diversi?
Il problema è che le variabili di controllo, nella realtà, non sono i bisogni o le emozioni associati ad essi, bensì le substrutture del Super-io e dell’Io antitetico che, tra l’altro interagiscono con l’Io conscio e ancora più con quello inconscio.
La forma più corretta del grafico sarebbe dunque la seguente:
Il problema è che il Super.Io e l’io antitetico sono funzioni nelle quali le logiche dei bisogni intrinseci, le emozioni ad essi associate e i valori culturali si intracciano in una varietà indefinita di modi. Se fossero in gioco solo le emozioni, la teoria struttural-dialettica potrebbe giungere ad una formalizzazione. Essendo in gioco, invece, le substrutture, la loro complessità non è (e presumo che non possa mai essere ) quantificabile.
Ciò nulla toglie al fatto che l’analogia tra la teoria delle catastrofi e la teoria struttural-dialettica è molto suggestiva.
Occorrerà, dunque, continuare a ricercare in questa direzione.