Introduzione alla teoria e cenni sulle sue origini.
La teoria sul funzionamento cerebro/mentale elaborata dal medico e biologo Gerald Maurice Edelman - ovvero la "teoria della selezione dei gruppi di neuroni", d'ora in poi TSGN - è nata da un'ipotesi avanzata verso la metà degli anni Settanta sulla base del lavoro che lo scienziato americano aveva precedentemente svolto nel campo dell'immunologia (Edelman, G.M. [1975]), e per il quale gli era stato conferito, nel 1972, il Premio Nobel per la Fisiologia o la Medicina. Tale ipotesi consisteva nell'estensione del concetto di sistema selettivo, già applicato con successo alla comprensione dei fenomeni immunitari, al contesto delle indagini sul funzionamento del sistema nervoso degli organismi superiori. Si trattava dunque di considerare quest'ultimo come un meccanismo capace, in virtù delle sue caratteristiche morfologiche e funzionali, di "anticipare" le risposte comportamentali in grado di soddisfare i bisogni dell'organismo, di "memorizzare" le risposte che si fossero rivelate adattative, e di "evolvere" tale capacità di risposta - ovvero di svilupparla ed affinarla progressivamente nel corso dell'esistenza individuale (o "tempo somatico") - grazie alla continua interazione con l'ambiente.
Presentata per la prima volta come teoria nel 1978 (Edelman, G.M., Mountcastle, V.B. [1978]), nel contesto costituito dalle attività del Neurosciences Research Program - organizzazione fondata nel 1962 dal biofisico Francis O. Schmitt con lo scopo di coordinare gli sviluppi degli studi sulle funzioni del sistema nervoso centrale, in particolare "funzioni complesse come il comportamento cognitivo cosciente" (Swazey, J.P. [1975]) - la proposta edelmaniana si è in seguito distinta, all'interno del panorama neuroscientifico, come operazione concettuale di ampio respiro. Nella sua formulazione attuale, essa si configura infatti come una ripresa consapevole del programma darwiniano di una spiegazione naturalistica della mente (Gruber, H.E., Barrett, P.H. [1974]), basata sulla saldatura concettuale fra biologia evoluzionistica, biologia dello sviluppo, neurobiologia e psicologia dello sviluppo, quest'ultima intesa come indagine sulla formazione ontogenetica delle capacità cognitive.
Origini immunologiche del concetto di sistema selettivo somatico.
Per quanto concerne l'immunologia, l'approccio selettivo - che costituisce a tutt'oggi il paradigma dominante nell'ambito di questa disciplina - venne sviluppato nel corso degli anni Cinquanta per risolvere alcuni problemi di fondo relativi alla comprensione dei meccanismi soggiacenti al processo di immunizzazione. Già alla fine del secolo scorso, grazie agli esperimenti ed alle elaborazioni teoriche di Elie Metchnikoff e di Paul Ehrlich, il fatto che la reazione di un organismo all'aggressione da parte di un antigene esterno comportasse una modificazione di lunga durata nella composizione del siero, che diveniva così immune, si era infatti chiaramente configurato come un processo di adattamento, il quale sembrava riprodurre, a livello individuale, quella capacità di rispondere in maniera adeguata e flessibile alle esigenze ambientali che caratterizza i fenomeni dell'evoluzione biologica (Corbellini, G. [1990]).
Le ipotesi esplicative possibili, pertanto, venivano ad essere due: a) che l'antigene rappresentasse un'"istruzione" per l'organismo, determinando attivamente la formazione di anticorpi specifici che ne diventavano così costitutivi (spiegazione "lamarckiana"); b) che gli anticorpi preesistessero all'incontro con l'antigene, la ricezione del quale avrebbe rappresentato quindi una "selezione" (spiegazione "darwiniana").
Nel nostro secolo, la prima grande teoria di successo relativa alla formazione degli anticorpi fu la teoria istruttiva avanzata dal chimico Linus Carl Pauling nel 1940. Detta anche "teoria dello stampo antigenico", essa sosteneva che l'antigene, presente nell'ambiente di formazione dell'anticorpo, agisse come uno stampo nei confronti di quest'ultimo, determinandone la configurazione stereocomplementare - ovvero la forma tridimensioniale, parzialmente complementare alla molecola di antigene, assunta dalle catene di atomi che costituiscono la molecola anticorpale. Implicita in questa teoria era l'idea che gli anticorpi fossero fondamentalmente omogenei prima dell'incontro con l'antigene, e che l'eterogeneità e la specificità rilevate a seguito del processo d'immunizzazione dipendessero esclusivamente dall'azione antigenica (Pauling, L.C. [1940]).
Nonostante la sua semplicità ed eleganza, la teoria dello stampo antigenico trovò tuttavia un'immediata difficoltà nella spiegazione di quell'aspetto fondamentale dell'immunità che è costituito dalla memoria immunologica: il fatto che, una volta acquisita, l'immunità di un organismo nei confronti degli effetti patogeni e tossici scatenati da determinati antigeni si dimostri persistente nel tempo, arrivando a coprire, in alcuni casi, l'intera durata della vita. Il requisito essenziale della teoria di Pauling, ovvero la presenza dell'antigene nel sito di formazione degli anticorpi, fu dimostrato valido solo per le prime ore e giorni successivi all'inoculazione, mentre l'ipotesi aggiuntiva sulla presunta moltiplicazione nell'organismo degli antigeni invasori, tale da reiterare la produzione anticorpale, fu dimostrata erronea nel corso degli anni Cinquanta. La teoria dello stampo antigenico ricevette un colpo definitivo nel 1964, con la dimostrazione che anticorpi di specificità data sottoposti a denaturazione, cioé al ritiro dell'informazione strutturale senza rottura della catena primaria, riacquistavano l'originaria specificità per l'antigene allorché rinaturati in un mezzo fisiologico (Corbellini, G. [1990]).
I concetti fondamentali dell'approccio alternativo - ovvero, dell'approccio selettivo - furono enunciati per la prima volta dall'immunologo danese Niels Kay Jerne nel 1955 (Jerne, N.K. [1955]). Essi consistevano nel postulare: 1) la preesistenza degli anticorpi nella loro forma specifica; 2) la presenza di un meccanismo "depurante" per reprimere la produzione di anticorpi diretti contro autoantigeni; e 3) la presenza di un meccanismo selettivo in grado di promuovere la sintesi degli anticorpi che risultano più adatti ad un antigene particolare. Successivamente perfezionate dal virologo australiano Frank Mac Farlane Burnet, Premio Nobel nel 1960 - il quale identificò correttamente l'oggetto della selezione non nella popolazione degli anticorpi, bensì in quella delle cellule che li producono -, queste idee costituiscono la base di quello che sarebbe divenuto in seguito il "dogma centrale" dell'immunologia: la teoria della selezione clonale . Formulata da Burnet nel 1957 e da lui sviluppata ulteriormente nel 1959 (Burnet, F.M. [1959]), questa teoria ipotizzava che, nel corso dell'ontogenesi, le cellule linfoidi venissero programmate per formare, ciascuna, un tipo specifico di anticorpo, e che il riconoscimento dell'antigene da parte di una o più di tali cellule - mediato dall'anticorpo espresso sulla loro superficie in qualità di recettore - funzionasse come segnale per la divisione e la produzione di una discendenza (un "clone" di cellule) in grado di sintetizzare ancora lo stesso tipo di anticorpo.
Ampiamente confermata, fin dai primi esperimenti, in tutte le sue affermazioni principali, la teoria della selezione clonale rendeva conto di molti dei fenomeni biologici che si verificano nell'immunità. La memoria immunologica, ad esempio, veniva a coincidere con il risultato pratico della selezione clonale, che è quello di creare una modificazione persistente nella composizione delle immunoglobuline (le molecole anticorpali) circolanti nel sangue, un ampio numero delle quali risulta in grado di reagire all'antigene che ha stimolato in origine la riproduzione delle cellule produttrici di anticorpi. Anche il riconoscimento del "sé immunologico", ossia la capacità del sistema immunitario (evidente nel caso del rigetto dei trapianti come in quello della tolleranza acquisita) di discriminare fra componenenti propri e componenti estranei, e di "apprendere" tale discriminazione, come aveva dimostrato Peter Medawar (Billingham, R.E., Brent, L., Medawar, P.B. [1953]), nelle prime fasi dell'ontogenesi, trovava una adeguata spiegazione nell'ambito di questa teoria. Dal punto di vista genetico-molecolare, analizzato da Joshua Lederberg nel 1959, la selezione clonale implicava infatti che l'anticorpo, prodotto spontaneamente dalla cellula nella sua fase di maturazione, avesse la funzione "di marcare le cellule preadattate a reagire con un dato antigene, sia per sopprimere queste cellule allo scopo di indurre la tolleranza immunitaria..., sia per stimolarle a una massiccia sintesi di anticorpi..." (Lederberg, J. [1959]).
Come Edelman riassume in un saggio pubblicato nel 1974, questa prima formulazione della selezione clonale incontrava tuttavia qualche difficoltà nel dar conto di come la specificità anticorpale fosse generata con una gamma sufficiente (Edelman, G.M. [1974]). In altre parole, si poneva per la comprensione dei fenomeni immunitari quello che può essere considerato un problema tipico dei sistemi selettivi operanti nel tempo somatico (cervello incluso): il problema del modo in cui, a partire da un numero ampio ma finito di elementi (cellule produttrici di anticorpi o cellule nervose), a loro volta codificati da un numero finito e proporzionalmente ristretto di geni, si generi, nel corso della vita dell'organismo cui il sistema appartiene, la possibilità di rispondere in modo altamente specifico ad una immensa gamma di differenti "stimoli" esterni.
Il contributo apportato da Edelman alla soluzione di questo problema in ambito immunologico è stato illustrato dallo scienziato americano mediante un ragionamento che è fondamentale per comprendere i concetti sui quali egli ha poi basato l'estensione dell'approccio selettivo a livello neurobiologico.
La prima considerazione di Edelman fu che, per quanto riguarda ogni dato antigene, il sistema che forma l'anticorpo doveva essere degenere: molti anticorpi diversi dovevano risultare adatti a legare - e dunque a "riconoscere" - quell'antigene più o meno bene . Da un punto di vista non istruttivo, infatti, l'esistenza per ogni antigene di un anticorpo unico, o migliore di tutti gli altri, avrebbe implicato o una corrispondenza di uno a uno fra ogni anticorpo e il suo antigene complementare - una sorta di "armonia prestabilita", che rimanderebbe ad una concezione creazionistica - oppure la selezione specifica, per mezzo dell'antigene complementare, di ciascun anticorpo nel corso dell'evoluzione. Benché sia effettivamante concepibile che la diversificazione degli anticorpi venga sottoposta a pressione selettiva, durante l'evoluzione, da parte di gruppi di sostanze chimiche, il fatto stesso che si possano produrre anticorpi contro antigeni di sintesi artificiale, presumibilmente mai incontrati dall'organismo nel corso della sua storia evolutiva, dimostra l'impossibilità che tale pressione sia stata esercitata nei confronti di ogni recettore cellulare.
Secondo l'ipotesi di Edelman, invece, il sistema avrebbe dovuto generare un grande numero di varianti anticorpali, alcune delle quali avrebbero potuto non venir mai selezionate durante la vita di un organismo. Di fatto, l'identificazione della struttura completa della molecola anticorpale, effettuata da Edelman nel 1969, mostrò come la diversità delle immunoglobuline dipendesse dalla variazione delle sequenze di amminoacidi nelle regioni variabili delle catene leggere e pesanti che costituiscono tali molecole, e dalla possibilità di un assortimento casuale fra diverse catene leggere e pesanti. L'origine genetica di questa variazione poteva essere spiegata assumendo come valida l'ipotesi della "mutazione somatica" avanzata da Lederberg nel 1959, secondo la quale il repertorio anticorpale si costituisce per ricombinazione e mutazione di un numero limitato di geni durante, rispettivamente, il differenziamento delle cellule precorritrici in cellule anticorpopoietiche e la maturazione di quest'ultime nel corso della risposta immunitaria (Lederberg, J. [1959]). Tale ipotesi è stata di fatto ampiamente corroborata dai risultati degli studi genetici sugli anticorpi effettuati a partire dalla seconda metà degli anni Settanta (cfr. Tonegawa, S. [1983]).
Stabilito l'importante principio della degenerazione di quello che Edelman chiamò "tipo primario" - ovvero il repertorio costituito dal complesso delle differenti molecole anticorpali generate, nel corso della vita dell'organismo, dalle cellule produttrici di anticorpi non ancora amplificate clonalmente - lo scienziato americano considerò il problema dei rimanenti due requisiti richiesti dall'ipotesi selettiva per dar conto della specificità del sistema. La degenerazione del repertorio di partenza implicava infatti che tale specificità fosse, ad un livello iniziale, decisamente minore di quella comunemente riscontrata nella risposta immunitaria degli organismi, e che si verificasse un'estesa reattività incrociata fra anticorpi distinti. Ai fini dell'emergere della specificità nel sistema, dunque, era necessario innanzitutto che esistesse un meccanismo in grado di assicurare ai membri del repertorio ampie possibilità di incontrare ed intrappolare (o riconoscere) gli antigeni . Tale meccanismo venne senz'altro identificato da Edelman nella complessa circolazione dei linfociti e nella cooperazione, individuata e sperimentalmente con fermata nel corso degli anni Sessanta, fra linfociti B (originati nel midollo osseo) e linfociti T (derivati dal timo): questi ultimi svolgono infatti un'indispensabile azione coadiuvante, "presentando" in qualche modo l'antigene alle cellule B, produttrici di anticorpi (Raff, M.C. [1973]).
Vale la pena di menzionare il fatto che, a partire dai primi anni Settanta, gli studi sulle interazioni cellulari nel corso della risposta immunitaria si sono focalizzati sulla capacità delle membrane cellulari di sottostare a modificazioni nella loro organizzazione molecolare, modificazioni che svolgono un ruolo determinante per l'attività delle cellule e per le funzioni che da esse dipendono (Raff, M.C. [1976]). Questi studi costituiranno il retroterra delle ricerche successivamente svolte da Edelman sulle modificazioni delle membrane delle cellule nervose, i fondamentali esiti delle quali svolgeranno, come si vedrà in seguito, un ruolo molto importante nell'ambito della TSGN.
Il terzo ed ultimo requisito per spiegare la specificità della risposta immunitaria in termini selettivi venne identificato da Edelman nella capacità, da parte del sistema, di reagire all'incontro anticorpo-antigene con una risposta amplificata . Poiché l'ipotesi della degenerazione del repertorio primario implicava che, date due popolazioni cellulari in grado di legare due differenti antigeni, esistesse anche una sottopopolazione in grado di legare entrambi, Edelman propose di considerare l'esistenza di un secondo fattore - ulteriore rispetto al semplice incontro con l'antigene - in grado di agire come forza selettiva. Sulla scia dei nascenti studi sulle proprietà delle superfici cellulari, egli suggerì infatti che alcuni membri di una sottopopolazione a reattività incrociata potessero trovarsi ad avere maggiori probabilità di essere innescati da uno solo di due o più differenti antigeni in conseguenza di eventi variabili come lo stato di maturazione della cellula o la densità superficiale dell'antigene (che incrementa la capacità di legame). Alcune indagini di tipo quantitativo sulle dinamiche interne delle popolazioni di linfociti indicarono di fatto che, di un certo numero di cellule provenienti da topi non immunizzati, soltanto quelle con recettori dotati di maggiore affinità per un dato antigene venivano stimolate, in conseguenza dell'incontro con quest'ultimo, ad amplificarsi clonalmente, ed il numero delle cellule prodotte sembrava essere proporzionale all'affinità del recettore anticorpale situato sulla cellula stimolata (Rutishauer, U., Millette, C.F., Edelman, G.M. [1972]). Nella misura in cui gli anticorpi di affinità superiore sono anche i più specifici, questo incremento della capacità di legame durante la maturazione della risposta immunitaria dimostrava che l'amplificazione si risolveva anche in un accrescimento della specificità del sistema. Quest'ultima, dunque, appariva come una proprietà dinamica del sistema nel suo insieme, e non solo una qualità statica degli anticorpi in un repertorio degenere; e il sistema poteva essere definito come un "amplificatore" dotato di un filtro per l'affinità che agisce sui suoi input (Edelman, G.M. [1975]).
Il contributo delle ricerche in embriologia molecolare (critica dell'analogia cervello/ computer di Von Neumann).
Il tentativo edelmaniano di estendere a livello neurobiologico i principi selettivi - tentativo ipotizzato, a cavallo fra anni Sessanta e Settanta, anche da altri immunologi, quali Niels K. Jerne e Melvin Cohn (Jerne, N.K. [1967]; Cohn, M. [1970]) - ha proceduto, negli anni successivi, di pari passo con le ricerche condotte dallo scienziato americano nel campo della biologia dello sviluppo, o, più precisamente, dell'embriologia molecolare. Brevemente riassunte, tali ricerche hanno portato all'identificazione (dal 1975 in poi) di un ristretto gruppo di molecole della superficie cellulare, le quali - modificando l'organizzazione di questa struttura in rapporto alle condizioni interne ed esterne della cellula (la cosiddetta "informazione posizionale") - appaiono mediare le interazioni fra popolazioni cellulari che conducono, nel corso della morfogenesi, all'acquisizione della forma propria di ciascun organismo complesso. La scoperta di queste molecole, dette "morforegolatrici", e l'indagine sperimentale del ruolo da esse svolto nella formazione dei tessuti (soprattutto del tessuto cerebrale) hanno consentito ad Edelman di riformulare, sul terreno cellulare e molecolare, l'antica nozione di epigenesi. Ovvero, espressa in termini attuali, l'ipotesi secondo cui l'organizzazione strutturale dell'embrione in fase di crescita (e, successivamente, dell'organismo adulto) sarebbe ampiamente determinata dalle interazioni fra le cellule in fase di moltiplicazione e l'ambiente interno ed esterno dello sviluppo, anziché essere rigidamente e completamente prefigurata a livello dell'informazione genetica contenuta nell'uovo fecondato (come vorrebbe, invece, l'ipotesi "preformista", attualmente sostenuta da molti programmi di ricerca in genetica e biologia molecolare; vedi, ad esempio, il "Progetto Genoma").
L'ipotesi epigenetista viene riformulata da Edelman come "ipotesi dei morforegolatori" : l'idea secondo la quale i processi primari dello sviluppo (divisione, adesione, movimento, morte e differenziamento - o specializzazione funzionale - delle cellule embrionali) sarebbero regolati da "modulazioni" locali delle superfici cellulari, cioè da cambiamenti nella quantità, nella distribuzione e/o nella composizione chimica delle molecole della superficie cellulare (le CAM = Cell Adhesion Molecules ; le SAM = Substrate Adhesion Mole cules ; e le CJM = Cell Junctional Molecules ). Modificando la capacità di legame fra le cellule (e, dunque, regolando in modo diretto il processo dell'adesione), queste modulazioni influiscono infatti sul corso delle interazioni in atto fra le popolazioni cellulari e, di conseguenza, sul corso degli altri processi morfogenetici cui tali popolazioni sono contemporaneamente soggette. Sia le modulazioni, sia le interazioni da esse mediate sarebbero di natura epigenetica, dovute cioè ad eventi meccanico-chimici determinati dal contesto via via costituito dalle stesse popolazioni cellulari. Un fattore, quest'ultimo, che non può - come sono andati rivelando i dati relativi alle dimensioni del genoma - essere prefigurato nel dettaglio a livello di informazione genetica. Di fatto, il rapporto fra le rispettive dimensioni quantitative del genoma dei diversi organismi e gli elementi e/o eventi che dovrebbero essere specificati o controllati dall'informazione in esso contenuta rappresenta uno dei maggiori problemi che si pongono alle attuali teorie "preformiste" dello sviluppo biologico. L'aspetto essenziale di questo problema è ben illustrato da una metafora usata da Richard Lewontin: "Bisognerebbe immaginare un manuale di istruzioni che dica ad ogni abitante di New York quando svegliarsi, dove andare e cosa fare, ora dopo ora, giorno dopo giorno, per tutta la durata del prossimo secolo. Non c' è abbastanza DNA per fare una cosa del genere." (Lewon tin, R.C., [1989]).
Questa ipotesi rappresenta il nucleo attorno al quale si è sviluppata, nel corso degli anni Ottanta, quella che Edelman ha chiamato "topobiologia", ovvero l'indagine del modo in cui, nel corso dell'embriogenesi, la forma animale si definisce mediante meccanismi molecolari di regolazione che, pur dipendendo dall'attività genetica, sono condizionati, nel loro attuarsi, dai contesti locali (o "luoghi") dello sviluppo. L'idea centrale è che la morfogenesi richieda "un anello di regolazione dinamica dipendente dalla sede [o contesto locale] che va dal gene [morforegolatore] al suo prodotto [molecole morforegolatrici], alle cellule, ai tessuti, e poi di nuovo indietro da queste struttu re di ordine maggiore al medesimo o a un differente gene" (Edelman, G.M. [1988], p. 133). L'ipotesi dei morforegolatori costituisce una risposta al problema del modo in cui un codice genetico unidimensionale (lineare) può dar luogo ad un animale tridimensionale. La portata esplicativa di tale ipotesi non è tuttavia limitata al solo problema dello sviluppo della forma. Il principale risultato "topobiologico", ovvero la conclusione per cui il rapporto fra geni e morfologia è indiretto, mediato e non lineare, ha infatti delle importanti conseguenze sia su alcuni aspetti del problema dell'evoluzione della forma, sia, soprattutto, sulla questione delle basi morfologiche del comportamento fenotipico.
Ai fini della messa a punto della TSGN, è ovviamente questo secondo ordine di conseguenze a risultare di maggiore importanza. Il quadro dello sviluppo cerebrale offerto dai risultati delle ricerche sulle molecole di adesione costituisce infatti per Edelman la base di partenza per mettere in luce la fondamentale inadeguatezza degli assunti (espliciti ed impliciti) caratteristici degli approcci dominanti alla comprensione del cervello, e per articolare l'alternativa selezionista mediante il contrasto diretto e puntuale con tali assunti. Il bersaglio generale di questa critica è costituito dall'analogia fra cer vello e computer di Von Neumann, inteso come macchina fisica in grado di sup portare, grazie ad una predefinita e rigorosa logica interna, un processo di manipolazione di "simboli", o "rappresentazioni mentali" ( information processing ); processo nel quale consisterebbe la capacità di rispondere in modo adeguato agli stimoli ambientali in ingresso. Va osservato che questa concezione - la cui componente "funzionalista" (il prescindere cioè dalle caratteristiche strutturali dei due sistemi paragonati) ha costituito la base del programma di ricerca dell'intelligenza artificiale (Simon, H.A. [1969]; Gard ner, H. [1987]) - condivide con il pensiero fisiologico classico il presupposto fondamentalmente "lamarckiano" per il quale l'organismo è un sistema di rettamente guidato, nel suo comportamento, dall'"informazione" proveniente dall'ambiente (i "dati" immessi nel computer), la quale agisce come un'"istruzione" nei confronti dei meccanismi utilizzati per la soddisfazione dei bisogni (i programmi e le euristiche implementati nel computer affinché esso possa far fronte ad una gamma più o meno ampia di problemi). Seguendo un'osservazione di Gilberto Corbellini, si può far notare come questa prospettiva "lamarc kiana" sia entrata a far parte degli approcci simulativi allo studio del com portamento "intelligente" con la cibernetica degli anni Quaranta, "la quale nasceva come tentativo di generalizzare il concetto di regolazione automatica dell'ambiente interno concepito dai fisiologi agli inizi del secolo" (Corbel lini, G. [1991]).
La critica di Edelman alla "metafora del computer" - già abbozzata nel 1978 (Edelman, G.M., Mountcastle, V.B. [1978]) - è dunque del tutto coerente con l'abbandono, già effettuato sul terreno dell'immunologia, della prospettiva "istruttivista" che ha caratterizzato le indagini sui pro cessi adattativi individuali (in quanto contrapposti all'adattamento evolutivo) almeno fino alla metà di questo secolo. Come Edelman osserva nella parte finale di Topobiology, l'analogia cervello/computer, allorché confrontata con i dati provenienti dalle indagini sullo sviluppo cerebrale e, in generale, dalla neurobiologia, si risolve in una serie di "crisi interpretative" a livello strutturale e funzionale (Edelman, G.M., [1988]). Per quanto riguarda il primo livello, essa implica infatti che l'architettura cerebrale si sviluppi in base a un "programma" ereditato che determina in maniera diretta e completa ogni dettaglio della connettività neurale, agendo dunque allo stesso modo (e con il medesimo risultato) di un operatore umano che stabilisca le connessioni "punto a punto" fra gli elementi dell'hardware di un computer. Questa assunzione implica a sua volta l'ipotesi "preformista" per cui l'informazione contenuta nel DNA sarebbe sufficiente, fra le altre cose, a specificare esattamente numero e posizione di ciascuna delle circa 10 16 sinapsi del sistema nervoso umano. Quest'idea - sulla quale si sono basate le teorie della "chemioaffinità", ovvero le teorie che prevedono che l'"assemblaggio" del complesso pattern neurale si effettui a mezzo di un'enorme quantità di "marcatori chimici" specifici, singolarmente codificati ed espressi per ciascuna cellula (Sperry, R.W. [1963]; Purves, D. [1988]) - è incompatibile con i dati relativi alle dimensioni del genoma dei mammiferi, nei quali il numero dei geni è stimato sull'ordine dei 10 5 .
Essa risulta inoltre scarsamente compatibile con l'estesa variabilità rilevata nel numero delle cellule e, soprattutto, nei pattern delle arborizzazioni assonali e dendriti che di organismi della medesima specie, variabilità dalla quale non vanno esenti nemmeno gli individui isogenici (quali sono, nei mammiferi, i gemelli omozigoti). Sebbene le ricerche sulle differenze individuali nell'anatomia fine del sistema nervoso siano state condotte perlopiù su organismi molto semplici come la Daphnia Magna (Macagno, E.R., Lopresti, V., Levinthal, C. [1973]), le estensioni di queste ricerche ad organismi più complessi (come pesci e topi) hanno comunque confermato che queste differenze crescono con l'aumentare della complessità cerebrale (Levinthal, F., Macagno, E., Levint hal, L. [1976]; Oster-Granite, M., Gearhart, J. [1981]; Goldowitz, D., Mullen, R. [1982]). Tali dati appaiono invece perfettamente coerenti con i modelli topobiologici dello sviluppo, all'interno dei quali la produzione somatica di variazioni strutturali non si presenta come "rumore" ( noise ), "disturbo" o "errore" rispetto ad un progetto precostituito, bensé piuttosto come l'esito obbligatorio della componente epigenetica degli eventi di interazione cellulare che regolano e rendono possibile lo sviluppo dell'embrione. Tali eventi, essendo a loro volta il risultato di precedenti stati o eventi locali caratte rizzati da un ampio margine di stocasticità, sono perlopiù irreversibili (ovvero "storici") e tali da contrassegnare in modo unico ciascun cervello individuale. Per quanto riguarda il livello funzionale, pertinente alla fisiologia e alla psicologia, la "metafora del computer" ribadisce la necessaria presenza nel sistema nervoso di "programmi" (ereditati od "acquisiti") in grado di co dificare ed elaborare l'"informazione" esterna, ovvero di determinare le moda lità di risposta dell'organismo di fronte a tutte le possibili situazioni ambientali in cui esso potrà imbattersi (l'equivalente del software di cui viene dotato un computer per svolgere ogni singola e determinata prestazione). Questa assunzione si scontra con due ordini di evidenze sperimentali. Il primo riguarda le continue fluttuazioni dei confini fra le diverse "mappe" funziona li osservate nei cervelli di animali adulti, le quali si verificano in dipendenza degli input ambientali disponibili. Le evidenze maggiori di tali fluttuazioni sono quelle che provengono dalle ricerche condotte dal neurofisiologo Michael Merzenich e dai suoi collaboratori sulla corteccia sensoriale somatica delle scimmie. Queste ricerche hanno infatti stabilito che le mappe corrispondenti alle diverse aree della superficie di ricezione - come, ad esempio, le superfici glabra e dorsale e le diverse dita della mano - sottostanno ad una continua riorganizzazione funzionale (relativa, cioè , alle capacità di risposta dei neuroni dai quali esse sono costituite), la quale dipende dalle condizioni sotto cui la ricezione avviene o è perturbata. così, la recisione del nervo cutaneo, l'amputazione di alcune dita o la prolungata stimolazione di regioni locali della pelle provocano spostamenti di alcune centinaia di micrometri dei confini fra le immagini corticali delle diverse aree della superficie, e l'emergenza di rappresentazioni completamente nuove (Merzenich, M.M. et al. [1983]; Kaas, J.H. et al. [1983]; Jenkins, W.M., et al. [1984]). Bisogna tenere presente, a questo riguardo, che se i "modelli" o "rappresentazioni" interne di un computer possono essere cambiate modificando il software, le mappe funzionali del sistema nervoso sono invece, in primo luogo, mappe anato miche, e l'anatomia del cervello adulto (la sua "geometria") è un dato che viene modificato soltanto dalla progressiva morte dei neuroni (ma vedi Purves, D. [1988] per una parziale revisione di questa opinione). Quest'ultima - che, nell'ottica del cervello come macchina strutturalmente predefinita, sarebbe esclusivamente fonte di un calo nella qualità delle prestazioni del sistema, a stento compensato dal suo grado di ridondanza - non rappresenta certo una base sufficiente per dar conto dell'adattamento individuale.
Il secondo ordine di evidenze proviene invece dalle ricerche di psicologia sperimentale sui processi di categorizzazione e generalizzazione. Queste mostrano, ad esempio, come un animale sia in grado di identificare "oggetti" estranei alla sua esperienza e, eventualmente, all'"esperienza filogenetica" della specie cui appartiene - quali sono, ad esempio, i pesci per dei piccioni che sono stati allevati in cattività - a seguito di un numero piuttosto esiguo di confronti con essi, e come tale base sia sufficiente per estendere questo "riconoscimento" ad un'ampia quantità di "oggetti" simili (ma fisicamente differenti) in una grande varietà di contesti. Edelman si riferisce agli esperimenti sui piccioni condotti - nel segno di una revisione della concezione empirista delle "categorie naturali" implicita nell'epistemologia comportamentista - dagli psicologi Richard Herrnstein (al quale si deve l'idea dei pesci) e John Cerella della Harvard University. Le evidenze prodotte da queste ricerche sembrano smentire in maniera diretta tanto l'assunzione di "programmi preformati", quanto quella, genuinamente "lamarkiana", secondo cui le modalità della risposta comportamentale verrebbero dettate dagli stessi "dati" ambientali. La prima non si accorda infatti con le prestazioni rilevate nelle ricerche menzionate, e inoltre, presa come spiegazione di tutta la gamma dei comportamenti animali, o sarebbe incongruente rispetto all'accettazione della teoria darwiniana dell'evoluzione (in quanto implicherebbe la fondamentale assenza di cambiamenti o novità nell'ambiente in cui una specie si è evoluta), o comporterebbe una drastica limitazione delle capacità di adattamento alla novità . La seconda assunzione, invece, non trova riscontro nell'indipendenza dalla somiglianza fisica che caratterizza la generalizzazione, né nell'esigua quantità di esperienze sulla quale essa si basa.
Queste "crisi interpretative" vengono di fatto superate sostituendo all'impostazione "istruttivista" il concetto per cui il cervello è un sistema selettivo operante nel tempo somatico. La variazione epigenetica generata nella struttura fine del sistema dai vincoli "topobiologici" operanti nel corso del lo sviluppo costituisce infatti il punto di partenza per riqualificare la teoria avanzata nel 1978 come un'applicazione del pensiero popolazionale (il concetto fondamentale della biologia evoluzionista darwiniana) al funzionamento dei cervelli individuali, cioè al livello di quella che Ernst Mayr ha definito come "biologia funzionale". Mayr ha infatti distinto "due biologie", evoluzionista e funzionale, in base ai loro rispettivi obiettivi di indagine (le "cause ultime" per la prima, quelle "prossime" per la seconda), e alle differenze che ne conseguono sul piano dei principi e dei metodi da esse applicati. La biologia funzionale, che si muove nella tradizione della fisiologia, e sotto la cui etichetta si possono collocare le neuroscienze, ha sempre operato in base a metodi e concetti affini a quelli dalle scienze matematiche e fisiche. Essa è stata dunque caratterizzata da una "logica essenzialistica" (o platonica) che suddivide i fenomeni in classi o "tipi" statici i cui membri componenti sono considerati, per ogni fine pratico, come identici fra loro. Il concetto del carattere unico di ciascun individuo del mondo organico, nel quale le classi sono in realtà popolazioni costituite da membri che non sono mai identici fra loro e dove la variazione non è l'eccezione, ma la legge - concetto che, come si sa, ha segnato la nascita stessa della teoria darwiniana dell'evoluzione -, le è rimasto perciò fondamentalmente estraneo.
Secondo tale prospettiva popolazionale, le basi per il comportamento adattativo (attività cognitiva inclusa) sono date dalla formazione, nel corso dello sviluppo del sistema nervoso, di repertori di varianti strutturali (le popolazioni di gruppi di neuroni costitutive delle diverse "mappe" e sentieri cerebrali), la cui morfologia, e relative capacità di risposta, sono determinate da processi selettivi che si verificano in maniera ampiamente indipendente rispetto all'interazione con gli stimoli ambientali esterni. Questi repertori primari di varianti "casuali" e degeneri (capaci cioè di svolgere la stessa funzione più o meno bene) costituiscono infatti la base per il secondo processo di selezione (e di "competizione") che ha luogo nel corso dell'espe rienza nell'ambiente, e che consiste nell'amplificazione, a mezzo della modi icazione dell'efficacia sinaptica e senza cambiamenti sostanziali nell'architettura della rete nervosa, delle risposte di quei gruppi e circuiti nervosi che conducono a comportamenti in grado di soddisfare i bisogni dell'organismo. Lo sviluppo del cervello è, secondo questa prospettiva, un processo che prosegue epigeneticamente per tutta la durata della vita, nel senso che il sistema nervoso "evolve" somaticamente per far fronte in modo adattativo alla novità che si produce nell'ambiente. Tanto maggiore è la variazione che si produce e che viene amplificata nel sistema, tanto più flessibile e ricca sarà la capacità di risposta di quest'ultimo alle mutevoli "sfide" poste dall'ambiente.
E' in questo senso, dunque, che la "topobiologia" fornisce un apporto determinante alla teoria selettiva del cervello. Essa mette infatti in luce il dato fondamentale per cui le caratteristiche intrinseche della morfologia cerebrale stabiliscono le condizioni essenziali alle quali è vincolata la dimensione funzionale e comportamentale di tale morfologia. Condizioni che, secondo Edelman, sono tali da giustificare la denominazione di "darwinismo neuronale" utilizzata dallo scienziato americano per riferirsi, a partire dalla metà degli anni Ottanta (Edelman, G.M. [1985]), all'impresa di definizione dei meccanismi della selezione somatica ed alla loro applicazione alla spiegazione delle principali funzioni adattative degli organismi superiori.
Definizione della teoria della selezione dei gruppi neuronali e dei meccanismi da essa ipotizzati per dar conto delle funzioni cognitive.
La TSGN - così come viene formulata nella "trilogia" costituita da Neural Darwinism (Edelman, G.M. [1987]), Topobiology (Edelman, G.M. [1988]) e The Remembered Present (Edelman, G.M. [1989]), alla quale si è recentemente aggiunto il volume Bright Air, Brilliant Fire. On the Matter of the Mind (Edelman, G.M. [1992] - si presenta dunque come una teoria selettiva somatica . Fatte le debite differenze per quanto riguarda le rispettive scale temporali ed i meccanismi implicati in ciascun caso, le teorie della selezione somatica (cioè la teoria della selezione clonale in immunologia e la TSGN proposta da Edelman in neurobiologia) condividono con la teoria darwiniana della selezione naturale tre requisiti fondamentali. Il primo riguarda la presenza iniziale, nei sistemi considerati, di repertori di varianti, la cui fonte di variazione è causalmente indipendente dai successivi eventi di selezione ed i cui membri sono in grado di rispondere in maniera differenziata agli aspetti rilevanti dell'ambiente. Il secondo è la possibilità, per tali membri individuali, di entrare facilmente ed estesamente in contatto con tutta la grande varietà dell'ambiente (il quale cambia a sua volta per vie indipendenti), di modo sia possibile la selezione delle varianti più adeguate . Il terzo requisito, infine, è l'esistenza di uno o più meccanismi che consentano l'amplificazione differenziale e la conservazione, almeno parziale, dei contributi relativi di quei membri che sono stati favoriti nelle loro interazioni con l'ambiente.
Di per sé questi tre requisiti consentono di spiegare il verificarsi dell'adattamento evolutivo e l'insorgere di nuove caratteristiche morfologiche e funzionali senza dover ricorrere all'argomento del progetto preordinato (o creazione by design ); la loro trasposizione a livello somatico permette invece di dare conto degli adattamenti individuali evitando tanto l'ipotesi "platonica" per cui si può apprendere solo ciò di cui si possiede già il "concetto", quanto l'assunzione lamarckiana per cui l'organismo viene direttamente modificato (o "istruito") dall'esterno. La TSGN consta di tre affermazioni principali:
1) L'esistenza di una selezione nello sviluppo : durante la formazione del cervello nell'embrione ha luogo una prima selezione fra cellule nervose, e loro prolungamenti, in competizione fra di loro; ciò determina il pattern di connettività anatomica e risulta nella formazione di un repertorio primario degenere di gruppi di neuroni strutturalmente varianti, costituiti da collezioni di centinaia e/o migliaia di neuroni fortemente interconnessi fra loro le quali agiscono come unità funzionali, e corrispondono alle "minicolonne" individuate dagli studi di microregistrazione dell'attività corticale effet tuati, in primo luogo, da Vernon B. Mountcastle (Edelman, G.M., Mountcastle, V.B. [1978]). La degenerazione si distingue dalla semplice ridondanza - ovvero dal concetto, derivato dalla teoria dell'informazione, al quale aveva fatto riferimento Mountcastle a proposito delle unità colonnari - in quanto implica la presenza, fondamentale ai fini di una selezione, di elementi isofunzionali che non sono al tempo stesso isomorfici. Questo primo livello di selezione è l'esito di meccanismi "topobiologici" che regolano - in base ai contesti nei quali si vengono progressivamente a trovare le singole cellule - gli eventi della morfogenesi cerebrale, e che dipendono nel loro attuarsi dall'espressio ne e dall'attività delle molecole morforegolatrici - le CAM (molecole di ade sione cellulare) e le SAM (molecole di adesione del sostrato). Data la natura ampiamente epigenetica (e dunque relativamente stocastica) degli eventi selet tivi regolati da queste molecole, la differenziazione prodotta al termine dello sviluppo dell'embrione è tale da rendere improbabile l'esistenza di due individui con un'identica connettività neurale fine nelle loro corrispettive regioni cerebrali.
2) L'esistenza di una selezione esperienziale: un secondo processo selettivo investe, nel corso dell'esperienza postnatale dell'organismo nel suo ambiente, le preesistenti popolazioni di gruppi di neuroni (il suddetto reperto rio primario). Questo processo conduce, attraverso la modificazione differenziale dell'efficacia sinaptica delle connessioni all'interno e fra i gruppi di neuroni, e senza mutamento alcuno del pattern di connettività anatomica già stabilitosi, alla formazione di un repertorio secondario, il quale risulta costituito da quelle combinazioni interconnesse di gruppi la cui attività è correlata con il comportamento adattativo. Tali combinazioni di gruppi hanno dunque maggiori probabilità di essere nuovamente attivate, e di determinare, in questo modo, il futuro comportamento dell'organismo. Poiché le esperienze comportamentali di ciascun individuo sono uniche, questo secondo meccanismo epigenetico amplifica, a livello funzionale, le differenze individuali già determinate a livello morfologico dall'unicità dei processi dello sviluppo.
3) L'esistenza di un "mapping rientrante ": i gruppi del repertorio secondario sono perlopiù disposti in "mappe" neuronali reciprocamente e specificamente connesse fra di loro, con gli appararati sensomotori periferici e con icircuiti subcorticali che registrano le attività di regolazione interna (omeostatiche) dell'organismo. Una segnalazione "rientrante" fra queste parti del sistema - cioè uno scambio parallelo e reciproco dei rispettivi segnali di output - costituisce il mezzo per correlare le risposte fornite dalle mappe alle diverse caratteristiche e/o dimensioni degli stimoli in entrata, e per connettere tali risposte e le loro conseguenze comportamentali con la soddisfazione (o meno) dei bisogni primari. Il "rientro" assicura dunque, in primo luogo, la coerenza dell'intero sistema rispetto allo stato contingente sia di sé stesso, sia dello stimolo trattato, garantendo la continuità spazio-temporale nelle risposte del sistema all'ambiente e fornendo una misura del loro valore adattativo nei confronti dei bisogni dell'organismo. In secondo luogo, il rientro, in quanto integra i risultati non precostituiti dell'attività di parti differenti del sistema (in questo caso, delle diverse mappe e sottomappe), costituisce il principale meccanismo "costruttivo" di cui quest'ultimo è dotato. Va notato, infine, che proprio per questo motivo esso differisce dal semplice feedback, o "retroazione negativa", meccanismo che si limita ad usare l'"informazione" precedentemente elaborata ai fini del controllo e della correzione della risposta.
L'obiettivo principale della TSGN è il problema della percezione, definita come il processo mediante il quale un organismo dotato di più modalità di ricezione sensoriale arriva a discriminare "oggetti" ed "eventi" distinguendo li da uno sfondo ( background ) di stimoli che non si presenta preorganizzato in tale forma. Edelman assume infatti come valida la prospettiva offerta dalla fisica moderna, cioè "dalla teoria quantistica dei campi, dalla teoria della relatività e dalla meccanica statistica", le quali forniscono "un insieme di correlazioni formali delle proprietà della materia e dell'energia", ma non contengono "una teoria della scena fenomenica", e non implicano che, a livello macroscopico, gli "oggetti" preesistano come tali rispetto all'esperienza dell'individuo percepiente (Edelman, G.M. [1989], trad. it., p. 40 e 286).
Dal punto di vista di un organismo neonato di qualsiasi specie, argomenta dunque Edelman, il mondo si presenta come un luogo "non etichettato" ( unlabeled ), in cui "Il numero di potenziali partizioni in "oggetti" ed "eventi" (...) è enor me, se non infinito" (Edelman, G.M. [1987], p. 3). Ogni tipo di sistema nervo so, sia esso molto semplice oppure riccamente strutturato, ha dovuto evolversi in modo tale da poter generare, a livello fenotipico, un comportamento indivi duale che risulti adattativo all'interno della nicchia ecologica di ogni data specie. Un tale comportamento richiede una iniziale "categorizzazione" degli aspetti salienti dell'ambiente, sulla base della quale si svilupperanno la memoria, le capacità di apprendimento e, nel caso dell'uomo, anche le funzioni mentali più complesse. In assenza di un assetto predefinito delle "cose" e di valori assoluti ad esse corrispondenti, la categorizzazione percettiva viene effettuata in base ai fattori che sono da un lato significativi e dall'altro disponibili per i diversi organismi percepienti.
Da questo punto di vista, l'esistenza di alcune "categorie naturali", fissate in certe specie nel corso dell'evoluzione in nicchie ecologiche relativamente stabili, non rappresenta altro, secondo Edel man, che l'eccezione che conferma la regola. Proprio perché il suo valore è essenzialmente adattativo, la categorizzazione non è, inoltre, necessariamente "veritiera", nel senso che i suoi risultati possono non coincidere con le descrizioni fornite dalla fisica. Di fatto, la capacità di categorizzare implica quella di "generalizzare", cioè di trattare come equivalenti stimoli fisicamente differenti. L'esempio classico dell'indipendenza della generaliz zazione dalla prossimità degli stimoli lungo le dimensioni fisiche è fornito dal carattere "arbitrario" e brusco, rispetto al continuum delle lunghezzed'onda, delle transizioni percettive fra le diverse categorie del colore. Ciò significa, ad esempio, che gli esseri umani, come anche gli organismi di altre specie, sono portati a generalizzare fra gli estremi opposti dello spettro visibile. Come ricorda Herrnstein, "le onde lunghe del rosso cupo assomigliano percettivamente alle onde corte del violetto intenso più di quanto ciascuna di esse assomigli alle onde medie del giallo" (Herrnstein, R.J. [1982]).
A supporto di questa visione che potremmo definire "anti-oggettivistica" e "relativistica" dei processi di categorizzazione percettiva (cfr. le analoghe conclusioni raggiunte, in sede di linguistica e semantica cognitiva, da La koff, G. [1987] e Johnson, M. [1987]), Edelman cita l'ampia quantità di dati osservativi e di analisi concettuali provenienti dalle ricerche di psicologia sperimentale, i quali puntano tutti nella direzione di una revisione della definizione "classica" (cioè logica e "realista") di categoria. I risultati degli esperimenti condotti su soggetti umani - provenienti per la maggior parte dalle ricerche di Eleanor Rosch e dei suoi collaboratori, successivamente estese ed integrate, nel corso degli anni '70 e '80, dagli studi di molti altri ricercatori (vedi Lakoff, G. [1987]) - hanno mostrato infatti che l'appartenenza di qualcosa ad una "classe", anziché essere de terminata in termini di caratteristiche "singolarmente necessarie e congiunta mente sufficienti", sembra venire stabilita piuttosto in base all'uso di "prototipi", e/o di scelte probabilistiche fra possibili raggruppamenti di tratti disgiuntivi che ricordano le wittgensteiniane "rassomiglianze di fami glia" (cfr. Smith, E.E., Medin, D.L. [1981]).
A riprova dello scarso ruolo svolto a livello percettivo da una presunta organizzazione logica a priori del pensiero e della realtà, nonché della con tinuità di darwiniana memoria fra i processi mentali delle diverse specie, Edelman cita i risultati delle ricerche condotte su soggetti privi o non ancora dotati delle capacità linguistiche e razionali esibite dagli umani adulti, e cioè degli esperimenti effettuati con animali e con neonati della nostra specie. Gli esperimenti di condizionamento operante condotti da Cerella e Herrnstein sui piccioni hanno dimostrato infatti, come si è già accennato, che questi animali sono in grado di identificare un amplissimo numero di diffe renti membri di una "classe" (per esempio, le foglie di tutti i generi di quercia), e di distinguerli da membri, fisicamente molto simili, appartenenti ad altre "classi" (le foglie di altri generi di albero), sulla base di pochis simi incontri "ricompensati" con un solo tipo di esempi (le foglie di Quercus alba ). Questi esperimenti, inoltre, hanno dato il medesimo risultato allorché ripetuti utilizzando, al posto delle foglie, immagini di figure femminili, di acqua e anche di pesci, ovvero di "oggetti" estranei tanto all'esperienza individuale dei piccioni (allevati in capannoni chiusi da ricercatori di sesso maschile), quanto, con tutta probabilità, all'esperienza evolutiva della loro specie.
Per quanto riguarda i processi di categorizzazione nei piccoli umani, una serie di esperimenti condotti da Elizabeth Spelke e dai suoi collaboratori ha suggerito che i bambini di quattro mesi non identifichino gli "oggetti" in base alle caratteristiche della forma né, in questo caso, all'uniformità visi va della sostanza, quanto piuttosto utilizzando il criterio (indipendente rispetto alle suddette variabili) del movimento relativo: essi tratterebbero dunque come un unico "oggetto" tutto ciò che appare muoversi insieme (Kellman, P.J., Spelke E. [1983]). Un'analoga capacità di segmentare adattativamente il continuum fisico è stata dimostrata, relativamente alla modalità uditiva, nei neonati di quattro giorni, i quali appaiono in grado di categorizzare aspetti essenziali del parlato quali, ad esempio, le differenze fra i fonemi della lingua cui sono esposti (Eimas, P.D., Miller, J.L., Jusczyk, P.W. [1987]). Poiché risultati simili, se non identici, sono stati ottenuti anche con deicincillà opportunamente addestrati su campioni del parlato inglese (Kuhl, P.K., Miller, J.D. [1975]), e poiché la categorizzazione viene effettuata, dai neonati, anche a partire da stimoli acustici di tipo non linguistico (Jusczyk, P.W., Pisoni, D.B., Reed, M.A., Fernald, A., Myers, M. [1983]), questi dati, sottolinea Edelman, depongono a favore dell'ipotesi che funzioni di ordine superiore come il linguaggio umano si sviluppino sulla base di - e grazie a - capacità di categorizzazione percettiva che le precedono nell'ontogenesi e che sono condivise da altre specie animali. Tali dati invece, secondo Edelman, non implicherebbero, nonostante l'opposto parere di alcuni dei ricercatori che li hanno originariamente prodotti, l'esistenza di meccanismi cerebrali "speciali" per l'elaborazione dell'"informazione" linguistica, sottostanti all'attivazio ne di quelli che Eimas, P.D. et al. [1987] definiscono "prototipi innati".
Assumendo tale stato delle cose, il problema neurobiologico fondamentale diviene quello di individuare quali caratteristiche del sistema nervoso, ovve ro quali proprietà dell'organizzazione strutturale e funzionale delle reti di neuroni e delle loro sinapsi, permettono all'organismo di effettuare la cate gorizzazione e la generalizzazione adattative, e di sviluppare, su tale base, la costruzione di funzioni cognitive di ordine superiore quali la memoria, l'apprendimento e la coscienza (quest'ultima oggetto della cosiddetta "TSGN estesa").
Il programma di ricerca di Edelman consiste quindi nella dimostra zione del fatto che le tre affermazioni fondamentali della TSGN costituiscano una risposta adeguata alla soluzione di questi problemi. La realizzazione di tale programma include la messa a punto di una serie di modelli computazionali delle ipotesi in cui si articola la teoria e, in particolare, degli "automi" della cosiddetta "serie Darwin" (il cui ultimo rappresentante è "Darwin IV"). A differenza di quanto avviene negli approcci tradizionali dell'intelligenza artificiale, ed in analogia con quelli che sono gli orientamenti dichiarati dei recenti approcci connessionistici (cfr. Parisi, D. [1989]), sono solo i principi di funzionamento del cervello previsti dalla teoria a venire simulati in questi modelli, e non è contemplata alcuna corrispondenza fra l'organizzazione funzionale dello strumento usato e quella del cervello.
Categorizzazione percettiva. La ricezione degli stimoli ambientali (un processo di per sé già altamente selettivo, dato l'alto grado di specificità dei recettori sensoriali) genera una prima "rappresentazione" nelle cosiddette aree riceventi primarie (visiva, uditiva, etc.): le proprietà multidimensionali dello stimolo vengono "mappate" sulla superficie bidimensionale della corteccia. Con ciò stesso, alcune pro prietà fisiche dell'ambiente sono tradotte in proprietà neuronali di determi nate regioni del cervello. Sebbene ogni singola mappa funzionale così costi tuita conservi le relazioni di continuità dell'"oggetto-stimolo", non è neces sario che essa sia isomorfica all'intera collezione delle caratteristiche - rilevabili dal punto di vista fisico - di quest'ultimo. Poiché più regioni del sistema nervoso, e della corteccia in particolare, sono impegnate nella rispo sta alle varie caratteristiche e/o dimensioni dello stimolo ed in ulteriori processi di elaborazione (che avvengono nelle cosidette aree secondarie), è necessario che il sistema mantenga un punto di riferimento alle proprietà di continuità dello stimolo, e che sia inoltre in grado di correlare dal punto di vista spazio-temporale i processi che hanno luogo nelle diverse regioni.
La TSGN assume "che ogni categorizzazione non banale debba sorgere attraverso l'operazione di almeno due canali separati che portino segnali alle mappe... Ogni canale (per esempio una modalità o submodalità sensoriale) preleva cam pioni in modo indipendente in un particolare ambito di stimoli." (Edelman, G.M. [1989], trad. it., p. 72). L'organizzazione neuronale minima in grado di effettuare la categorizzazione percettiva è dunque, secondo la TSGN, la "coppia di classificazione", costituita da almeno due mappe i cui repertori di gruppi neuronali sono collegati in modo reciproco da connessioni rientranti. Nell'esempio favorito di Edelman - che, fra l'altro, si trova incorporato negli automi "Darwin" -, si tratta di una mappa del sistema visivo che riceve il suo input da neuroni che agiscono come rivelatori di caratteri individuali (ad esempio, angoli diversamente orientati) e di una mappa sensoriale sulla quale proiettano neuroni che rispondono a lievi stimoli tattili, e che funzionano come correlatori di caratteri (ad esempio, rilevando il contorno di un oggetto mediante il movimento di un dito). Incontri ripetuti con uno stimolo condurranno alla selezione, entro ciascuna mappa, di particolari configurazio ni di gruppi di neuroni: le connessioni entro e fra i gruppi che si troveranno a rispondere meglio a quel particolare stimolo saranno rafforzate, ottenendo un alto grado di attivazione ed acquistando così maggiori probabilità di esse re riattivate in successivi incontri.
Nelle simulazioni di Edelman, le regole di amplificazione sinaptica sono variazioni della cosiddetta "regola di Hebb" (Hebb, D.O. [1949]), le quali tengono conto sia della crescita che della dimi nuzione dell'efficacia sinaptica, nonché di alcune caratteristiche "non heb biane" derivanti dal modello popolazionale e di cui si è trovata evidenza nei neuroni di alcuni sistemi nervosi animali: ad esempio, l'influenza di input eterosinaptici sul potenziale postsinaptico prodotto in una data sinapsi dagli input successivi (cambiamenti a breve termine), ed una modificazione dell'ef ficacia presinaptica, relativa al cambiamento nella quantità di neurotrasmettitori rilasciati da un certo neurone a tutte le sue sinapsi (cambiamenti a lungo termine che riguardano l'intero neurone) (Finkel, L.F., Edelman, G.M. [1985]). Poiché i repertori neuronali delle due mappe sono connessi in modo rientrante, l'attivazione simultanea di gruppi di neuroni in ciascuna di esse in presenza di uno stesso oggetto-stimolo ha l'effetto: 1) di correlare lerisposte date a ogni campione disgiunto dai diversi canali (integrazione), e 2) di rafforzare le connessioni fra le configurazioni selezionate, in modo che particolari configurazioni nella mappa 1 risulteranno associate a particolari configurazioni nella mappa 2.
Queste associazioni costituiscono la base della generalizzazione, la quale può verificarsi, in presenza di un oggetto mai incontrato prima dall'organismo percepiente, "attraverso risposte a combinazioni di caratteri locali o a correlazioni di caratteri risultanti dagli effetti di precedenti campionature disgiuntive provenienti da oggetti simili" (Edelman, G.M. [1989], trad. it., p. 73). Ciò si accorderebbe con il carattere prototipico e/o probabilistico della categorizzazione quale è stato rilevato dagli psicologi (Smith, E.E., Medin, D.L. [1981]), e spiegherebbe la rapidità e la precisione delle generalizzazioni riscontrate, ad esempio, dagli psicolo gi del comportamento animale (Cerella, J. [1979]; Herrnstein, R.J., De Villiers, P.A. [1980]; Staddon, J.E.R. [1983]). Le mappe rientranti di una coppia di classificazione possono essere a loro volta connesse in modo rientrante con reti di ordine superiore, preposte ad un'ulteriore elaborazione dello stimolo o all'integrazione con le operazioni di ulteriori regioni del sistema nervoso: ad esempio, l'integrazione di risposte visive e tattili con risposte cineste siche al fine di determinare un'azione motoria; per non parlare delle connes sioni con le regioni subcorticali responsabili e dell'"ordinamento" temporale delle risposte, e dei "valori" di categorie e di azioni (vedi più oltre nel testo).
Di fatto, Edelman ricorda che "la coppia di classificazione è un caso limite" (meglio dire: un esempio schematico), e che il sistema nervoso andreb be visto come costituito da " n-uple di classificazione". Il rientro con le mappe delle aree primarie assicura la coerenza e la continuità delle risposte dell'intero sistema rispetto allo stimolo contingente. Memoria ed ordinamento temporale. Secondo la TSGN, quindi, la categorizzazione percettiva per opera della selezione di gruppi neuronali si verifica grazie ad una molteplicità di inte razioni fra mappe locali che è la conseguenza dall'attività sensomotoria dell'organismo nel suo ambiente. La base fisiologica completa necessaria per la categorizzazione include, dunque, quello che Edelman definisce " mapping globale ": un sistema distribuito di interazioni dinamiche via rientro fra cam pionatura sensoriale, mappe locali delle aree riceventi primarie, mappe delle aree secondarie, mappe delle aree motorie, aree subcorticali non dotate di mappe, azione effettiva nell'ambiente e relative alterazioni della campionatu ra sensoriale col movimento (Edelman, G.M. [1989], trad. it., p. 79).
Gli eventi neurali "selettivi e correlativi" sottostanti a tale " mapping globale" costituiscono, per Edelman, una memoria procedurale, che è la diretta conseguenza dei mutamenti a lungo termine nell'efficacia delle sinapsi più frequentemente attivate. Tale memoria va intesa come una costante attività di ri-categorizzazione delle risposte agli stimoli prodotte dai circuiti rientranti del cervello, attività dovuta alla presenza attuale di stimoli che, per l'organismo, risultano in qualche modo analoghi a quelli precedentemente incontrati. In questo senso, non esistono "magazzini" o "centri" della memoria, conce piti come archivi di attributi fissi che devono essere richiamati mediante apposite e distinte operazioni, ma i ricordi vengono ricreati e trasformati dall'apporto della situazione attuale ogni volta che un gruppo di stimoli correnti riattiva circuiti di risposta già selezionati, in quanto rispondenti ai bisogni adattativi dell'organismo.
Ciò non significa che la TSGN implichi un vero e proprio "olismo", nel senso dell'"equipotenzialità " delle parti di ciascuna area funzionale ai fini del mantenimento e dell'attivazione di una traccia mnestica (Lashley, K. [1950]). Ciascuna configurazione di gruppi e di connessioni neurali corrispondente ad una risposta categoriale coinvolge pur sempre un numero limitato - benché distribuito - di sentieri cerebrali (cfr. le analoghe conclusioni sulla rappresentazione di singoli eventi in Squire, L.R., Oliverio, A. [1991]). Tut tavia, la natura intrinsecamente degenere delle reti di neuroni, il numero crescente delle associazioni che si stabiliscono nel corso dell'esperienza e la forte dipendenza di questo tipo di memoria dal contesto fanno sé che il richiamo di una particolare risposta categoriale possa non avvenire nella medesima forma in cui tale risposta è occorsa in precedenza. "Il richiamo, sotto l'influenza di contesti continuamente mutevoli, modifica la struttura e la dinamica delle popolazioni neurali che furono implicate nella categorizza zione originaria... Un tale richiamo può dare origine ad una risposta simile ad una risposta data in precedenza (un "ricordo"), ma in generale la risposta è modificata o arricchita dai mutamenti in corso." (Edelman, G.M. [1989], trad. it., p. 138-9).
Questo è il motivo per cui la ricategorizzazione è definita "trasformativa", piuttosto che "replicativa". La memoria intesa come riattivazione di precedenti risposte categoriali, ovvero come facoltà procedurale, implica comunque, secondo la TSGN, la presenza di componenti nel sistema che siano in grado di "mediare gli ordinamenti successivi di movimenti o di ricordi di eventi, vuoi in sequenze a breve ter mine, vuoi in modelli a lungo termine." (Edelman, G.M. [1989], trad. it., p. 141). Data la natura altamente parallela del funzionamento e della struttura corticali, Edelman ritiene molto improbabile che una tale connessione sequen ziale possa formarsi immediatamente a livello delle mappe locali impegnate nel " mapping globale". "Quella che sembra richiedersi è una struttura neurale [subcorticale] collegata in modo sequenziale ai vari componenti corticali... Se, una volta occorsa una categorizzazione percettiva iniziale attivata da oggetti ed eventi nel mondo reale, l'operazione di varie coppie di classificazione potesse essere connessa in un ordine sequenziale e se la loro connessio ne potesse essere mantenuta per un certo tempo dal mutamento sinaptico, diven terebbe realizzabile una forma di memoria categoriale a breve termine." (Edelman, G.M. [1989], trad. it., p. 143).
Sulla base delle indicazioni fornite dagli studi sui fenomeni di memorizzazione e apprendimento condotti in vari ambiti neuroscientifici negli ultimi quarant'anni (vedi Churchland, P.S., Sejnowsky, T.J. [1992], pp. 243-305), Edelman suggerisce che tale funzione possa essere svolta dall'ippocampo, struttura mesencefalica del lobo temporale la cui architettura regolare e altamente ripetitiva, ampiamente connessa con le aree corticali e con il sistema limbico, potrebbe farne un centro di scan sione in tempo reale degli eventi di categorizzazione percettiva, svolgendo un ruolo simile a quello del cervelletto nella modulazione degli eventi motori. Il vantaggio di una memoria a breve termine così definita sarebbe dunque quel lo di evitare che le categorizzazioni si susseguano in modo scoordinato in tempi molto brevi, e di consentire "una ricca ricategorizzazione, al variare dei segnali e al trascorrere di tempi di durata maggiore di quella del decadere di attività neuronali immediate" (Edelman, G.M. [1989], trad. it., p. 144).
La memoria a lungo termine, invece, deve dipendere, secondo Edelman, da un meccanismo diverso, che non vincoli il richiamo ad alcuna successione obbligatoria nel collegamento delle risposte neuronali. L'ipotesi di Edelman è che "in conseguenza di una quantità sufficiente di attività rientrante dall'ippo campo alla corteccia cerebrale, nella corteccia si verifichino mutamenti sinaptici secondari che mettono in relazione fra loro alcuni degli stessi gruppi neuronali che erano implicati in una data memoria a breve termine." (ibid.). Tali mutamenti "non connetterebbero in modo sequenziale l'attività di tali gruppi" (ibid.), limitandosi a correlare quest'ultima a caratteristiche del complesso di eventi che promosse l'attività originaria. Oltre all'ippocampo, Edelman identifica come "organi della successione" anche il su menzionato cervelletto ed i cosiddetti gangli basali (un insieme di nuclei subcorticali connessi Page 14 con la corteccia, con regioni appartenenti ai "sistemi edonici" e con regioni implicate nel controllo dello stato di attiva zione; comprende il nucleo caudato, il putamen e la substantia nigra ). Il cervelletto contribuirebbe, assieme alla corteccia motoria, alla classifica zione delle cosidette "sinergie", ovvero classi di schemi di movimento, le quali richiedono il coordinamento temporale, regolare ed anticipativo, di più componenti sensomotori. I gangli basali, come suggeriscono le loro connessioni con le aree motorie, premotorie e prefrontali, potrebbero essere implicati nella pianificazione di successioni di programmi motori. Come si è detto, sia l'ippocampo che i gangli basali appaiono collegati a centri che mediano "valo ri" adattivi interni e stati edonici (quali il sistema limbico e il complesso dell'amigdala), il che rende probabile che le loro funzioni siano influenzate da "stati motivazionali".
Apprendimento. I collegamenti rientranti (diretti e/o mediati dagli "organi della succes sione") fra le aree della corteccia impegnate nelle attività di categorizza zione e le porzioni subcorticali del cervello che controllano i comportamenti volti al soddisfacimento di bisogni primari (quali la ricerca del cibo, l'ac coppiamento e la difesa) sono fondamentali, nell'ambito della TSGN, per la spiegazione dell'apprendimento. Quest'ultimo viene infatti definito come una forma di cambiamento acquisito, che collega il comportamento presente con quello passato in modo tale che le conseguenze positive o negative degli even ti abbiano un significato adattativo. Rifacendosi all'analisi effettuata dallo psicologo J.E.R. Staddon (Staddon, J.E.R. [1983]), Edelman osserva come tanto il condizionamento classico, di tipo pavloviano, quanto l'apprendimento vero eproprio (i.e. non forzato), siano relativi ad un contesto, che è costituito dallo stato interno dell'animale al momento dell'apparizione di certi oggetti od eventi nel mondo. L'animale agisce "come se" portasse avanti un'inferenza, o predizione, sulla base di un insieme di "rappresentazioni" interne, le quali hanno un valore di aspettativa (la connessione, entro il " mapping globale", fra i risultati delle attività categoriali ed i "valori" inscritti nelle re gioni sopraelencate).
L'apprendimento vero e proprio ha luogo solo in presenza di un elemento di novità, sorpresa o violazione delle aspettative, il quale comporta una discrepanza tra l'ordinamento spazio-temporale degli oggetti ed eventi reali e lo stato interno corrente ("valore" incluso) dell'animale. Ciò porta ad una modificazione, attraverso l'alterazione sinaptica, delle connes sioni fra le diverse regioni coinvolte nel " mapping globale" ed i sistemi subcorticali di valori fissati evolutivamente. Ciò significa che nuove rispo ste categoriali e, in generale, comportamentali possono venire connesse alla soddisfazione di determinati bisogni adattativi. Sebbene i valori siano principalmente "autodeterminati" (cioè "dati da vincoli evoluzionistici ed etologici connessi al fenotipo"), Edelman ritiene tuttavia che alcuni fra gli elementi neurali e le sinapsi che determinano tali vincoli possano essere modificabili, e che dunque anche il valore possa venire alterato in qualche misura dall'esperienza (cfr. Edelman, G.M. [1989], trad. it., p.190).
Bisogna notare, per concludere, che sebbene la capacità di effettuare la categorizzazione percettiva costituisca, nel modello di Edelman, un prerequisito necessario perché si verifichi l'apprendimento (i.e. la base neurale per effettuare la categorizzazione deve essere presente perché possa verificarsi apprendimento), è quest'ultimo in realtà a rendere la categorizzazione una funzione che per mette all'animale di adattarsi al proprio ambiente. E` proprio l'inclusione dei "valori" nell'attività categoriale a far sé che tale attività possa (e,nel caso degli organismi complessi, debba) evolvere nel corso dell'esperienza. Coscienza.
Sulla base dei concetti fin qui introdotti, Edelman ha sviluppato l'ipotesi - presentata nel 1989 come TSGN "estesa", ma già abbozzata nel 1978 - secondo cui la consapevolezza delle proprie percezioni ed azioni, e, in ultimo, del proprio stesso stato di coscienza, dipende da un processo di comparazione fra la "storia" delle passate categorizzazioni adattative (inscritta nelle rispo ste delle reti di neuroni) e la categorizzazione degli stimoli in ingresso, i quali diventano significativi e "presenti" per l'organismo solo dopo il loro essersi inseriti, modificandolo, nel sistema di riferimento e di attribuzione di significati costituito dalla memoria individuale. La coscienza viene identificata con il risultato dell'interazione fra le operazioni di due tipi di organizzazione nervosa. La prima, chiamata da Edel man "sistema del sé" o dei "valori" biologicamente intesi, è la più antica dal punto di vista evolutivo, ed è costituita dall'insieme Page 15 dei circuiti sub corticali (tronco encefalico e strutture limbiche) che in qualche modo catego rizzano gli "stati interni" (input interocettivo) relativi alla soddisfazione dei bisogni primari. La seconda coincide con l'attività di quella parte del cervello, detta talamo-corticale, impegnata principalmente nella categorizza zione degli stimoli provenienti dall'ambiente (propriocezione inclusa), e che Edelman chiama "sistema del non-sé". Quest'ultimo, evolutivamente più recente, risulta progressivamente più sviluppato nelle specie superiori. Dalla comunicazione rientrante fra questi due sistemi avrebbe origine una forma particolare di memoria corticale, dotata della funzione di riflettere lo stato corrente del rapporto generale fra le categorie prodotte ed il loro successo adattati vo, ovvero di ricategorizzare continuamente gli "accoppiamenti" fra risposte comportamentali e soddisfazione dei bisogni. La base neurale di tale memoriacategoria-valore potrebbe essere data, secondo Edelman, da un sentiero che coinvolge da un lato una o più strutture subcorticali quali l'ippocampo, il setto o il giro del cingolo (tutti possibili candidati per l'"accoppiamento" fra i due sistemi categorici), dall'altro una o probabilmente più aree della corteccia (temporale, parietale e soprattutto, come Edelman sottolinea, fron tale e prefrontale), nelle quali potrebbe avvenire la ricategorizzazione di questi "accoppiamenti".
E` sempre il rientro, data l'esistenza e il funzionamento di tutte le strutture neuronali menzionate, a costituire l'elemento sufficiente perché si dia, mediante la segnalazione reciproca fra questo sistema di memoria catego ria-valore e le aree corticali impegnate nella categorizzazione percettiva, e prima che tale categorizzazione corrente modifichi la memoria stessa, quel fenomeno di "consapevolezza percettiva", o di "presente ricordato", che per Edelman è la "coscienza primaria" . Questa consisterebbe dunque in un primo livello di consapevolezza, la cui funzione adattativa sarebbe quella di per mettere all'animale di assegnare alla molteplicità di stimolazioni simultanee alle quali è continuamente sottoposto un'importanza relativa alle sue esigenze di sopravvivenza. "Fenomenicamente, questa funzione apparirebbe come... un'"immagine mentale". Nel cervello non ci sono, ovviamente, alcuna immagine o abbozzo reali (quand'anche ci limitassimo a considerare il solo input visivo)." (Edelman, G.M. [1989], trad. it., pp. 190-1). L'immagine cosciente è creata dall'interazione rientrante tra il suddetto sistema di memoria e le categorizzazioni percettive in corso, alle quali le precedenti categorizzazio ni di sé e non-sé vengono continuamente riferite. Per quanto riguarda la "coscienza di ordine superiore" - la "consapevolezza diretta" dei propri stati mentali -, questa implica il possesso di un model lo temporale del "sé" e del mondo il cui sviluppo è legato a quello del linguaggio simbolico (i.e. umano), o, almeno, a quello di una capacità di catego rizzazione e concatenazione concettuale quale sembrano mostrare anche i prima ti non umani.
Gli elementi strutturali sufficienti allo sviluppo di questo tipo di consapevolezza secondaria sarebbero dati dall'ampliamento evolutivo delle aree frontali, parietali e temporali utilizzate dal sistema di memoria, e dalla comparsa nella filogenesi umana di aree specializzate per l'uso del linguaggio, i meccanismo di funzionamento delle quali, tuttavia, non differi rebbero da quelli vigenti nelle altre regioni cerebrali. Ancora una volta sarebbero le "connessioni rientranti" fra queste strutture nervose, evolutiva mente più recenti, a permettere l'infinita varietà di concettualizzazioni e simbolizzazioni linguistiche che caratterizza il pensiero umano. Concetti, o ricategorizzazione concettuale Edelman condivide con larga parte degli psicologi del comportamento animale e delle età evolutive l'idea che i concetti non siano necessariamente legati all'uso del linguaggio, nel senso che ci sono buone ragioni per ritenere che anche animali privi di capacità linguistiche paragonabili a quelle umane (come, ad esempio, gli scimpanzé) sviluppino concetti, e che i concetti si formino (tanto sul piano dell'evoluzione, quanto su quello dello sviluppo individuale) prima del linguaggio (Weiskrantz, L. (ed.) [1988]).
Essi vanno intesi dunque in senso: a) funzionalmente indipendente e separato dal linguag gio, e b) prelinguistico, quali generalissime "categorie ontologiche", che si basano, ad un livello fondamentale, su schemi astratti costruiti in modo in termodale a partire dalle posizioni assunte dal corpo nella sua interazione con l'ambiente esterno (i cosiddetti "schemi d'immagine", o image schemata ): "oggetto", "movimento", "barriera", "contenitore", etc. (Edelman, G.M. [1989], trad. it., p. 174; cfr. Johnson M., 1987). I concetti "prendono l'avvio dai materiali forniti dall'apparato percettivo" (ibid.) e dipendono, nella loroformazione, dalle modalità specifiche del Page 16 funzionamento cerebrale (dal punto di vista della TSGN, dalla capacità di categorizzare e ricategorizzare). In questo senso, "non sono convenzionali o arbitrari" (essendo anch'essi basati su "valori"), né "sono legati a una comunità linguistica" (ibid.).
Per quanto riguarda il loro ordinamento sequenziale, Edelman propone il termine "presintassi": una forma di memoria (che potrebbe essere intesa nel senso di vincolo sulla ricategorizzazione) nella quale, ad esempio, "la risposta al concetto di un oggetto deve sempre precedere (o seguire) la risposta a un concetto di un' azione " (Edelman, G.M. [1989], trad. it., p. 182). La formazione e l'ordi namento dei concetti così intesi implicherebbero dunque: 1) la categorizzazio ne di attività cerebrali (" mapping globali") da parte del cervello stesso (ricategorizzazione concettuale); 2) la connessione rientrante fra aree tempo rali, parietali e frontali a loro volta connesse con gli "organi della succes sione" (cervelletto, ippocampo e gangli della base), come nel caso della memoria categoria-valore. Linguaggio Edelman ritiene che tanto l'evoluzione, quanto l'acquisizione del linguag gio - inteso come funzione adattativa - dipendano dalla precedente evoluzione (o sviluppo) di aree cerebrali per i concetti. Egli abbozza quindi le linee generali di una teoria "epigenetica" del linguaggio che si definisce per con trasto con la "linguistica cartesiana", ovvero con la grammatica universale di Noam Chomsky "incorporata sotto forma di un insieme di regole in un modulo cerebrale il cui funzionamente è geneticamente determinato" (Edelman, G.M. [1989], trad. it., p. 212).
La proposta di tale teoria poggia su quattro pre messe interconnesse: 1) una base necessaria ma non sufficiente per la semanti ca esiste già nelle aree del cervello che hanno attinenza con la formazione di concetti (lobi frontale, parietale e temporale); 2) le aree di Broca e diWernicke - che sono adattamenti evolutivi unici al linguaggio, conseguenti all'assunzione della stazione eretta e ai relativi cambiamenti nella base del cranio, che a loro volta permisero la modificazione del tratto sopralaringeo e delle corde vocali e, dunque, lo sviluppo di associate regioni corticali - non sono di per sé sufficienti alla realizzazione di un linguaggio significante; inoltre, la base per i meccanismi fonologici e sintattici si trova già nell'apparato corticale preesistente allo sviluppo evolutivo di tali aree, connesso alla categorizzazione di " mapping globali" e alla presintassi; 3) tali aree sono legate all'emergere di una fonologia sufficiente perché parole e frasi diventino "simboli" per concetti, rendendo possibile lo sviluppo di una sintassi vera e propria; 4) dato in un individuo un lessico sufficiente mente sviluppato, l'apparato concettuale può trattare ricorsivamente e classi ficare le varie produzioni del linguaggio (morfemi, parole, frasi) come "enti tà " da categorizzare e ricombinare senza alcuna necessità di un ulteriore riferimento alle loro origini iniziali o alle loro basi nella percezione, nell'apprendimento o nella trasmissione sociale. Edelman ritiene che tale abbozzo di teoria condivida alcuni assunti di fondo con la grammatica funzionale lessicale formulata da Joan Bresnan (Bre snan, J. (ed.) [1982]) e con l'idea di un bootstrapping semantico sviluppata, fra gli altri, da Steven Pinker (ibid., pp. 655- 726).
Tale idea potrebbe spie gare sequenze sintattiche in modo generativo, senza dover assumere un gran numero di regole preesistenti . Edelman ritiene che l'assunto di un modulo cerebrale specifico con "regole" innate contenenti costrizioni geneticamente imposte sul linguaggio appaia altamente improbabile, perché: 1) il modulo do vrebbe specificare regole di trasformazione estese e complicate; e 2) tale insieme di regole dovrebbe essere rappresentato in modo ordinato e completo in regioni cerebrali che sono già capaci di condurre alla formazione di concetti.L'idea delle regole innate andrebbe sostituita con quella di costrizioni o vincoli innati, i quali consentirebbero di spiegare in termini selezionistici l'emergenza epigenetica di regole appropriate. "In assenza di tali costrizio ni, nessun sistema epigenetico potrebbe funzionare" (Edelman, G.M. [1989], trad. it., p. 225). Va notata la parziale convergenza fra questa proposta di Edelman e le conclusioni raggiunte in ambito neurolinguistico da Antonio Damasio e Hanna Damasio (Damasio, A.R., Damasio H. [1992]), secondo i quali il linguaggio sembrerebbe richiedere la cooperazione di tre sistemi neurali: un primo sistema che categorizza preesistenti rappresentazioni o concetti prelinguistici, un secondo che rappresenta i fonemi, le combinazioni fonemiche e le regole sintattiche per la combinazione delle parole e la costruzione delle frasi, ed un terzo che svolge una funzione di mediazione fra i primi due, collegando la produzione di concetti a quella di parole o frasi e viceversa; tale mediazione sembrerebbe avvenire nelle regioni temporali e frontali sinistre. Page 17 Appendice: selezione versus "elezione" (confronto con il modello selettivo proposto da Jean-Pierre Changeux).
Con l'espressione "selezione nello sviluppo", Edelman si riferisce all'in sieme dinamico degli eventi morfogenetici regolati dalle molecole di adesione, e, in particolare, al movimento delle cellule, alla "competizione" fra i loro processi assonali e dendritici in fase di estensione, e alla morte delle cel lule che non riescono a stabilire o a mantenere le appropriate connessioni con le aree "bersaglio". Fenomeni il cui effetto complessivo è quello di selezio nare certe connessioni (e dunque certe configurazioni strutturali) a scapito di altre, e che dipendono tutti, secondo la "topobiologia", da condizioni e segnali locali interni all'ambiente dello sviluppo. Il "primo livello di sele zione" postulato dalla teoria edelmaniana del cervello differisce dunque dalmeccanismo di "stabilizzazione selettiva delle sinapsi" proposto dal neurobiologo Jean- Pierre Changeux per dar conto del ruolo dell'epigenesi nel passaggio dalla "semplicità" del genoma alla complessità e alla variabilità cerebrali (Changeux, J.-P., Courrege, P., Danchin, A. [1973]; Changeux, J.-P. [1983]).
Secondo l'ipotesi del neurobiologo francese, la messa a punto finale della rete nervosa dell'adulto risulterebbe infatti da un processo di eliminazione selettiva delle sinapsi in soprannumero che si formano a seguito dell'ultima divisione dei neuroni (uno stadio interpretato in termini di "ridondanza transitoria", anziché di degenerazione). Questo processo sarebbe guidato in maniera "retrograda" (cioè dai segnali di ritorno della cellula postsinaptica) dapprima dall'attività spontanea della rete in fase di sviluppo, ma poi, in proporzioni determinanti, dall'attività nervosa evocata dall'interazione del neonato col suo ambiente. L'esperienza, dunque, "seleziona [a livello struttu rale] combinazioni di connessioni che la precedono, senza che sia richiesta alcuna sintesi indotta di molecole o di strutture nuove" (Changeux, J.-P. [1983], trad. it., p. 267). Questa ipotesi condiziona in senso nettamente empirista (per cui gli oggetti esterni si "imprimono" lockeanamente sui "sensi") l'approccio selezionista e materialista di Changeux alla "biologia dello spirito" (Changeux, J.-P. [1983], trad. it., p. 159 e p. 8), distinguendolo in modo essenziale dalla teoria edelmaniana del funzionamento cerebrale, con la quale esso condivide peraltro alcuni assunti di fondo. Secondo Changeux, in fatti, la stabilizzazione selettiva delle sinapsi - ovvero l'effetto selettivo dell'interazione con l'ambiente sull'architettura cerebrale - svolgerebbe un ruolo determinante nel passaggio dal "percetto primario" (inteso come risposta dei neuroni delle aree primarie e secondarie al presentarsi di un oggetto esterno) all'"immagine mentale", cioè al costituirsi di un "oggetto di memoria", il quale precorre a sua volta la formazione del "concetto", o categoria.In questo modo, le categorie di base (o "prototipi") verrebbero in un certo senso "scolpite" nella struttura della rete neuronale a seguito dell'esperien za, la quale "sfronderebbe" (ovvero semplificherebbe riducendo la loro compo nente sensoriale) i percetti primari ottenuti "in presa diretta" con gli og getti. In questo quadro, la modificazione dell'efficacia delle sinapsi, l'en trata in relazione di distinte "assemblee neuronali" ed il loro "confronto" mediante "rientri" - cioè i processi che, nella teoria edelmaniana, interven gono fin dal livello della formazione delle categorie percettive - svolgono un ruolo determinante soltanto al livello dell'"assemblaggio" o "concatenamento" di "oggetti mentali" già costituiti, dando luogo per via "combinatoria" ed associativa alla costruzione di concetti nuovi ed astratti, al pensiero e alla coscienza (Changeux, J.-P. [1983], trad. it., pp. 155-160, 164-166 e 186-187).
Le categorie di base prodotte dal meccanismo della stabilizzazione se lettiva delle sinapsi vengono dunque a costituire una sistema di riferimento per l'azione che sembrerebbe caratterizzato da un limite nelle capacità di identificazione di oggetti ed eventi e nella loro flessibilità , ed al quale mancano i mezzi necessari per produrre risposte adeguate a situazioni ambientali che si presentino come novità assolute: una base sufficientemente ampia di variazioni ancora disponibili ed un meccanismo di amplificazione differenziale che, agendo fin dai primi livelli della "costruzione" di categorie, consenta la formazione di configurazioni nuove a partire dalle variazioni via via selezionate. Dal punto di vista del concetto di selezione somatica, il modello proposto da Changeux appare dunque incompleto, basato sui due soli requisiti della produzione di varianti (peraltro concepite come transitorie) e della selezione (concepita come rimozione delle varianti inadeguate) (Chan geux, J.-P. [1989]).
Riprendendo una distinzione introdotta dal genetista Joshua Lederberg aproposito delle teorie immunologiche, e già utilizzata nel medesimo ambito da Gilberto Corbellini (Corbellini, G. [1990], pp. 25 e 168-169), si potrebbe concludere che la teoria di Changeux sul primo livello Page 18 di formazione degli "oggetti mentali" - riassunta nella frase "apprendere è eliminare" (Changeux, J.-P. [1983], trad. it., p. 287) - non è tanto una teoria selettiva, quanto una teoria "elettiva". Le teorie elettive, infatti, prevedono che la risposta del sistema venga attivata da uno stimolo esterno, il quale non introduce (come sarebbe per una teoria istruttiva) gli elementi necessari per tale risposta, ma effettua una "scelta generalizzata" nei confronti degli elementi ad esso preesistenti (cioè , nel caso del cervello, le reti di neuroni). A differenza delle teorie selettive, le teorie elettive non implicano tuttavia alcun processo di amplificazione differenziale degli elementi e delle risposte scel te dallo stimolo, cioè il processo "darwiniano" - assolutamente centrale nella teoria edelmaniana - mediante il quale un sistema biologico "evolve" per affrontare adattativamente le variazioni e le novità che si producono tanto a livello ambientale, quanto a livello delle sue esigenze interne.
Riferimenti bibliografici
Billingham, R.E., Brent, L., Medawar, P.B. [1953], "Actively Acquired Tolerance of Foreign Cells", Nature, 172, pp. 603-6. Bresnan, J. (ed.) [1982], The Mental Representation of Grammatical relaétions, Cambridge, Mass.: The MIT Press. Burnet, F.M. [1959], The Clonal Selection Theory of Acquired Immunity, Nashville, Cambridge: Vanderbilt University Press, Cambridge University Press. Cerella, J. [1979], "Visual Classes and Natural Categories in the Pigeon", Journal of Experimental Psychology: Human Perception and Performance, 5, pp.68-77. Changeux, J.-P., Courrege, P., Danchin, A. [1973], "A theory of the epigenesis of neural networks by selective stabilization of synapses", Proc. Natl. Acad. Sci. USA, 70, pp. 2974-78. Changeux, J.-P. [1983], L'homme neuronal, Paris: Librairie Arthème Fayard; trad. it. cit. L'uomo neuronale, Milano: Feltrinelli, 1986. Changeux, J.-P. [1989], "Neuronal models of cognitive functions", Cognition, 33, pp. 63- 109. Churchland, P.S., Sejnowsky, T.J. [1992], The Computational Brain, Cambridége, Mass., and London, England: The MIT Press. Cohn, M. [1970], "Anticipatory Mechanisms of Individuals", in Wolstenholme, G.E.W., Knight, J. (a cura di), Control Processes in Multicellular Organisms.A Ciba Foundation Symposium, London: J. & A. Churchill LtD., pp. 255-97. Corbellini, G. (a cura di) [1990], L'evoluzione del pensiero immunologico, Torino: Bollati Boringhieri. Corbellini, G. [1991], "Gerald Edelman, il Darwin della coscienza", laéRivista dei Libri, Anno 1, 7, pp. 19-24. Page 19 Damasio, A.R., Damasio H. [1992], "Cervello e linguaggio", Le Scienze.Mente e cervello, 291, pp. 64-72. Edelman, G. M. [1974], "The problem of molecular recognition by a selective system", in Ayala, F.J., Dobzhansky, T., (eds.), Studies in the philosophy of biology, London: Macmillan, pp. 45-56; trad. it. "Il problema del riconoscimento molecolare in un sistema selettivo", in Corbellini, G. [1990], pp.225-40. Edelman, G.M. [1975], "Molecular Recognition in the Immune and Nervous Systems", in F. G. Worden, J. P. Swazey, G. Adelman (eds.), The Neurosciences:éPaths of Discovery ("Proceedings of a symposium held at the Massachusetts Institute of Technology, Oct. 29-30, 1973), Cambridge, Mass.: MIT Press, pp.65-74. Edelman, G.M., Mountcastle, V.B. [1978], The Mindful Brain. Cortical Organization and the Group-Selective Theory of Higher Brain Function, Cambridge, Mass., London, England: The MIT Press. Edelman, G.M. [1985], "Neural Darwinism: Population Thinking and Higher Brain Function", in Shafto, M. (ed.), How We Know, San Francisco: Harper & Row, pp. 1-30. Edelman, G.M. [1987], Neural Darwinism. The Theory of Neuronal Group Selecétion, New York: Basic Books; trad. it. in corso di pubblicazione presso Einauédi. Edelman, G.M. [1988], Topobiology. An Introduction to Molecular Embryology, New York: Basic Books; trad. it. Topobiologia. Introduzione all'embriologia molecolare, Torino: Bollati Boringhieri, 1993. Edelman, G.M. [1989], The Remembered Present. A Biological Theory of Conésciousness, New York: Basic Books; trad. it. cit. Il presente ricordato. Unaéteoria biologica della coscienza, Milano: Rizzoli, 1991. Edelman, G.M. [1992], Bright Air, Brilliant Fire: On the Matter of theéMind, New York: Basic Books; trad. it. Sulla materia della mente, Milano:éAdelphi, 1993. Eimas, P.D., Miller, J.L., Jusczyk, P.W. [1987], "On infant speech perception and the acquisition of language", in Harnad, S. (ed.), Categorical Perception. The Groundwork of Cognition, Cambridge: Cambridge University Press. Finkel, L.F., Edelman, G.M. [1985], "Interaction of synaptic modification rules within population of neurons", 82, Proc. Natl. Acad. Sci. USA, pp.1291-95. Gardner, H. [1987], The Mind's New Science. A History of the CognitiveéRevolution, New York: Basic Books; trad. it. La nuova scienza della mente.Storia della rivoluzione cognitiva, Milano: Feltrinelli, 1988. Gruber, H.E., Barrett, P.H. [1974], Darwin on Man. A Psychological Study of Scientific Creativity, together with Darwin's Early and Unpublished Notebooks, New York: Dutton. Hebb, D.O. [1949], The Organization of Behavior, New York: Wiley; trad. éit. L'organizzazione del comportamento. Una teoria neuropsicologica, Firenze:éGiunti, 1974. Page 20 Herrnstein, R.J., De Villiers, P.A. [1980], "Fish as a natural category for people and pigeons", in Bower, G.H. (a cura di), The psychology of learning and motivation, 14, New York: Academic, pp.59-95. Herrnstein, R.J. [1982], "Stimuli and the Texture of Experience", Neuroscience & Biobehavioral Reviews, 6, pp. 105-17. Jenkins, W.M., Merzenich, M.M., Ochs, M.T., [1984], "Behaviorally controlled differential use of restricted hand surfaces induce changes in the original representation of the hand in area 3b of adult owl monkeys", Soc. Neurosci. Abstr., 10, p. 665. Jerne, N.K. [1955], "The Natural Selection Theory of Antibody Formation", Proc. Natl. Acad. Sci. USA, 41, pp. 849-857; trad. it. "La teoria della formazione degli anticorpi basata sulla selezione naturale", in Corbellini, G. (aécura di) [1990], pp. 154-67. Jerne, N.K. [1967], "Antibodies and Learning: Selection versus Instruction", in Quarton, G.C., Melnechuk, T., Schmitt, F.O. (a cura di), The Neurosciences: A Study Program, New York: The Rockefeller University Press, pp.200-08. Johnson, M. [1987], The Body in the Mind. The Bodily Basis of Meaning, Imagination and Reason, Chicago and London: The University of Chicago Press. Jusczyk, P.W., Pisoni, D.B., Reed, M.A., Fernald, A., Myers, M. [1983], "Infants' discrimination of the duration of a rapid spectrum change in non speech signals", Science, 222, pp. 175-77. Kaas, J.H., Merzenich, M.M., Killackey, H.P., [1983], "The reorganization of somatosensory cortex following peripheral-nerve damage in adult and develoéping mammals", Annu. Rev. Neurosci., 6, pp. 325-356. Kellman, P.J., Spelke E. [1983], "Perception of partly occluded objects in infancy", Cognitive Psychology, 15, pp. 483-524. Kuhl, P.K., Miller, J.D. [1975], "Speech perception in the chinchilla: Voice-voiceless distribution in alveolar plosive consonants", Science, 190, pp.69-72. Lakoff, G. [1987], Women, Fire, and Dangerous Things. What Categories Reveal about the Mind, Chicago, London: The University of Chicago Press. Lashley, K. [1950], "In Search of the Engram", Society of Experimental Biology Symposium, 4: Physiological Mechanism in Animal Learning, New York: Academic Press, pp. 454-82; trad. it. "Alla ricerca dell'engramma", in Somenzi V. (a cura di), La fisica della mente, Torino: Boringhieri, 1969, pp. 80-116. Lederberg, J. [1959], "Genes and Antibody", Science, 129, pp. 1649-53; trad. it. cit. "Geni e anticorpi", in Corbellini, G. [1990], pp. 168-83. Levinthal, F., Macagno, E., Levinthal, L. [1976], "Anatomy and development of identified cells in isogenic organisms", Cold Spring Harbor Symposia onéQuantitative Biology, 40, pp. 321-31. Page 21 Lewontin, R.C. [1989], "The Sciences of Metamorphoses", The New York Review of Books, April 27, pp. 18-22; trad. it. "La scienza delle metamorfosi", la Rivista dei Libri, Anno III, 4, 1993, pp. 28-31. Macagno, E.R., Lopresti, V., Levinthal, C. [1973], "Structure and developément of neuronal connections in isogenic organisms: variation and similaritieséin the optic system of Daphnia Magna ", Proc. Natl. Acad. Sci. USA, 70, pp. 57- 61. Mayr, E. [1982], The Growth of Biological Thought. Diversity, Evolution and Inheritance, Cambridge, Mass. and London, England: The Belknap Press of Harvard University Press; trad. it. Corsi, P. (a cura di), Storia del pensiero biologico. Diversità , evoluzione, eredità , Torino: Bollati Boringhieri, 1990. Merzenich, M.M., Kaas, J.H., Wall, J.T., Nelson, R.J., Sur, M., Felleman, D.J., [1983], "Topographic reorganization of somatosensory cortical areas 3a and 1 in adult monkeys following restricted deafferentation", Neuroscience, 8, pp. 33-55. Oster-Granite, M., Gearhart, J. [1981], "Cell lineage analysis of cerebellar Purkinje cells in mouse chemiras", Developmental Biololgy, 85, pp. 199- 208. Parisi, D. [1989], Intervista sulle reti neurali. Cervello e macchine intelligenti, Bologna: il Mulino. Pauling, L.C. [1940], " A Theory of the Structure and Process of Formation of Antibodies", Journal of the American Chemical Society, 62, pp. 2643-57. Purves, D. [1988], Body and Brain. A Trophic Theory of Neural Connections, Cambridge, Mass., and London, England: Harvard University Press. Raff, M.C. [1973], "T and B Lymphocytes and Immune Responses", Nature, 242, pp. 19-23; trad. it. "I linfociti T e B e le risposte immunitarie", in Corbellini, G. (a cura di) [1990], pp. 207- 24. Raff, M.C. [1976], "L'immunologia della superficie cellulare", Le Scienze, settembre; ristampato in Celada, F. (a cura di), Le difese immunitarie. Come l'organismo riconosce se stesso e il mondo esterno, Milano: Le Scienze Editoére, 1986, pp. 134-42. Rutishauer, U., Millette, C.F., Edelman, G.M. [1972], "Specific Fractiona tion of Immune Cell Popolation", Proc. Natl. Acad. Sci., USA . Simon, H.A. [1969], The Sciences of the Artificial, Cambridge, Mass.: The MIT Press; trad. it. Le scienze dell'artificiale, Bologna: Il Mulino, 1988. Smith, E.E., Medin, D.L. [1981], Categories and Concepts, Cambridge, Mass., London, England: Harvard University Press. Sperry, R.W. [1963], "Chemoaffinity in the orderly growth of nerve fiber patterns and connections", Proc. Natl. Acad. Sci., USA, 50, pp. 703-10. Squire, L. R., Oliverio, A. [1991], "Biological Memory", in Corsi, P.(ed.), The Enchanted Loom. Chapters in the History of Neurosciences, New York, Oxford: Oxford University Press, Page 22 pp. 338-40. Staddon, J.E.R. [1983], Adaptive Behavior and Learning, Cambridge (England): Cambridge University Press. Swazey, J.P. [1975], "Forging a Neuroscience Community: A Brief History of the Neurosciences Research Program", in F.G. Worden, J. P. Swazey, G. Adelman (eds.), The Neurosciences: Paths of Discovery, Cambridge, Mass.: MIT Press, pp. 529-46. Tonegawa, S. [1983], "Somatic generation of antibody diversity", Nature, 302, pp. 5909-15. Weiskrantz, L. (ed.) [1988], Thought without Language, Oxford: Clarendon Press.
Da anni, in tutta Europa, i media hanno deciso: tutti siamo la manifestazione diretta del nostro genoma. Non passa settimana che nelle pagine scientifiche o di cronaca dei nostri giornali non si legga che questo o quel ricercatore americano avrebbe finalmente scoperto il gene che determina una qualsiasi cosa noi siamo e facciamo. Tutto il nostro destino è nei nostri geni. Di recente ho letto in alcuni importanti giornali europei che si era finalmente scoperto il gene dell'infedeltà coniugale... Le mode giornalistiche sono spesso come la nottola di Minerva evocata da Hegel, che si leva sempre al tramonto. In effetti, la ricerca biologica più recente sembra andare proprio nel senso opposto, avviando il determinismo genetico al tramonto. L'idea che le nostre vite siano semplicemente l'applicazione - o implementazione, suol dirsi oggi in linguaggio informatico - di un programma genetico è sempre più criticata da più parti in nome di un rinato, fresco e aggressivo radicalismo darwiniano.
L'ambiziosissimo Edelman
Nelle neuroscienze, particolarmente significativo è il darwinismo neurale di Gerald M. Edelman. Nato a New York nel 1929, Edelman ha ottenuto nel 1972 il premio Nobel per la fisiologia e la medicina per le sue ricerche sugli anticorpi. Oggi dirige il Dipartimento di Neurobiologia presso lo Scripps Research Institute a La Jolla, California. Il fatto che un Nobel in immunologia abbia elaborato una teoria neuroscientifica non deve stupire più di tanto: c'è un'affinità tra sistema immunitario e sistema neuronale. E poi i biologi davvero ambiziosi prima o poi si confrontano con le neuroscienze: il cervello umano infatti è l'oggetto fisico più complesso e difficile che si possa trovare nell'universo conosciuto. Ed Edelman ha applicato prima allo sviluppo degli anticorpi, poi allo sviluppo del cervello il principio selezionista, elaborando una Teoria della Selezione dei Gruppi Neuronali (TSGN) (2).
In biologia, si sono confrontati e si confrontano tutt'oggi due tipi di spiegazione antitetici: istruzionista e selezionista. Storicamente le spiegazioni istruzioniste precedono quelle selezioniste, ma tendono ad essere soppiantate dalle seconde. Questo è accaduto per l'origine delle specie, per la specificità degli anticorpi, e ora per il funzionamento del cervello. Per l'origine delle specie, in un primo tempo ha prevalso, attraverso Linneo e Buffon, la teoria delle specie come essenze fisse che si autoriproducono; ogni individuo nasce portando lo stampo della propria specie o eidos (forma essenziale), che resta immutata nelle varie generazioni. Questa teoria istruzionista è stata soppiantata dal selezionismo di Darwin. In immunologia ci si chiedeva: come riesce l'organismo a produrre delle immunoglobine (anticorpi) contro innumerevoli virus e batteri mai incontrati in precedenza? La prima risposta fu ovviamente istruzionista. Si pensò che l'anticorpo fosse di un unico tipo, che avesse la capacità di plasmarsi prendendo una forma complementare a quella del virus o batterio: in altre parole, la forma di ogni agente invasore istruisce l'anticorpo, imprimendogli una forma specifica. Ma questa ipotesi è stata soppiantata, già a partire dagli anni 50, dalla rivale selezionista: ogni organismo ha a sua disposizione una varietà enorme di anticorpi, e l'agente invasore si limita a selezionare quei pochi che sono in grado di riconoscerlo, stimolandone così la produzione. Così i vaccini consistono di solito nell'inoculare nell'organismo una varietà non virulenta di agenti invasori: la loro presenza seleziona certi anticorpi la cui produzione viene quindi esaltata, rendendo così l'organismo capace di reagire all'invasione degli stessi virus o batteri in forma virulenta.
C'è un altro campo, esterno alla biologia, in cui il selezionismo si avvia a prevalere: la filosofia della scienza. Penso in particolare alle tesi di Popper e di Lakatos. Questa concezione sfata l'idea empirista secondo la quale il progresso scientifico avverrebbe voltando le spalle al mito e alla metafisica, e registrando invece obiettivamente quel che la natura ci dice - un'idea anch'essa istruzionista della conoscenza. Invece, senza miti e metafisiche la scienza non potrebbe esistere: quel che conta è che il confronto con i dati disponibili selezioni via via certi miti e metafisiche come quelli più adatti a prevedere i fenomeni. La scienza quindi non va più vista come uno specchio, che diventa col tempo sempre più fedele, della natura, ma come quel che l'esperienza ha via via lasciato vivere delle ipotesi metafisiche a cui gli scienziati fanno appello per interpretare il mondo. La visione del mondo impostaci dalla scienza moderna è quel che oggi è sopravvissuto e si è riprodotto delle nostre metafisiche, chimere, sogni ad occhi aperti, passioni e amori. La scienza non abbandona la metafisica ma sancisce il successo di una determinata metafisica, selezionata per la sua forza predittiva.
Il cervello-popolazione
La TSGN di Edelman estende alla formazione del cervello - e quindi della nostra mente - la spiegazione selezionista che Darwin applicò all'evoluzione delle specie. Egli è convinto che le reti neuronali si sviluppino nel cervello di ciascuno così come gli animali evolvono nel mondo zoologico: alcuni individui (in questo caso i gruppi neuronali) sono portatori di una differenza casuale, che l'ambiente poi seleziona favorendone la riproduzione. Questa teoria si basa su tre concetti fondamentali: selezione dei gruppi neuronici, rientro e mappa globale. Il gruppo neuronico è l'equivalente neurale dell'individuo (fenotipo) nella teoria dell'evoluzione: è il neuro-individuo che verrà selezionato o meno, e che quindi più o meno si riprodurrà. Come gli individui delle specie zoologiche, anche i gruppi neuronali sono impegnati in un'incessante competizione per sopravvivere e riprodursi. Questo processo di selezione delle cellule produce reti anatomiche diverse da individuo a individuo. Quindi, non esistono al mondo due menti umane eguali... Le mappe mettono in relazione i recettori del corpo (come pelle o retina) con i punti corrispondenti sugli strati del cervello: insomma, determinano l'immagine del mondo che il cervello si costruisce. Il punto fondamentale è che queste mappe sono rientranti: siccome le mappe sono tra loro connesse, la selezione che avviene in una mappa comporta selezioni simili in altre mappe. Il rientro permette di collegare fisiologia e psicologia: esso implica in effetti che le nostre esperienze in un dato settore si ripercuotono a vari livelli mentali, cambiando la nostra categorizzazione del mondo. In altri termini, la nostra esperienza è anche retroattiva: quel che esperiamo al presente rimodella il nostro passato. La mappa globale, infine, è una struttura dinamica composta da mappe locali che interagisce con parti del cervello non organizzate a mappe. Essa varia nel tempo e a seconda del comportamento, ed è responsabile della categorizzazione percettiva dell'animale.
Vediamo ora perché questa teoria dell'evoluzione del cervello - e quindi della mente - ci costringe a modificare le nostre concezioni prevalenti sulla mente, sul sapere e sulla comunicazione tra esseri umani.
Rispecchiare o sopravvivere?
Darwin si è liberato del concetto antico (aristotelico, scolastico) di specie, portando la sua attenzione unicamente sugli individui - ma sugli individui in quanto sono portatori di variazioni. Gli individui sono interessanti non solo perché sono replicanti, per così dire, ma anche perché sono mutanti. E cioè, gli individui che classifichiamo nella stessa specie non sono l'implementazione di uno stesso programma. Darwin mostrò che le differenze tra organismi di una stessa specie non sono aberrazioni e irregolarità di una forma fissa e prestabilita, ma anzi sono la condizione fondamentale di ogni evoluzione: la vita produce differenze - in quanto nella riproduzione si introduce entropia - che vengono via via selezionate dall'ambiente. Così la selezione naturale è una creazione d'ordine a partire dal disordine. Per un darwiniano "specie" è solo un concetto pratico: un maschio e una femmina appartengono alla stessa specie se, avendo avuto rapporti sessuali, ne viene fuori della prole. Nella simultaneità sincronica, la specie ci appare come un'identità che si ritrova in tutti i fenotipi di quella specie; ma, vista diacronicamente, essa risulta essere piuttosto un insieme provvisorio di variazioni, linee di fuga, possibilità accennate, di cui solo una piccola parte avrà successo storico (3). Così, non esiste veramente una "natura umana" proprio perché l'uomo è un essere naturale.
Se con Darwin si sfalda il concetto di specie, con Edelman si sfalda un'idea equivalente in psicologia: quella di categoria. La teoria istruzionista in psicologia viene chiamata anche funzionalismo ed oggettivismo. Essa suppone che il mondo sia strutturato in categorie definite, che consistono in entità, proprietà e relazioni tra queste. La mente umana sarebbe quindi lo specchio della struttura categoriale del proprio ambiente: di tutto è possibile dare una definizione secondo i criteri classici di categorizzazione, criteri individualmente necessari e congiuntamente sufficienti per definire ogni categoria. In effetti, secondo la concezione classica, un concetto determina una classe di oggetti: ad esempio, il concetto di "tavolo" determina la classe di tutti i tavoli, passati presenti e futuri. Perché un oggetto cada sotto questo concetto, occorre che soddisfi un certo numero di condizioni necessarie: ad esempio, essere un mobile, avere un piano parallelo al suolo, avere un numero di gambe superiore a due, ecc. Ognuna di queste condizioni è necessaria nel senso che se è assente, l'oggetto non cade sotto questo concetto: ad esempio, se il piano di questo oggetto non è parallelo al suolo ma è inclinato (come un leggio, ad esempio) non è un tavolo. Prese tutte insieme, le condizioni per cui un tavolo è un tavolo sono tra loro sufficienti: se un oggetto soddisfa tutte le condizioni per cui qualcosa è un tavolo, allora è un tavolo. Non conta insomma che l'oggetto in questione sia di legno o di marmo, piccolo o immenso, bianco o rosso, ecc.: tutte queste qualità non sono condizioni necessarie per cui un oggetto è un tavolo. Questi criteri permettono ai nostri concetti e categorie di rispecchiare il mondo: il concetto di tavolo determina precisamente una data categoria reale di oggetti, i tavoli.
Invece per Edelman la nostra mente non rispecchia affatto il mondo. Abbiamo a che fare con una natura "senza etichette", e le aggregazioni e ripartizioni degli oggetti cambiano a seconda della persona e del momento. Insomma, la nostra mente si misura con il Caos: il mondo [...] non si può suddividere in categorie fisse ed immutabili, ossia in oggetti ed eventi caratterizzabili in termini di condizioni necessarie e sufficienti. Al contrario, il mondo è ambiguo ed interpretabile in modi diversi, a seconda delle caratteristiche e delle necessità adattative di ogni organismo. La categorizzazione percettiva e la generalizzazione sono perciò relative ad un dato organismo e ad un dato ambiente, e hanno luogo tramite un processo di variazione e selezione. Analogamente al ruolo della selezione naturale, la variazione nel sistema nervoso non va concepita come una deviazione irrilevante o erronea rispetto ad una categoria tipica, ma costituisce la base per la formazione, tramite la selezione neurale, delle categorie (4). In parole povere: ognuno di noi ha una visione del mondo del tutto diversa da quella di qualsiasi altro, dato che essa si forma in relazione alla propria esperienza. Il darwinismo neurale porta quindi nelle scienze cognitive una ventata di indeterminismo e individualismo.
Le cosiddette scienze cognitive sono un insieme disciplinare che oggi coalizza psicologi, filosofi, socio-psicologi, informatici, matematici. Il paradigma predominante in queste scienze - oggi molto praticato nelle discipline di Intelligenza Artificiale - resta istruzionista o funzionalista, e parte dal principio che il cervello funzioni sostanzialmente come una macchina di Turing (5). Ogni calcolatore digitale funziona come una macchina di Turing, che non è una macchina reale ma un modello matematico: essa manipola simboli secondo un insieme definito di regole. Il cervello sarebbe una sorta di hardware, di macchina biologica, che si limiterebbe a far "girare" un software costituito da codici e regole precise (in sostanza, da algoritmi), le quali verrebbero utilizzate per rappresentare e manipolare categorie univoche, in qualche modo predefinite. Tutto quel che devia da queste categorie univoche va considerato rumore di fondo, che un buon cervello-computer deve ridurre al minimo. Secondo questa teoria funzionalista e istruttivista, non è il cervello che pensa ma noi pensiamo con il cervello: si dà il caso che sia proprio la macchina-cervello a farci da hardware, ma una qualsiasi ferraglia sarebbe andata altrettanto bene. Secondo il selezionismo, invece, il cervello non ha nulla a che vedere con una macchina di Turing: è piuttosto un processo vivente sempre mutevole, come mutevole è ogni popolazione biologica. Il mondo non è definibile a priori - non è rappresentabile in un programma, in un algoritmo - ma è imprevedibile e ambiguo. E la differenza che poi andrà selezionata è la condizione di ogni categorizzazione, la quale prevale in quanto è adattativa, cioè in quanto si adegua meglio all'esperienza peculiare dell'individuo.
Per il selezionismo sarebbe ora, quindi, di abbandonare la metafora informativa che ha prevalso, anche in biologia, in questi ultimi decenni. Per molto tempo, l'organismo - e quindi anche la mente - è stato rappresentato come un sistema di scambi di informazioni; il che era coerente con la concezione istruzionista prevalente. Secondo il neo-darwinismo, invece, i segnali sensoriali di cui dispone il sistema nervoso non sono digitali ma analogici, sono ambigui, e in numero non finito; e le transizioni tra stati nel cervello umano sono ampiamente indeterminate. Quindi, più che "informati" noi siamo "selezionati": alcune nostre disposizioni a pensare sono rinforzate e premiate dal mondo esterno (nel quale ovviamente sono inclusi i nostri simili), altre invece sono lasciate cadere.
Aldilà della metafora dell'informazione, avanza la figura tragica della lotta per la sopravvivenza e la riproduzione. La biologia torna a modelli biologici, dopo aver coltivato a lungo modelli cibernetici. Ma la TSGN ha ottenuto verifiche empiriche? Oggi nelle neuroscienze - dove si trattano sistemi di complessità inaudita - la verifica empirica assume sempre più la forma della simulazione: occorre costruire dei robot che funzionino secondo i princìpi stabiliti dalla teoria. Se il robot si comporta più o meno come un animale naturale, la teoria è, almeno in parte, corroborata. Ora, è quel che ha fatto Edelman con le macchine della famiglia Darwin, apparecchi strutturati secondo i princìpi selezionisti, i quali riescono ad imparare dall'esperienza e a modificarsi. I Darwin si dimostrano capaci di molte operazioni mentali animali.
Il cervello anarchico
La teoria di Edelman piace a coloro (per esempio, agli psicoanalisti) che danno importanza alla storia individuale contro la predeterminazione genetica: non siamo determinati dai nostri geni, siamo piuttosto il prodotto della nostra storia. Il nostro cervello non è la manifestazione fenotipica del nostro genoma, e nemmeno di un programma-mente che esula dalla storia della specie umana, ma il prodotto mai finito di un'evoluzione che va avanti nel corso della nostra stessa vita. Gli sviluppi della nostra mente - e in generale, gli sviluppi del pensiero e della cultura umane - sono quindi ampiamente imprevedibili. In effetti, il nostro cervello non è un'unità ma una popolazione, sottoposto quindi alle trasformazioni a cui le popolazioni animali e vegetali sono sottoposte. Inoltre il nostro cervello è privo di un'area esecutiva centrale, di una specie di "stanza dei bottoni" in cui confluirebbero le attività delle altre aree. L'integrazione del nostro cervello si basa solo sul rientro: la segregazione e l'integrazione delle varie aree corticali coesistono. In termini più filosofici: non esiste in noi un Io centrale, un'istanza super-razionale in cui tutto di noi converge. Ognuno di noi è un'interazione più o meno riuscita di parti. Il nostro cervello è una democrazia orizzontale che funziona bene quando raggiunge una certa coesione, non una dittatura centralizzata. La teoria di Edelman di fatto porta acqua al mulino delle filosofie relativiste che contrastano con la concezione tipica dell'Occidente razionalista (6).
Nella tradizione occidentale, conoscere è avere delle immagini delle cose adeguate alle cose stesse (la verità è adaequatio rei et intellectus, adeguazione del discorso alla cosa): l'ideale conoscitivo è essere uno specchio fedele del mondo. Ora, l'approccio di Edelman sostituisce alla metafora-chiave dello specchio un'altra metafora-chiave per descrivere il sapere: quella della popolazione che sopravvive e si riproduce. La nostra conoscenza più che rispecchiare le cose, vi abita, come un animale abita la sua nicchia ecologica. Questo, a prima vista, è stupefacente. Nessuno pensa che degli organismi animali che vivono in una giungla siano una forma di conoscenza di alberi, temperatura, foglie, serpenti, piogge, ecc., che costituiscono il loro ambiente. Ma nella concezione darwiniana non solo il nostro sapere è parte della nostra vita, la vita stessa è una forma di sapere: le forme della vita hanno sempre origine casuale, quelle selezionate dall'ambiente lo abitano, ed abitare è il nocciolo del conoscere. Così, il nostro sapere e la nostra cultura sono semplicemente ciò che, tra tante idee, è riuscito a riprodursi, sia nel nostro cervello che in quello degli altri.
Comunicazione e malinteso
La differenza tra istruzionismo e selezionismo non è solo un'alternativa tra due teorie biologiche, ma investe anche il modo di concepire la comunicazione tra esseri umani. L'istruzionismo è la teoria ideale degli insegnanti: il loro sogno è che la mente dell'allievo venga impregnata da quel che deve apprendere, evitando come la peste il rischio che nella trasmissione avvengano deformazioni del messaggio professorale. I computer realizzano questo sogno: sono gli allievi ideali per i professori - che in questo caso si chiamano programmatori. I computer vengono perfettamente istruiti dell'algoritmo in cui consiste il programma, e sono in grado di andare avanti da soli. Invece è più duro accettare il selezionismo: questo implica l'idea che ognuno prende quel che può e quel che vuole da quello che noi comunichiamo. Di solito quando leggiamo le recensioni di un nostro libro, abbiamo la netta impressione che tutte (comprese le più favorevoli) equivochino sul senso vero del libro. Analogamente, i maestri si sentono traditi e fraintesi dai loro allievi, gli educatori non riconoscono negli educati il loro prodotto, e quanto ai nostri ammiratori, ci si chiede se davvero ammirino noi o qualcun altro... Quale vero creatore potrà mai sentirsi davvero gratificato dai propri allievi, seguaci, chiosatori, recensori? Questa delusione nasce dal fatto che continuiamo a pensare il nostro essere-con-gli-altri in termini istruzionisti, non darwiniani.
In realtà, gli input - vale a dire, quello che diciamo e scriviamo - sono, per gli altri, essenzialmente delle perturbazioni. I nostri messaggi non cadono su tabulae rasae, ma su menti che hanno già una storia e una forma. I nostri messaggi hanno successo nella misura in cui gli altri ne selezionano parti in relazione alle loro domande, aspettative, interessi, credenze, priorità, categorie. Il risultato è che ognuno ci capisce cose diverse. Ciò non deve essere considerato un increscioso fraintendimento, ma parte della dinamica stessa del comunicare. I nostri messaggi sono dispersioni in una popolazione di ciò che abbiamo pensato. I periodici Ritorni al Vero Pensiero (di Aristotele, di Cristo, di Darwin, di Marx, di Freud, di Wittgenstein, ecc.) - di cui alcuni intellettuali si fanno promotori - sono quindi illusioni, spezzate dal risveglio darwiniano. Ogni nostra lettura di testi del passato li ricategorizza, quindi li attualizza - l'infedeltà ai nostri maestri è inevitabile. Non mi illudo che anche questo articolo dica a voi lettori quel che esso "dice" a me: di fatto, nel migliore dei casi esso non farà altro che produrre delle modificazioni nelle vostre menti, più o meno estese. Ma saranno le vostre modificazioni, non le mie.
Solitudini neuronali
La teoria di Edelman è radicalmente individualistica: siccome ogni cervello è diverso da ogni altro - perché è il risultato di una storia evolutiva in ogni caso diversa - le nostre categorizzazioni individuali non combaciano. Non esistono due sole intelligenze umane identiche, come non esistono due esseri umani geneticamente identici, tranne i gemelli omozigoti. (Ma persino due gemelli identici - che sono cloni naturali - sviluppano cervelli diversi già nel grembo materno. Tutti noi conosciamo gemelli che di fatto sviluppano menti alquanto diverse). Perciò la TSGN di Edelman respinge ogni teoria programmista del cervello e della mente: sia la teoria funzionalista della mente-computer, che la teoria che fa della mente un effetto diretto del programma del genoma. Così come in natura si "inventano" specie del tutto nuove e imprevedibili, analogamente nel mondo neurale si possono inventare categorie e modi di pensare nuovi e imprevedibili. Così la memoria risulterà essere niente affatto un deposito di rappresentazioni di oggetti ed eventi del passato, ma un processo dinamico di ricategorizzazione. Come già avevano rilevato gli psicologi della memoria (7), memorizzare non è registrare dati ma ricategorizzare, e selezioniamo delle esperienze passate quello che ci conviene conservare. In termini più filosofici: ricordare è reinterpretare il passato, dargli una certa forma. Per cui non esiste veramente memoria fedele (se i giudici si ricordassero di questa elementare verità quando ascoltano le testimonianze in tribunale!) E la stessa percezione non è registrazione passiva di segnali visivi, ma selezione di stimoli e focalizzazione su alcuni di essi. Le teorie programmiste (sia genetiche che cognitiviste) - insinuano i selezionisti - ereditano il modo di pensare teologico: l'idea di un disegno che preesista sia alle specie, meravigliosamente adattate al mondo esterno, sia alle nostre "arti d'arrangiarsi". Il nostro genoma ha preso il posto delle specie dei filosofi scolastici del Medio Evo. La sola differenza è che mentre nel passato il disegno era opera di Dio, oggi è opera dei geni. Ma non c'è Dio né gene che ci determinino (8): ognuno di noi è il prodotto di ciò che ha saputo fare del caso, e di ciò che il caso ha saputo fare di lui. Il Caso, eterno fanciullo sovranamente imprevedibile, è la prima divinità della nuova biologia. La seconda divinità è la scelta irreversibile che l'ambiente opera nell'ampio menù dei mutanti.
Variazioni sul tema
Ma, si dirà, la teoria di Edelman - e di altri teorici a lui affini (9) - non sfocia nel solipsismo? Siccome ogni essere umano categorizza sulla base della propria esperienza, allora come accade che, bene o male, gli esseri umani si intendano tra loro, anche se sempre in un mare di malintesi? In effetti, i processi fondamentali dell'evoluzione - variazione, selezione, e amplificazione delle differenze - non avvengono in uno spazio di possibilità infinite: essi sono vincolati, e doppiamente. Ogni sistema complesso - sia esso un cervello o una cultura - si evolve a partire dai vincoli della propria storia passata e della propria esperienza. Quindi, le variazioni effettive tra individui sono variazioni su un tema - anche se di tanto in tanto persino il tema può cambiare per pressione degli eventi selettivi. Il tema, a sua volta, non è uno dei tanti temi possibili, ma mantiene la traccia storica di ciò che lo ha costituito. Quindi, le nostre variazioni individuali sono di solito alquanto limitate: il tema comune di cui ognuno di noi è la variazione offre uno sfondo che rende possibile una parziale sintonia tra parlanti. "Parziale" perché da qualche parte si può sempre incontrare la specificità assoluta, che fa ognuno diverso dall'altro. La storia della vita è esposta continuamente all'incomunicabilità, che però è anche la linfa del nuovo. Da qui il criterio (che personalmente uso con profitto): se un autore, un artista, un semplice parlante risulta di primo acchito del tutto incomprensibile, proprio per questo va ascoltato, guardato o letto con la massima attenzione. E' da lui o lei che può nascere la mutazione del futuro...
Variazioni sul tema: questo concetto può essere trasportato dal campo neurale a quello culturale. E' vero che le culture umane non sono esclusivamente darwiniane, appaiono soprattutto lamarckiane - vale a dire, trasmettiamo ai nostri discendenti anche caratteri acquisiti, cioè quello che abbiamo imparato nel corso della vita. Eppure la triade variazione-selezione-amplificazione differenziale può renderci più intelligibile anche la storia culturale dell'umanità. Se sono centrali non le identità (individuali o collettive) ma le differenze e le selezioni, allora ogni cultura va vista non come un tutto coeso, ma come un fascio di "temi" di cui ogni individuo è la variazione - potenzialmente una linea di fuga. Anche in società primitive che ci appaiono omogenee e senza storia, ogni individuo porta più o meno una tensione differenziale, una possibilità divergente. Una cultura è come un groviglio complesso di linee centrifughe. La società seleziona solo alcune delle variazioni di cui gli individui sono portatori. Anche l'"individualismo sociologico" (l'idea secondo cui la società non esiste, perché esistono veramente solo gli individui che la compongono) quindi manca l'essenziale: conta l'individuo come mutante, non solo come replicante. Le teorie sociologiche individualiste riducono di solito l'individuo ad un replicante, sul modello del consumatore razionale che valuta attentamente il rapporto prezzo/qualità. Se così fosse, la società da tempo avrebbe raggiunto la sua omeostasi, la storia si sarebbe fermata. Invece la storia va avanti - in modi per noi imprevedibili - grazie alla variabilità, per quanto infima, di ogni individuo. Una società, una cultura, va vista non solo come un aggregato di individui che interagiscono, e non solo come un insieme di regole e norme che si impone ai suoi membri: ma soprattutto come un fascio di proposte storiche variegate, di cui molte non avranno seguito ed altre (poche) verranno selezionate per fare storia.
Quindi, ciò che consideriamo universale e identico - la mente come rappresentazione, il DNA della specie umana, la logica, l'amore, il senso del bello - è il risultato di processi storici, cioè di differenze che sono riuscite a riprodursi. L'identico è tutt'al più l'effetto di una spietata selezione di una differenza. Ma il fatto che certe differenze sono o saranno selezionate implica che altre non lo saranno: lo scacco, l'esclusione, la sterilità, insomma la dimensione fallimentare della vita, appaiono componenti essenziali della cosiddetta identità culturale. Ogni identità culturale è disseminata di aborti e di cadaveri. Somiglianze di famiglia Ma se le variazioni sul tema sono troppo ampie, come riusciamo noi a comunicare in modo tutto sommato soddisfacente? Ad esempio, mettiamo che per me il termine Vienna significhi la capitale dell'Austria, la città di Freud e Wittgenstein, e il Kunsthistorische Museum; per un altro nulla di tutto questo, significa il Luna park al Prater e dove abita la zia Charlotte. I logici dicono che "Vienna" è un insieme polimorfo: due elementi (in questo caso, due diverse immagini mentali di Vienna) possono non avere alcuna caratteristica in comune. Non è quindi un'illusione pensare che due persone con immagini mentali del tutto diverse di Vienna stiano parlando, in fin dei conti, dello stesso "tema"?
Per rendere conto della comunicazione effettiva, Edelman ricorre al concetto di Wittgenstein di "somiglianze di famiglia"(10). In effetti, se prendiamo gli elementi di una certa categoria, molti di essi possono essere posti in relazione tra loro anche se alcuni non presentano nessuna delle proprietà che definiscono la categoria comune a tutti nel modo classico - vale a dire criteri individualmente necessari e congiuntamente sufficienti. Notiamo che varie persone con parentela di sangue tra loro possono assomigliarsi per certi tratti, ma è impossibile dire che esista un tratto assolutamente comune a tutti. "Pietro e Paolo si somigliano nel profilo, ma non nella mimica. Paolo e Gianni invece si somigliano nella mimica, ma non nel profilo. Pietro e Gianni poi non si somigliano né nel profilo né nella mimica, ma piuttosto nel tono di voce e nella cadenza. Pietro e Paolo e Gianni hanno tutti una somiglianza di famiglia, ma non hanno un unico tratto che sia comune a tutti (11)". [fig 1] Accade così che certe categorie possano avere gradi di appartenenza ma non confini netti. Inoltre certe categorie possono avere elementi che sono più rappresentativi (più prototipici) di altri: quando parliamo di satelliti, il nostro prototipo è la luna - quando in Italia parliamo di religioni, i nostri prototipi sono il giudaismo e il cristianesimo. Ma questo non vuol dire che tutti quelli che chiamiamo satelliti abbiano tutti i tratti della luna, né tutte quelle che chiamiamo religioni assomiglino al giudaismo e al cristianesimo. Si è così visto che le categorie di colore, per esempio, non presentano confini netti (ad esempio, alcuni chiamano rosso ciò che altri chiamerebbero arancione o viola). La conoscenza degli elementi di una categoria si struttura spesso intorno ad una categoria di base, vale a dire attorno ad elementi che si ricordano e si immaginano con più facilità: si è così visto che per la gente "cavallo" è una categoria di base, ma non "quadrupede". Così, ognuno ha immagini mentali di Vienna che possono essere in molti casi comuni con quelle di altri, ma questo non implica affatto che tutte le immagini mentali di Vienna di tutte le persone abbiano un tratto comune.
Del resto, si è dimostrato che questo accade persino per i concetti scientifici (12): di fatto, gli scienziati discutono senza condividere veramente categorie di base comuni. Del resto, sia nelle conversazioni comuni che in quelle scientifiche non ci rendiamo conto del fatto che il senso dei nostri concetti varia anche all'interno del nostro stesso discorso, proprio perché solo di rado ricorriamo a definizioni coerenti e rigorose dei concetti che usiamo. Il richiamo alle rassomiglianze di famiglia mira a confutare il funzionalismo oggettivista nelle scienze cognitive (13). Un presupposto di questo modello è che il nostro linguaggio è correlato al reale attraverso definizioni complete ed esaustive: ci capiamo quando usiamo il termine "Vienna" perché condividiamo una certa definizione di che cosa sia la città di Vienna. Ma si tratta di una condizione che opera solo in contesti speciali come quelli matematici o logici: nella realtà, condividiamo ben poche definizioni comuni, vale a dire non usiamo categorie le cui condizioni siano individualmente necessarie e congiuntamente sufficienti. Di fatto, ogni volta che parliamo con gli altri - anche con colleghi - brancoliamo nel buio: attraverso milioni di fraintendimenti, solo nel confronto riusciamo a stabilire punti fermi tra noi (il significato dei nostri concetti è il risultato di un'illimitata negoziazione tra noi parlanti).
L'idea secondo cui comunicheremmo perfettamente se fossimo in grado di definire rigorosamente i concetti che usiamo è un'illusione che è stata di fatto scardinata. Del resto ci sono molti concetti che è assolutamente impossibile definire - ad esempio i colori. Come definire "rosso", ad esempio? Nessuna definizione, per quanto rigorosa (ad esempio, evocando le linee dello spettro solare), del rosso ne darà mai il senso ad un cieco dalla nascita. Nel film Children of a Lesser God (1986), William Hurt chiede alla sua ragazza, sorda dalla nascita: "Ma cosa senti, solo silenzio?" Ovviamente la ragazza non risponde, la domanda non è "pertinente" per lei. In effetti, noi siamo menti non perché manipoliamo simboli come un computer, ma perché siamo corpi sensibili che vedono colori e distinguono suoni - e ogni nostra sensazione è peculiare. E' quel che dice Edelman, quando ripete che il nostro pensiero è sempre incorporato: non solo nel senso che pensiamo con una parte del corpo qual è il cervello, ma anche nel senso che è il nostro corpo a dare significato ai nostri pensieri. Il significato nasce quindi dalla nostra concreta interazione con gli altri e con le cose, vale a dire con una serie potenzialmente infinita di eventi senza limiti precisi. Ogni significato - di "rosso", "quadrupede", "silenzio", "Vienna", ecc. - non può prescindere dal nostro corpo e dalla storia della vita di questo corpo. I semiotici di solito vanno matti per la concezione di Peirce (14) secondo cui il senso di un simbolo è la sua traduzione in altri simboli - una definizione che va bene per un computer, non per una mente umana. Un computer non fa altro che sostituire simboli ad altri simboli, ma non accede al senso né all'intenzionalità (15). Perché il senso vale solo per esseri che abbiano un corpo vivente e quindi delle esperienze formative. La definizione di Peirce è più un escamotage del problema del significato che la sua soluzione.
Comunque, le immagini mentali di Vienna e del rosso di tutti noi si intersecano in vari modi, e tra tutte queste immagini possiamo cogliere somiglianze di famiglia. Due persone che parlano di "Vienna" possono intendersi perché le loro diverse immagini della città si riferiscono ad un orizzonte di esperienze possibili - la Vienna reale - da cui possono attingere esperienze comuni nel futuro. Se si danno appuntamento un giorno alla Südbanhof di Vienna ad una certa ora, è molto probabile che si incontrino. Quando comunichiamo, quel che conta non è che i nostri concetti di Vienna collimino: conta che viviamo nella stessa realtà concreta, in modo che i nostri concetti da qualche parte si intersechino. I nostri corpi sensibili sono ad un tempo la fonte di ogni significato condiviso e di ogni malinteso.
Note: (1) Pubblicato su Lettera Internazionale, n. 69, 2001.