59
Mirko Di Bernardo Verso una fondazione naturalistica delle pre- condizioni dell'etica: semantica molecolare ed intenzionalità nei sistemi viventi 1. Agenti autonomi ed auto-catalisi In Esplorazioni Evolutive, testo pubblicato nel 2000 dopo una faticosa gestazione durata quattro anni, Stuart Alan Kauffman, uno dei padri della teoria della complessità biologica contemporanea, mostra l'esito di una ricerca serendipica con un cospicuo numero di risultati sorprendenti. Si tratta di un'opera realmente esplorativa, piena di ipotesi di lavoro euristiche, talvolta feconde talvolta destinate al fallimento la cui argomentazione è, a tratti, oscura ed enigmatica, ma da cui traspaiono, senza ombra di dubbio, sia la passione per la ricerca della verità che l'attaccamento ad alcune tracce di lavoro promettenti. Rispetto agli anni di massimo fervore intellettuale del «pensatoio interdisciplinare» formatosi attorno al Santa Fe Institute durante i quali hanno visto la luce The Origins of Order e A casa nell'universo; rispetto, cioè, a quella temperie scientifica di fine novecento dove tutto sembrava possibile (scoprire la quarta legge della termodinamica per i sistemi aperti in non equilibrio, tracciare una teoria unificata dell'universo, decifrare le leggi senza tempo della biologia universale) e dove la Scienza della Complessità gettava ponti tra domini diversi della fisica, fra la Cibernetica e la teoria dell'informazione, nonché fra matematica, scienze biologiche, economia, psicologia e politica; Esplorazioni evolutive, rispetto a quell'epoca pionieristica, «rappresenta al contempo la chiusura di una trilogia e l'apertura di nuove possibilità, mosse dallo stesso stupore sincero, quasi fanciullesco degli esordi».1 Il grande biochimico americano, infatti, nelle sue esplorazioni cerca di dar vita ad un'ermeneutica dell'evoluzione che spieghi la logica costruttivista del vivente, una logica, vale a dire, che deriva dalla selezione naturale, dall'auto- organizzazione e da altri principi che tutt'ora restano incomprensibili. «La cosa strana della teoria dell'evoluzione è che tutti credono di conoscerla. Com'è vero! Essa sembra, naturalmente, così semplice. I fringuelli zampettano sulle Galapagos e migrano occasionalmente di isola in isola; becchi grandi e becchi piccoli sono utili per semi differenti; i becchi che si adattano ai semi nutrono i piccoli; i becchi di giusta foggia vengono favoriti dalla selezione; le mutazioni sono la riserva di variazioni ereditabili in una popolazione; le popolazioni si evolvono per mutazione, accoppiamento, ricombinazione e selezione per dar vita a quelle varietà ben demarcate che, per Darwin, sono nuove specie. Filogenesi a cespuglio nella biosfera. «Siamo qui, siamo qui!», ognuna grida la sua presenza che data a quattro milioni di anni in uno spettacolo all'aperto che si replica da quattro miliardi di anni. «Siamo qui!». Ma come? Come, in molti sensi. Innanzitutto, la teoria dell'evoluzione di Darwin è una teoria della discendenza con modificazioni. Essa finora non ha spiegato la genesi delle forme, ma la rifinitura delle forme, una volta che sono state generate. «Un po'come ottenere un melo potando tutti i rami», citando uno scettico di fine Ottocento. Come, nel senso più fondamentale: da dove è scaturita la vita per la prima volta? Darwin prende le mosse da una vita già presente. Da dove ha origine la vita è la sostanza di tutte le domande successive sull'origine e sul vaglio delle forme. [...] La cosa strana della teoria dell'evoluzione è che tutti credono di conoscerla. Ma non è così. Una biosfera, o un'econosfera, si costruiscono in modo auto-consistente secondo principi che ancora non sappiamo spiegare.»2 Questi esercizi di biologia teorica, dunque, si pongono un obiettivo molto ambizioso: andare alle radici della definizione del vivente. Così, il nume che lo studioso invoca, è il padre della meccanica quantistica, ovvero E. Schrödinger ed in particolare il suo capolavoro del 1943 dal titolo Che cos'è la vita? . In quel testo il grande fisico suggerì di non ridurre la vita alla fisica, ma di pensare ad una nuova fisica capace di spiegare

Mirko Di Bernardo Verso una fondazione naturalistica delle ... · Essa finora non ha spiegato la genesi delle forme, ... un enigma.»3 Nei due libri precedenti, ... simmetria esagonale

Embed Size (px)

Citation preview

Mirko Di Bernardo

Verso una fondazione naturalistica delle pre-

condizioni dell'etica: semantica molecolare ed

intenzionalità nei sistemi viventi

1. Agenti autonomi ed auto-catalisi

In Esplorazioni Evolutive, testo pubblicato nel 2000 dopo una faticosa gestazione durata quattro

anni, Stuart Alan Kauffman, uno dei padri della teoria della complessità biologica contemporanea,

mostra l'esito di una ricerca serendipica con un cospicuo numero di risultati sorprendenti. Si tratta di

un'opera realmente esplorativa, piena di ipotesi di lavoro euristiche, talvolta feconde talvolta

destinate al fallimento la cui argomentazione è, a tratti, oscura ed enigmatica, ma da cui traspaiono,

senza ombra di dubbio, sia la passione per la ricerca della verità che l'attaccamento ad alcune tracce

di lavoro promettenti. Rispetto agli anni di massimo fervore intellettuale del «pensatoio

interdisciplinare» formatosi attorno al Santa Fe Institute durante i quali hanno visto la luce The

Origins of Order e A casa nell'universo; rispetto, cioè, a quella temperie scientifica di fine

novecento dove tutto sembrava possibile (scoprire la quarta legge della termodinamica per i sistemi

aperti in non equilibrio, tracciare una teoria unificata dell'universo, decifrare le leggi senza tempo

della biologia universale) e dove la Scienza della Complessità gettava ponti tra domini diversi della

fisica, fra la Cibernetica e la teoria dell'informazione, nonché fra matematica, scienze biologiche,

economia, psicologia e politica; Esplorazioni evolutive, rispetto a quell'epoca pionieristica,

«rappresenta al contempo la chiusura di una trilogia e l'apertura di nuove possibilità, mosse dallo

stesso stupore sincero, quasi fanciullesco degli esordi».1 Il grande biochimico americano, infatti,

nelle sue esplorazioni cerca di dar vita ad un'ermeneutica dell'evoluzione che spieghi la logica

costruttivista del vivente, una logica, vale a dire, che deriva dalla selezione naturale, dall'auto-

organizzazione e da altri principi che tutt'ora restano incomprensibili. «La cosa strana della teoria

dell'evoluzione è che tutti credono di conoscerla. Com'è vero! Essa sembra, naturalmente, così

semplice. I fringuelli zampettano sulle Galapagos e migrano occasionalmente di isola in isola;

becchi grandi e becchi piccoli sono utili per semi differenti; i becchi che si adattano ai semi nutrono

i piccoli; i becchi di giusta foggia vengono favoriti dalla selezione; le mutazioni sono la riserva di

variazioni ereditabili in una popolazione; le popolazioni si evolvono per mutazione, accoppiamento,

ricombinazione e selezione per dar vita a quelle varietà ben demarcate che, per Darwin, sono nuove

specie. Filogenesi a cespuglio nella biosfera. «Siamo qui, siamo qui!», ognuna grida la sua presenza

che data a quattro milioni di anni in uno spettacolo all'aperto che si replica da quattro miliardi di

anni. «Siamo qui!». Ma come? Come, in molti sensi. Innanzitutto, la teoria dell'evoluzione di

Darwin è una teoria della discendenza con modificazioni. Essa finora non ha spiegato la genesi

delle forme, ma la rifinitura delle forme, una volta che sono state generate. «Un po'come ottenere un

melo potando tutti i rami», citando uno scettico di fine Ottocento. Come, nel senso più

fondamentale: da dove è scaturita la vita per la prima volta? Darwin prende le mosse da una vita già

presente. Da dove ha origine la vita è la sostanza di tutte le domande successive sull'origine e sul

vaglio delle forme. [...] La cosa strana della teoria dell'evoluzione è che tutti credono di conoscerla.

Ma non è così. Una biosfera, o un'econosfera, si costruiscono in modo auto-consistente secondo

principi che ancora non sappiamo spiegare.»2 Questi esercizi di biologia teorica, dunque, si

pongono un obiettivo molto ambizioso: andare alle radici della definizione del vivente. Così, il

nume che lo studioso invoca, è il padre della meccanica quantistica, ovvero E. Schrödinger ed in

particolare il suo capolavoro del 1943 dal titolo Che cos'è la vita? . In quel testo il grande fisico

suggerì di non ridurre la vita alla fisica, ma di pensare ad una nuova fisica capace di spiegare

l'organizzazione propagante della biosfera e dell'universo, ovverossia l'incessante produzione

coevolutiva di nuova diversità e nuova complessità di cui solo la vita è capace. «Erwin Schrödinger

[...] nel corso delle lezioni magistrali che tenne a Dublino, creò lo scenario della biologia

contemporanea. [...] Nessuno però, neanche lo stesso Schrödinger, avrebbe potuto prevederne le

conseguenze. Al suo libro, Che cos'è la vita? , si ascrive il merito di aver ispirato una generazione

di fisici e di biologi alla ricerca della natura fondamentale dei sistemi viventi. Fu Schrödinger infatti

a introdurre in biologia la meccanica quantistica, la chimica ed il concetto di informazione,

formulato quest'ultimo in forma ancora embrionale. Egli fu l'antesignano della nostra conoscenza

del DNA e del codice genetico. Eppure, per quanto geniale sia stata la sua intuizione, io credo che

abbia mancato il bersaglio. Esplorazioni Evolutive punta proprio a quel bersaglio, ma trova in realtà

un enigma.»3 Nei due libri precedenti, il grande studioso americano aveva messo in rilievo alcune

ragioni crescenti per ritenere che l'evoluzione fosse più ricca persino di quanto avesse immaginato

Darwin. La moderna teoria dell'evoluzione, basata sul concetto di discendenza con variazioni

ereditabili filtrate dalla selezione naturale per conservare i cambiamenti adattativi, è giunta a

ritenere la selezione come l'unica fonte di ordine nella biosfera. Ciò nonostante, la delicata

simmetria esagonale di un fiocco di neve testimonia, secondo Kauffman, il fatto che l'ordine può

emergere anche senza il contributo della selezione. «The Origins of Order e A casa nell'universo, i

miei due libri, avanzano ragioni valide per ritenere che una buona parte dell'ordine negli organismi -

- dall'origine stessa della vita all'incredibile ordine nello sviluppo di un neonato a partire da un uovo

fecondato -- non sia il riflesso della sola selezione. Piuttosto, io credo, buona parte di tale ordine è

auto-organizzato e spontaneo. L'auto-organizzazione si mescola con la selezione naturale secondo

modalità poco chiare e produce la nostra pullulante biosfera in tutto il suo splendore. La teoria

dell'evoluzione deve perciò essere ampliata. Ma ci serve qualcosa di ben più importante di una

teoria dell'evoluzione ampliata. Pur con tutte le valide intuizioni nei miei due libri precedenti, e con

l'ottimo lavoro di molte altre persone -- incluso il fulgore evidente della biologia molecolare degli

ultimi trent'anni -, il cuore della vita stessa è rimasto come nascosto dietro ad un velo. Noi

conosciamo frammenti della meccanica molecolare, dei percorsi metabolici, degli strumenti di

biosintesi delle membrane. Insomma, conosciamo molte parti e molti processi. Eppure non ci è

ancora chiaro che cosa fa di una cellula qualcosa di vivente: il bersaglio è ancora avvolto

nell'ombra.»4 Ritorniamo per un momento alle illuminanti intuizioni di Schrödinger ed al suo

tentativo di dare una definizione cardinale della vita. Che cos'è la vita? ha fornito una risposta

sorprendente alla sua indagine relativa all'essenza del bios, ponendo una questione rilevante: da

dove deriva lo straordinario ordine negli organismi? La risposta classica (per Schrödinger erronea)

risiedeva nella fisica statistica. Se si sospende una goccia di inchiostro nell'acqua immobile di una

capsula di Petri, per esempio, essa si diffonderà raggiungendo all'equilibrio una distribuzione

uniforme, che costituisce una media ricavata da un numero enorme di atomi o di molecole, e non è

attribuibile al comportamento di singole molecole: qualsiasi fluttuazione locale della concentrazione

di inchiostro, infatti, presto si dissipa per ritornare all'equilibrio. Schrödinger basò il suo

ragionamento sulla genetica sperimentale e sui dati relativi all'induzione attraverso raggi X di

mutazioni genetiche ereditabili. Così, calcolando «la dimensione del bersaglio» di tali mutazioni,

egli capì che un gene poteva includere poche migliaia di atomi.5 Si consideri, per esempio, il lancio,

10000 volte, di una moneta regolare. Il risultato sarà 50% testa e 50% croce con una fluttuazione di

circa 100, ovvero la radice quadrata di 10000. Una tipica fluttuazione da testa e croce 50: 50,

perciò, sarà pari a 100/10000, ovvero all'1%. Si immagini ora che il numero dei lanci sia 100

milioni: le sue fluttuazioni saranno la sua radice quadrata, cioè 10000. Se si effettua la divisione,

10000/10000000 produce una tipica deviazione, pari allo 0. 01%, dal rapporto 50: 50. «Schrödinger

era pervenuto alla conclusione corretta: se i geni sono costituiti da diverse centinaia di atomi

appena, le fluttuazioni statistiche familiari previste dalla meccanica statistica sarebbero così ampie

che l'ereditabilità sarebbe pressoché impossibile. Le mutazioni spontanee si verificherebbero con

una frequenza enormemente più grande di quella osservata. La fonte di ordine deve risedere altrove.

La meccanica quantistica, sosteneva Schrödinger, viene in soccorso alla vita. Essa assicura che i

solidi abbiano strutture molecolari rigidamente organizzate, e un cristallo ne è il caso più semplice.

Ma i cristalli sono strutturalmente monotoni: i loro atomi sono disposti su una griglia

tridimensionale regolare. Se conosciamo la posizione di tutti gli atomi in un'unità minima di

cristallo, sapremo dove si trovano tutti gli altri atomi dell'intero cristallo. E'un po'un'esagerazione,

poiché vi possono essere difetti complessi. Il punto però è chiaro: i cristalli possiedono strutture

molto regolari, e dunque le loro differenti parti diranno in un certo senso tutte la stessa cosa. [...]

Schrödinger tradusse l'idea del «dire» nell'idea del «codificare».»6 Compiuto quel salto, però, un

cristallo regolare non può «codificare» molta «informazione» poiché quest'ultima è già contenuta

interamente nella cellula unitaria. Così, se i solidi hanno l'ordine richiesto ma i solidi periodici come

i cristalli sono troppo regolari, l'attenzione del grande fisico si concentra allora sui solidi aperiodici:

«Una piccola molecola potrebbe dirsi «il germe di un solido». Prendendo le mosse da un tale

piccolo germe solido, sembrano esservi due diversi modi di fabbricare assiemi di atomi sempre più

vasti. Uno è quello relativamente monotono di ripetere all'infinito la stessa struttura nelle tre

direzioni. Questo è quello che si realizza nell'accrescimento dei cristalli. Una volta che la

periodicità è stabilita non vi è un limite definito alle dimensioni dell'aggregato. L'altro modo è

quello di costruire un aggregato sempre più esteso, senza ricorrere al banale espediente della

ripetizione. Questo è il caso delle molecole organiche via via più complicate, nelle quali ogni atomo

ed ogni gruppo di atomi ha una funzione particolare, non interamente equivalente a quella di molti

altri (come avviene in una struttura periodica). Potremmo, in modo proprio, chiamare una tale

struttura un cristallo o solido aperiodico ed esprimere la nostra ipotesi con le parole: noi riteniamo

che un gene, o forse l'intera fibra cromosomica, sia un solido aperiodico.»7 La forma

dell'aperiodicità, inoltre, conterrà una sorta di codice microscopico che in qualche modo controlla lo

sviluppo dell'organismo: «Ci siamo spesso chiesti come mai questa insignificante particella di

materia, il nucleo dell'uovo fecondato, possa contenere tutto un elaborato codice che riguarda tutto

il futuro sviluppo dell'organismo. Una ben ordinata associazione di atomi dotata di sufficiente

stabilità per mantenere il suo ordine in permanenza, sembra essere l'unica struttura materiale

concepibile, che offra una varietà di possibili riordinamenti (isomerici) sufficientemente grande da

racchiudere un complicato sistema di «predeterminazioni» entro un volume spaziale piccolo. Infatti,

non è necessario che il numero di atomi in una struttura di questo genere sia molto grande, per dar

luogo ad un numero di possibili ordinamenti diversi, praticamente illimitato. Considerate a titolo

d'esempio, il Codice Morse. I due diversi segni, il punto e la linea, in gruppi ben ordinati di non più

di quattro, permettono di ottenere una trentina di differenti specificazioni. Ora, se vi permettete l'uso

di un terzo segno, oltre al punto e alla linea e fate uso di gruppi di non più che dieci segni, potete

formare 88. 572 differenti lettere; con cinque segni e gruppi fino a venticinque, il numero è 372.

529. 029. 846. 191. 405. [...] Naturalmente, nel caso reale, è chiaro che non ogni disposizione del

gruppo di atomi rappresenterà una possibile molecola; inoltre, la questione non è quella di adottare

un codice arbitrario, poiché il codice stesso deve essere il fattore operante che porta innanzi lo

sviluppo. Ma, d'altra parte, il numero da noi scelto nell'esempio [...] è ancora molto piccolo e

abbiamo inoltre tenuto conto soltanto della semplice disposizione dei segni lungo una linea. Ciò che

desideriamo porre in rilievo è soltanto il fatto che con il modello molecolare di un gene non è più

inconcepibile che il codice in miniatura venga esattamente a corrispondere ad un complicatissimo e

specificato piano di sviluppo ed in qualche modo contenga i mezzi per realizzarlo.»8 Il carattere

quantistico del solido aperiodico sta a significare che si verificheranno piccoli cambiamenti discreti:

le mutazioni. Infine, la selezione naturale, agli occhi del grande fisico, operando su questi piccoli

cambiamenti discreti, selezionerà le mutazioni favorevoli secondo il modello divisato da Darwin:

«Concesso che si debbano spiegare le rare mutazioni spontanee per mezzo delle fluttuazioni casuali

dell'agitazione termica, non dobbiamo troppo stupirci del fatto che la natura sia riuscita a fare una

così oculata scelta dei valori di soglia da rendere le mutazioni un evento raro. Infatti siamo arrivati

precedentemente alla conclusione che mutazioni frequenti sono dannose all'evoluzione. Individui

che, per mutazione, acquistano una configurazione genica di insufficiente stabilità avranno poca

probabilità di vedere la loro discendenza, «ultraradicale» e rapidamente mutante, sopravvivere a

lungo. La specie si libererà di essi e presceglierà così, per selezione naturale, dei geni stabili.»9 Alla

luce di quanto detto sinora, dunque, Kauffman così scrive: «A cinquant'anni di distanza, trovo che il

ragionamento di Schrödinger sia affascinante e brillante. In un colpo solo, egli concepì quella che

nel 1953 sarebbe diventata la chiarificazione della struttura della doppia elica del DNA da parte di

James Watson e di Francis Crick, con una considerazione nel loro articolo originale che, come è

noto, è stata minimizzata: cioè che la struttura del DNA suggerisce il suo modo di replicarsi e il suo

modo di codificare l'informazione genetica. A cinquant'anni di distanza sappiamo moltissime più

cose. [...] Ci siamo avvicinati al sogno di Schrödinger. Ma siamo anche più vicini a rispondere alla

domanda «che cos'è la vita?» La risposta, quasi certamente, è no. Io non sono nella condizione di

affermare così su due piedi perché lo penso, ma posso abbozzare una spiegazione. Esplorazioni

Evolutive è la ricerca di una risposta. [...] I sentieri lungo cui ho proceduto con passo malfermo,

intravedendo una possibile terra inesplorata, mi sembra meritino davvero una presentazione e una

considerazione serie. Con mio grande stupore, la storia che qui si dispiegherà suggerisce una

risposta nuova alla domanda «che cos'è la vita?» Risposta di cui non mi aspettavo nemmeno un

abbozzo e ancora mi sorprendo per essere stato guidato verso queste direzioni inattese. Una

direzione suggerisce che una risposta potrebbe richiedere un cambiamento fondamentale nel modo

in cui pratichiamo la scienza fin dai tempi di Newton. La vita sta facendo qualcosa di assai più ricco

di tutti i nostri possibili sogni, qualcosa di letteralmente incalcolabile. Quale è il ruolo di una legge

se, come abbiamo accennato, le variabili e lo spazio delle configurazioni di una biosfera, o magari

di un universo, non possono essere specificati? Eppure, io credo che esistano leggi. E se queste mie

meditazioni sono vere, allora è la scienza in sé che dobbiamo ripensare.»10 Siamo, dunque, di

fronte ad un libro di maturazione intellettuale ed umana, ovvero al compimento di un lungo

percorso che ha condotto il grande biochimico verso il nucleo dell'attuale teoria della complessità

biologica: l'agente autonomo, ovvero l'unità di base di una biologia generale indipendente dal

supporto, definito come «un sistema auto-riproduttivo capace di eseguire almeno un ciclo di lavoro

termodinamico.»11 Si consideri un batterio che nuota controcorrente in un gradiente di glucosio

sfruttando il suo motore flagellare rotativo. Se ci si domanda cosa effettivamente stia facendo, è

possibile rispondere senza esitazione che «sta andando a procurarsi da mangiare». Ciò, agli occhi di

Kauffman, significa che, pur senza attribuirgli una coscienza o una finalità cosciente, risulta

possibile concepire il batterio come «agente a proprio vantaggio in un ambiente»: esso, infatti, sta

nuotando controcorrente per ottenere il glucosio di cui necessita. Ebbene, quei batteri che

raggiungono effettivamente il glucosio, o il suo equivalente, possono sopravvivere con più

probabilità rispetto a quelli che non riescono ad usufruire dello stratagemma motorio flagellare; la

selezione naturale, pertanto, li selezionerà positivamente. «Un agente autonomo è un sistema fisico

come lo è il batterio, che può agire a proprio vantaggio in un ambiente. Tutte le cellule dotate di vita

autonoma e gli organismi sono chiaramente agenti autonomi. Il carattere quasi familiare, ma del

tutto straordinario, degli agenti autonomi -- Escherichia coli, e parameci, cellule del lievito e alghe,

spugne e platelminti, anellidi e ognuno di noi -- è la capacità che abbiamo di manipolare ogni

giorno il mondo circostante: noi nuotiamo, strisciamo, ci attorcigliamo, costruiamo, ci

nascondiamo, annusiamo e ghermiamo. [...] Il nostro batterio con il suo motore rotativo flagellare

che nuota controcorrente verso la sua cena è, come puro fatto, un sistema molecolare auto-

riproduttivo che segue uno o più cicli di lavoro termodinamici. E lo è il paramecio che insegue il

batterio augurandosi la propria, di cena. E altrettanto lo è il dinoflagellato a caccia del paramecio

che tende un agguato al batterio. [...] Ci vorrà del tempo per esplorare a fondo questa definizione.

Spiegarne minutamente le implicazioni rivela molte cose che nemmeno lontanamente avevo

previsto. Una prima intuizione è che un agente autonomo deve essere allontanato dall'equilibrio

termodinamico perché i cicli di lavoro non possono verificarsi all'equilibrio. Il concetto di agente è

dunque di per sé un concetto di non equilibrio. In esordio, è anche chiaro che questo nuovo concetto

di agente autonomo non è contenuto nella risposta di Schrödinger. Il suo brillante salto concettuale

ai solidi aperiodici codificanti l'organismo, che spiegò le ali alla biologia di metà Novecento,

sembra essere soltanto lo sprazzo di una storia ben più grande.»12 A dire il vero, a questo stadio la

definizione provvisoria di Kauffman non è circolare, poiché «riproduce se stesso» e «ciclo di

lavoro» li possiamo definire indipendentemente. Ma quando, nei prossimi paragrafi, scaveremo più

a fondo nel concetto di agente autonomo, sorgeranno definizioni circolari relative a «lavoro»,

«lavoro propagante», «vincoli», «organizzazione propagante» e «compito». L'obiettivo del grande

studioso consiste, dunque, nel mettere in luce come il circolo definizionale sia virtuoso e quindi

foriero di una nuova comprensione del concetto di «organizzazione» in sé. In breve, sviscerare

questa definizione ci condurrà in un territorio misterioso. In parte, l'enigma riguarda la risposta ad

un interrogativo preciso: quale è la forma matematica opportuna per descrivere un agente

autonomo? Si tratta di un numero, e quindi di uno scalare? Di un elenco di numeri, e quindi di un

vettore? Di un tensore? Secondo Kauffman la risposta è negativa poiché quello di agente autonomo

è un concetto relazionale. Le cellule viventi, infatti, appaiono ineluttabilmente come totalità

organizzate. Una cellula non è un singolo tipo di molecola che replica se stessa, bensì una ricca

trama di eventi molecolari mediante i quali quella totalità propaga «riduzioni approssimative di se

stessa». Esiste poi il metabolismo, vi è l'attività di comprensione, traduzione ed innovazione di

diversi linguaggi che interagiscono incessantemente tra loro come, ad esempio, quello del DNA,

quello relativo ai vari RNA ed infine quello delle proteine dove il codice stesso è mediato dagli

enzimi di attivazione (aminoaciltrasferasi) che caricano sulle opportune molecole di tRNA gli

aminoacidi corretti al fine di tradurre il codice, un codice, vale a dire, capace di creare gli enzimi

aminoaciltrasferasi stessi. Nella cellula, inoltre, c'è il «fruscio» di energia che fluisce

simultaneamente dentro, e attraverso, quelle che potremmo definire come vie labirintiche principali

e secondarie che collegano la degradazione di fonti a elevata energia alla sintesi di prodotti che

richiedono l'aggiunta di energia libera. «Una cellula vivente è, a un esame, [...] un sistema

collettivamente auto-catalitico. Nessuna specie molecolare da sola produce copie di se stessa. Che

cos'è questa totalità? E poi, l'olismo è necessario? Di che cosa necessita quell'intricata trama della

rete molecolare che appare come l'anima stessa di una cellula? In qualsiasi teoria dei geni nudi

replicanti, come la concezione standard di un polinucleotide replicante, sia esso senza enzimi

oppure una RNA polimerasi alla Szostak che bisbiglia felicemente tra sé e sé,

«AAUGGCCAAUCCCC... .», la virtù è nell'apparente semplicità dei primi passi della vita. Fate sì

che la nuda molecola capace di replicare se stessa esista e altrove prenderà forma una biosfera.

Rimane però irrisolta la questione dell'origine della trama olistica di una cellula e, faccenda più

critica, se la rete è essenziale. Mi spiego. I sistemi viventi autonomi più semplici, i pleuromonia

(PPLO), una specie batterica semplificata che infesta i polmoni delle pecore, già possiedono una

membrana, un DNA, un codice, forse trecento geni assortiti, un congegno per la trascrizione e la

traduzione, un metabolismo e un collegamento dei flussi di energia verso e attraverso l'interno. Un

pregio della teoria del gene nudo è l'origine semplice della vita. Un suo difetto è che non sa

rispondere alla domanda: perché le cellule libere hanno una complessità apparente minima?

Suppongo che una complessità minima sia reale. Assemblare una varietà sufficiente di funzioni

molecolari che lavorino di concerto dando vita a una creatura essenziale, capace di riprodursi e di

evolvere verso una complessità superiore, potrebbe richiedere una complessità minima. Evolversi

da un simile antenato comune verso la complessità crescente di una biosfera potrebbe richiedere una

varietà di funzionalità iniziali. Tant'è che persino il matematico J. von Neumann ritenne anni

addietro che una complessità minima sia necessaria per creare un sistema capace di riprodursi e di

arricchire quella complessità.»13 La forza della teoria degli insiemi auto-catalitici, così come

divisata da Kauffman, risiede proprio nel fatto di condurre naturalmente ad attenderci un

ineluttabile olismo di complessità minima: «In un insieme autocatalitico tutte le molecole la cui

formazione deve essere catalizzata trovano all'interno dell'insieme medesimo la specie molecolare

che catalizza le reazioni della loro formazione. Tutte le funzioni catalitiche vengono svolte di modo

che l'insieme sia collettivamente autocatalitico. Non si tratta di un olismo mistico, ma di una

proprietà reale, osservabile, di un insieme di molecole collettivamente autocatalitico. La nuova

radicale concezione della vita cui aderisco è che la vita si fondi su un insieme di molecole

collettivamente autocatalitico, e non sulla replicazione a stampo in sé. [...] Da quando Watson e

Crick hanno scoperto la simmetria dello stampo del DNA a doppia catena, tutti hanno compreso

come una molecola copia se stessa. Ma le proteine? Questa classe di molecole si ripiega in compatte

strutture tridimensionali, l'emoglobina per esempio. Come potrebbe un meccanismo copiare quella

struttura? Ebbene, risulta difficile se lo scopo è copiare la struttura dell'emoglobina in un unico

passaggio. Ma se vengono saldate sottosequenze della proteina e si costruisce l'intera sequenza da

suoi frammenti? E che dire della possibilità concettuale di un insieme collettivamente autocatalitico

basato interamente su proteine che catalizzano reciprocamente la propria formazione attraverso una

qualche stima di reazioni di saldatura?»14

M. R. Ghadiri e colleghi hanno realizzato la prima stupefacente scoperta in questo senso.

Nell'articolo del 1996 dal titolo: A self-Replicating Peptide, infatti, questi chimici operanti allo

Scripps Research Institute hanno pubblicato il primo esempio di proteina auto-riproduttiva.

L'esperimento è stato il seguente. Sia A una sequenza lunga 32 aminoacidi la quale catalizza la

formazione di una copia di se stessa allineando e saldando due propri frammenti. La sequenza di 32

aminoacidi si ripiega in un Ü-elica, che a sua volta si ripiega su se stessa creando una struttura a

superelica. Ghadiri ha congetturato che, ripiegandosi l'Ü-elica su se stessa e legandosi perciò a se

stessa, la medesima sequenza poteva legare due propri frammenti. Per fornire l'energia utile a

guidare la formazione del legame peptidico tra i frammenti adiacenti, lo studioso è ricorso ad uno

stratagemma chimico: ha fatto sì che un primo frammento fosse elettrofilo (E) e un secondo

nucleofilo (N). Il grande chimico, inoltre, ha definito templato (T) il peptide a 32 aminoacidi. A

questo punto abbiamo che T allinea E ed N adiacenti a se stesso e catalizza la saldatura di E e di N,

creando una seconda copia di T.15 L'esperimento è riuscito brillantemente. Ghadiri e colleghi

hanno dimostrato che la vita potrebbe essere basata solo su proteine. Ebbene, lo stesso gruppo di

studiosi, in un lavoro successivo ha creato un «brodo» composto da peptidi T, E ed N simili. Qui,

un templato specifico T1 poteva catalizzare non solo la saldatura di E1 e di N1 formando così una

seconda coppia di T1, bensì poteva anche catalizzare la saldatura di E2 e di N2 per formare T2. A

sua volta, T2 poteva agire non solo su E2 ed N2, ma anche su N1 ed E1, o su altre combinazioni di

frammenti E ed N.16 Alla luce di quanto detto sinora, dunque, Kauffman così scrive:

«Riassumendo, tra le possibilità già dimostrate vi sono reti di reazioni di modesta complessità,

costituite da peptidi auto-catalitici e a catalisi incrociata. Per esempio A potrebbe catalizzare la

propria formazione come pure la formazione di B, mentre B potrebbe catalizzare la propria, di

formazione, e anche quella di A, in una struttura catalitica che nel 1977 il premio Nobel Manfred

Eigen ha definito con Peter Schuster iperciclo. Ghadiri e collaboratori hanno pubblicato il primo

esempio di iperciclo peptidico. Una rete collettivamente autocatalitica, dove A e B catalizzano

mutuamente la propria formazione, ma né A né B lo fanno direttamente, non è ancora stata ottenuta,

ma lo sarà presumibilmente in un futuro prossimo. [...] Gli esperimenti di Ghadiri aprono la strada

al lavoro su sistemi molecolari auto-riproduttivi in reti complesse di reazioni chimiche dove i

substrati e i prodotti sono tutti peptidi. Il campo della diversità molecolare, vale a dire la

generazione di trilioni di sequenze più o meno casuali di DNA, di RNA e di proteine, significa che

possiamo creare reti di reazioni complesse a volontà. Poiché DNA, RNA e proteine possono tutti

legarsi a, e presumibilmente anche a catalizzare, reazioni che coinvolgono altre classi di polimeri,

nulla impedisce di andare a caccia di sistemi auto-catalitici e collettivamente autocatalitici di DNA,

di RNA e di specie proteiche, tutti insieme. [...] Se Ghadiri può costruire un peptide autocatalitico o

una rete di reazioni peptidiche collettivamente autocatalitica, non possono tali sistemi assemblarsi

per caso? Forse che la vita è prefigurata nelle leggi di tutto questo? Io intendo proporre una

concezione ancora allo stadio di teoria, secondo cui la vita, come le rozze bestie di Yeats, striscia

verso Betlemme per essere partorita -- nascita virginale di tutti noi. Desidero sostenere che la vita è

una proprietà attesa, emergente, di reti complesse di reazioni chimiche. In condizioni piuttosto

generali, al crescere della diversità di specie molecolari in un sistema di reazioni, viene attraversata

una transizione di fase, superata la quale diventa pressoché inevitabile la formazione di insiemi di

molecole collettivamente autocatalitici. Se così, siamo figli della diversità molecolare, figli delle

stelle di seconda generazione.»17 Secondo questa visione dunque la vita è copiosa, è emergente, è

attesa, un fenomeno, vale a dire, che si dispiega misteriosamente all'interno di un universo creativo.

Se tale prospettiva è corretta, quindi, l'emergenza di insiemi autocatalitici non è difficile, ma

relativamente facile. Agli occhi di Kauffman, infatti, è necessario un modo per assemblare varietà

di RNA, di proteine o di altri substrati (o catalizzatori potenziali) per tenerli in prossimità affinché

non si allontanino per diffusione da un contatto reciproco efficace, e che, infine, il caso ed i numeri

compiano la «magia». Tuttavia, se in A casa nell'universo il grande studioso riteneva che la

chiusura auto-catalitica fosse la proprietà fondamentale della vita anche perché permetteva di

spiegare la misteriosa evoluzione dalle strutture pre-biotiche alle cellule evolute (con DNA, RNA e

proteine), in Esplorazioni Evolutive, invece, la sua posizione appare molto più cauta. «[...] La vita è

una proprietà emergente attesa di reti complesse di reazioni chimiche. Bisogna tuttavia essere

prudenti. In primo luogo, dobbiamo sapere se il nostro calcolo approssimativo su una semplice pcat

è robusto. Parrebbe di si. Per una serie di ipotesi circa la distribuzione di attività catalitiche tra

insiemi di molecole, e una serie di ipotesi sulla struttura statistica dei grafi delle reazioni, quando si

manifesta una diversità critica gli insiemi autocatalitici tendono a emergere. Ma andiamoci cauti: è

necessario ulteriore lavoro teorico e, soprattutto in questa fase, molto lavoro sperimentale ancora. In

secondo luogo anche nel caso che la teoria precedente fosse vera, non abbiamo ancora parlato

dell'emergenza di un metabolismo che risolva il problema termodinamico: cioè il problema di

guidare la sintesi rapida di specie molecolari sopra le rispettive concentrazioni all'equilibrio

collegando tale sintesi alla liberazione di energia attraverso la demolizione di altre specie chimiche.

Le reazioni chimiche che liberano energia vengono definite esoergoniche e, viceversa,

endoergoniche quelle che richiedono energia chimica. Le cellule viventi connettono reazioni

endoergoniche e reazioni esoergoniche al fine di produrre concentrazioni elevate di molte specie

molecolari. [...] Il legame tra reazioni esoergoniche ed endoergoniche si rivela infatti essenziale

nella definizione di agente autonomo, quella misteriosa concentrazione di materia, di energia, di

informazione, e di quel qualcosa in più che chiamiamo vita. In breve, io sosterrò che auto-catalisi e

riproduzione molecolare sono si necessarie per la vita, ma non ancora sufficienti. La vita possiede

realtà più profonde, e ancora più misteriose, di quell'autocatalisi che siamo andati esplorando [...]

.»18 Ebbene, nel tentativo di sondare l'essenza misteriosa della vita, dunque, Kauffman cerca ora di

esplorare più in profondità la circolarità insita nella definizione stessa di agente autonomo,

prendendo le mosse dalla pietra angolare della termodinamica: il ciclo di Carnot.

Carnot, nel volume dal titolo: Riflessioni sulla potenza motrice del fuoco, si dedicò alla

comprensione degli elementi fondamentali dell'estrazione di lavoro meccanico da fonti di energia

termica. Il risultato dei suoi sforzi fu l'analisi di un dispositivo ideale per ricavare lavoro meccanico

dal calore, il ciclo di Carnot.19

Figura 1

La figura 1 illustra gli elementi essenziali della macchina ideale di Carnot, la quale è costituita da

due serbatoi di calore di cui uno più caldo dell'altro, T1 > T2. Tra i due serbatoi è collocato un

cilindro contenente un pistone. Lo spazio tra la parte superiore del pistone e la testa del cilindro è

riempito da un gas che «compie lavoro ideale», che può essere compresso e può espandersi. Un gas

reale (e a maggior ragione un gas ideale) una volta compresso si riscalda e, viceversa, una volta

espanso si raffredda. Kauffman modifica la macchina di Carnot per un aspetto centrale il quale

rende esplicito, senza alterarlo, un carattere importante dell'attività reale della macchina stessa: egli,

infatti, attacca una manopola al cilindro. Sarà un soggetto esterno, quindi, a far funzionare la

macchina. Il ciclo di Carnot inizia con il pistone compresso in alto, quasi alla sommità del cilindro,

e con il gas compresso e caldo, come la temperatura elevata T1. Se si tira la manopola, quest'ultima

farà scivolare il cilindro (privo di attrito) a contatto con il serbatoio a temperatura elevata T1. A

questo punto, allora, se si lascia la manopola, il gas si espande nel cilindro spingendo così il pistone

in basso, lontano dalla testa del cilindro. Questa è la prima parte della corsa di lavoro della

macchina di Carnot. Quando ha inizio la corsa di lavoro il gas si espande e comincia a raffreddarsi.

Tuttavia, poiché il cilindro è a contatto con il serbatoio termico caldo, il calore fluisce nel cilindro

da T1 e mantiene il gas praticamente alla temperatura costante T1. In realtà, se si opera sulla

macchina di Carnot con adeguata lentezza, la temperatura rimane costante: un'operazione lenta

viene definita reversibile. Se, invece, si opera sulla macchina più rapidamente (irreversibilmente) la

temperatura viene mantenuta pressoché costante lungo questa fase della corsa di lavoro che viene

definita «fase di espansione isotermica» del ciclo di Carnot. Kauffman raffigura lo stato del sistema

or ora accennato in un sistema di coordinate cartesiane dove l'asse delle ascisse corrisponde al

volume del gas e l'asse delle ordinate alla sua pressione (figura 2).

Figura 2

Il ciclo ha avuto inizio con il pistone prossimo all'estremità del cilindro, con il gas caldo e

compresso. Quando avviene la fase di espansione la pressione diminuisce leggermente mentre il

volume aumenta sensibilmente. Il segmento corrispondente del ciclo collega la posizione di

partenza (posizione1), alla posizione 2 per mezzo di un segmento che rappresenta i valori

simultanei di volume e pressione durante la fase di espansione isotermica della corsa di lavoro. La

seconda fase della corsa di lavoro, invece, ha inizio spingendo la manopola e allontanando il

cilindro dal serbatoio caldo T1 per collocarlo in una posizione intermedia tra i due serbatoi senza

che venga a contatto con nessuno dei due. Se si lascia improvvisamente la manopola, il gas

continuerà ad espandersi spingendo in basso il pistone allontanandolo dalla testa del cilindro.

Tuttavia, dato che il cilindro non è a contatto con T1 e il gas si sta espandendo divenendo altresì

percettibilmente più freddo, la pressione diminuirà notevolmente mentre il volume aumenterà

leggermente. Questa fase della corsa di lavoro viene definita da Carnot espansione adiabatica. La

fase di espansione adiabatica sposta il sistema dalla fase 2 alla fase 3, la fase finale della corsa di

lavoro, ovvero un punto in cui la pressione raggiunge il livello minimo mentre il volume del gas è al

punto massimo del ciclo. Per far ritornare la macchina di Carnot allo stato iniziale1 così che il gas

possa nuovamente espandersi e compiere lavoro meccanico sul pistone, deve essere svolto del

lavoro sul motore per riportare il pistone alla sua posizione vicina alla testa del cilindro

ricomprimendo e scaldando di nuovo il gas in modo tale che i suoi valori di temperatura e pressione

(il suo stato) corrispondano allo stato1 (figura 2). «La macchina di Carnot, come tutte le macchine

termiche, invece di ripercorrere la via della corsa di lavoro ricorre ad un semplice stratagemma.

Sarete voi a farlo: alla fase3, la terminazione della corsa di lavoro, afferrate la manopola, spingendo

così il cilindro a contatto con il serbatoio a bassa temperatura T2. Voi infatti avete disposto le cose

in modo che alla fine della corsa di lavoro il gas sia anch'esso alla temperatura più bassa T2. Adesso

che il cilindro è a contatto con T2, girate attorno alla base del cilindro, dove una robusta manopola è

attaccata al pistone e si protende oltre la base del cilindro. Spingete la manopola, che spingerà il

pistone verso l'alto nel cilindro e comprimerà così il gas. Mentre effettuate questo lavoro sul

pistone, il gas in fase di compressione tende a scaldarsi. Ma, grazie al contatto con il serbatoio a

bassa temperatura, il calore generato dalla compressione nel gas si diffonde nel serbatoio freddo T2,

mantenendo il gas solo leggermente più caldo di T2. Così facendo, il volume diminuirà

apprezzabilmente, mentre la pressione aumenterà leggermente. Il punto chiave dello stratagemma è

che è necessario meno lavoro per comprimere un gas che rimane freddo che non un gas che si

riscalda. Poiché il gas viene mantenuto ad una temperatura pressoché costante T2, questa fase della

corsa di compressione viene definita compressione isotermica, e sposta il sistema nel suo spazio

degli stati pressione-volume dalla posizione 3 alla posizione 4. Alla fine della fase di compressione

isotermica, siete ancora voi a entrare in scena: tirate la manopola, allontanando il cilindro dal

contatto con il serbatoio freddo T2 in una posizione tra T2 e T1, senza che esso sia a contatto né con

l'uno né con l'altro. A quel punto, spingete un'altra volta la manopola collegata al pistone,

comprimendo ulteriormente il gas. A causa della compressione del gas e al fatto che non è in

contatto con il serbatoio T1 freddo, il gas si riscalda e la pressione aumenta sensibilmente mentre il

volume diminuisce appena, e intanto il gas viene compresso finché si raggiunge lo stato iniziale del

gas compresso caldo, la fase1. Adesso, il ciclo è completato. [...] Ho sottolineato il ruolo vostro e

della manopola in questo cammino attraverso il ciclo. È chiaro che in una macchina reale il ruolo

della manopola è svolto da vari ingranaggi, bielle, scappamenti e altri congegni meccanici che

rivestono un ruolo essenziale: la manopola e voi, oppure gli ingranaggi, le bielle e gli scappamenti,

organizzano letteralmente il flusso del processo ricorrente. Ritornerò su questa organizzazione del

flusso del processo in una macchina o in un agente autonomo. Il ciclo di Carnot è coinvolto nel

rilascio organizzato di energia termica per ottenere lavoro meccanico ricorrente. L'organizzazione

del lavoro è essenziale -- e sarà centrale -- per riflettere su quanto accade in un agente autonomo.

Infatti, a noi serve anche un modo per caratterizzare l'organizzazione di processi reali nel mondo in

non equilibrio. Non credo che disponiamo già di un concetto adeguato di organizzazione.»20 Il

ciclo di Carnot, dunque, opera in un ciclo, come fanno un motore a vapore, un motore a benzina ed

un motore elettrico, poiché, completato un ciclo, il sistema totale viene riportato allo stato iniziale

dell'avvio del ciclo: l'organizzazione del processo, quindi, ritorna alla configurazione iniziale da cui

il sistema potrà eseguire ancora una volta un ciclo. «[...] L'organizzazione ciclica dei processi nella

macchina di Carnot, in quella a vapore, a gas, oppure in quella elettrica, realizza l'organizzazione

richiesta proprio perché il sistema opera come un processo ciclico.»21

Una seconda questione su cui, agli occhi di Kauffman, è opportuno riflettere riguarda un aspetto

ben conosciuto della macchina di Carnot. «Se la sequenza di stati viene percorsa in direzione

contraria, così che la macchina venga attivata dallo stadio 1 allo stadio 4 allo stadio 3, e poi al 2 e di

qui all'1, la macchina di Carnot non si comporta affatto da pompa, ma piuttosto da frigorifero.

Attivata in direzione contraria, la macchina di Carnot usa il lavoro meccanico per pompare calore

dal serbatoio freddo T2 al serbatoio caldo T1, raffreddando T2. [...] Gli aspetti che meritano di

essere considerati sono quindi due: il primo è che la stessa macchina, la macchina di Carnot, può

essere sia pompa che frigorifero. Dipende dalla sequenza delle operazioni. [...] Sostanzialmente, la

stessa macchina può eseguire due funzioni, o compiti, molto differenti: pompare in un caso e

raffreddare nell'altro.»22 Il terzo punto individuato da Kauffman concerne processi spontanei e

processi non spontanei. Sono stati necessari più di cinquant'anni dagli studi di Carnot per iniziare a

comprendere veramente la termodinamica e per inventare la meccanica statistica che collega

termodinamica e meccanica newtoniana. Alcuni processi si verificano spontaneamente mentre altri

processi plausibili no. Per esempio, se un gas caldo viene messo a contatto con un gas freddo, i due,

a tempo debito, avranno la stessa temperatura: il calore, infatti, si diffonde spontaneamente

dall'oggetto caldo a quello freddo, raffreddando il primo e scaldando il secondo. In meccanica

statistica la concezione comune di «caldo» corrisponde ad atomi in movimento rapido, ovvero con

la nozione di energia cinetica elevata. Quando questi atomi interagiscono con atomi più lenti le

collisioni trasferiscono energia cinetica a questi ultimi accelerandoli e provocando così il

rallentamento dei primi. Con il passare del tempo gli atomi appartenenti ai due insiemi arriveranno

ad avere la stessa distribuzione statistica dei moti e quindi la stessa energia cinetica, vale a dire la

stessa temperatura. La seconda legge della termodinamica, come tutti sanno, stabilisce che

l'entropia di un sistema è costante oppure cresce. L'interpretazione moderna dell'entropia può essere

formulata grossomodo ricorrendo al concetto di spazio delle fasi 6n-dimensionali. Si consideri un

sistema chiuso e isolato, per esempio un gas ideale in un termos. Si ipotizzi, inoltre, che nel termos

vi siano n particelle di gas . Ebbene, ogni particella sarà in movimento nello spazio tridimensionale

reale; allora, sarà possibile scegliere un sistema di coordinate tridimensionali arbitrario con

lunghezza, larghezza e altezza (x, y, z). E risulta possibile anche rilevare la posizione di ogni

particolare particella nel termos in ciascun istante per ciascuna delle tre coordinate di posizione.

Ogni particella, oltre ad avere una posizione, potrebbe essere in movimento, potrebbe avere una

velocità e una quantità di moto associate a qualche direzione nel termos. Ricorrendo alle regole

della composizione vettoriale delle forze di Newton è possibile scomporre il movimento della

particella reale nei suoi movimenti nelle direzioni x, y e z. «La quantità di moto in ciascuna di

queste direzioni è proprio la massa della particella moltiplicata per la sua velocità in quella

direzione. La regola della composizione vettoriale di Newton afferma che possiamo risalire al moto

della particella iniziale costruendo l'evidente parallelogramma che ricompone di nuovo i vettori

della velocità o della quantità di moto sugli assi x, y, z. Allora, di ciascuna particella, possiamo

rappresentare con 6 numeri la posizione e la quantità di moto in tre direzioni dello spazio. Nel

termos ci sono n particelle, e possiamo pertanto rappresentare la loro posizione e quantità di moto

effettiva in ogni istante con 6n numeri. Combinazioni differenti di posizioni e velocità

corrispondono adesso ad insiemi differenti di 6n numeri. E, se le n particelle nel termos si urtano e

si scambiano le quantità di moto, rimbalzando in nuove combinazioni di direzioni con nuove

combinazioni di velocità in accordo con le tre leggi del moto di Newton, i 6n numeri che

rappresentano il sistema in ogni istante cambieranno nel tempo attraverso una successione di 6n

numeri. Se consideriamo tutti i possibili valori di posizione e di velocità delle n particelle nel

termos, quell'insieme di valori possibili è lo spazio delle fasi 6n-dimensionale del nostro

sistema.»23 Il sistema, quindi, inizia da qualche singola combinazione di 6n numeri, cioè da un

singolo stato nello spazio delle fasi. Nel tempo, al variare delle posizioni e delle quantità di moto, i

6n numeri variano e il sistema fluisce verso una traiettoria nello spazio delle fasi. Alla luce di

quanto detto sinora, dunque, Kauffman così scrive: «La seconda legge, nella sua interpretazione

moderna, è semplicemente l'enunciato secondo cui un sistema termodinamico isolato tenderà a

fluire lontano da macrostati improbabili -- corrispondenti a pochissimi dei nostri cubetti

microscopici 6n-dimensionali -- e fluirà e trascorrerà la maggior parte del tempo nel macrostato

all'equilibrio per l'ottima ragione che quel macrostato corrisponde ad un numero enorme di piccoli

cubi 6n nell'intero spazio delle fasi 6n-dimensionale. Nella seconda legge, l'aumento di entropia è

semplicemente la tendenza dei sistemi a fluire da macrostati meno probabili a macrostati più

probabili.»24 A partire dall'Ottocento, grazie al decisivo contributo di Boltzmann, il concetto fisico

di entropia di un macro stato viene concepito come proporzionale al logaritmo del numero di cubetti

6n-dimensionali che corrispondono a quel macrostato. L'aumento di entropia in processi spontanei è

allora la tendenza a fluire da macrostati costituiti da un numero esiguo di cubi 6n-dimensionali, o

microstati, a macrostati costituiti da moltissimi microstati. Stando così le cose, dunque, il passo

successivo compiuto da Kauffman nella riflessione sugli agenti autonomi consiste nel fatto di

considerare il concetto di «spazio delle attività catalitiche» ed il carattere degli «insiemi auto-

catalitici» nel contesto dello spazio delle attività catalitiche. «Dovremo considerare uno spazio delle

forme limitato con valori massimi e minimi per ciascun asse. Una forma è un punto nello spazio

delle forme e dunque un carattere molecolare su un antigene virale, un epitopo, è un punto nello

spazio delle forme. Un anticorpo potrebbe legarsi a quell'epitopo e a una famiglia di forme simili

che riempiono una sfera nello spazio delle forme. [...] Molecole molto differenti possono avere la

stessa forma, e allora l'endorfina e la morfina si legheranno allo stesso recettore, il recettore

dell'endorfina. Un numero finito di palle ricoprirà lo spazio delle forme e un repertorio immunitario,

forse nell'ordine di un centinaio di milioni di anticorpi, potrebbe benissimo ricoprire lo spazio delle

forme.»25 Secondo Kauffman lo spazio delle attività catalitiche si limita ad applicare il concetto di

spazio delle forme alla catalisi. Un punto nello spazio delle attività catalitiche rappresenta dunque

un'attività catalitica. «Una certa reazione chimica costituisce un'attività catalitica. Come nello

spazio delle forme, reazioni simili costituiscono attività catalitiche simili. Come nello spazio delle

forme, reazioni differenti possono costituire essenzialmente la stessa attività catalitica. Un enzima

copre una certa palla nello spazio delle attività catalitiche, che comprende l'insieme di reazioni che

essa può catalizzare. E, come rilevato in precedenza e in accordo alla teoria dello stato di

transizione, un'attività catalitica corrisponde ad un catalizzatore che si lega alla configurazione

molecolare distorta, e perciò a elevata energia, corrispondente allo stato di transizione di una

reazione con elevata affinità e che lega gli stati del substrato e del prodotto con affinità, in generale,

inferiore.»26 E'quindi possibile domandarsi: in termini di spazio delle attività catalitiche, che cos'è

un insieme collettivamente autocatalitico? Vediamo un esempio semplice. Due peptidi A e B

formano un insieme collettivamente autocatalitico se A catalizza la formazione di B da due

frammenti di B, e B catalizza la formazione di A da due frammenti di A. Si Considerino allora due

palle nello spazio delle attività catalitiche: la prima palla, coperta da A, costituisce l'attività

catalitica in cui due frammenti di B sono saldati per formare B; la seconda palla, coperta da B,

costituisce l'attività catalitica nello spazio delle attività in cui due frammenti di A sono saldati e

formano A. «Il primo carattere di un insieme collettivamente autocatalitico è quello che definisco

chiusura catalitica. Ogni reazione che deve trovare un catalizzatore lo trova. La formazione di A

richiede B e la formazione di B richiede A. È importante sottolineare che questa chiusura nello

spazio delle attività catalitiche non è locale, perché non vi è una singola reazione in questo insieme

collettivamente autocatalitico che costituisca in sé la chiusura in questione. Chiaramente, la

chiusura catalitica è una proprietà del sistema nella sua totalità. Un secondo aspetto da sottolineare è

che A e B, in quanto catalizzatori, non costituiscono in sé la chiusura in questione; A e B potrebbero

catalizzare una varietà di reazioni. [...] In breve la chiusura delle attività catalitiche richiede la

specificazione delle attività catalitiche stesse insieme con i substrati specifici i cui prodotti, in

questo caso A e B, costituiscono i catalizzatori veri e propri che eseguono le attività catalitiche in

questione. La chiusura di un insieme autocatalitico e di un insieme di attività catalitiche manifesta

una sorta di dualismo. Dal punto di vista delle molecole implicate, le attività catalitiche specifiche

costituiscono le grandi vie di liberazione dell'energia chimica mediante cui il sistema molecolare

riproduce se stesso. Le attività coordinano il flusso di atomi tra le molecole mediante cui l'insieme

riforma se stesso. Dal punto di vista delle attività le specie molecolari riescono ad eseguire le

attività ripetutamente, senza che ulteriori specie molecolari siano necessarie per eseguire le attività.

Le molecole eseguono le attività, le attività coordinano, ovvero organizzano, i processi tra le

molecole. [...] L'organizzazione realizzata dalla chiusura delle attività catalitiche è simile

all'organizzazione ottenuta dagli ingranaggi e dagli scappamenti di concerto al resto della macchina

ideale di Carnot. Il flusso del processo è disposto in un tutto organizzato. Nel caso dell'insieme

autocatalitico, quest'ultimo riproduce se stesso. Merita inoltre sottolineare che questa chiusura nello

spazio delle attività catalitiche è un concetto nuovo che possiede un significato fisico reale. È un

dato di fatto oggettivo se un sistema di reazioni fisico realizza o meno la chiusura catalitica; il

precedente ipotetico sistema AB e qualsiasi cellula autonoma realizzano una chiusura catalitica.»27

Per giungere alla definizione provvisoria di agente autonomo precedentemente accennata, però,

secondo Kauffman, occorre riflettere in modo ancora più approfondito su un preambolo: la

distinzione, già rilevata, tra reazioni chimiche spontanee (esoergoniche) e non spontanee

(endoergoniche). «Tutte le reazioni chimiche spontanee, se non sono accoppiate ad alcun'altra fonte

di energia, sono esoergoniche. Per contro, se qualche altra fonte di energia libera viene accoppiata

alla reazione, quest'ultima può essere spinta oltre l'equilibrio utilizzando parte della fonte di

energia. Le reazioni che vengono spinte oltre l'equilibrio per aggiunta di energia libera sono definite

endoergoniche. Perciò X potrebbe convertirsi in Y e questa reazione potrebbe essere accoppiata ad

un'altra fonte di energia libera, così che la concentrazione di Y allo stato stazionario sia molto

superiore a quella del rapporto normale tra X e Y all'equilibrio.»28

Nel ciclo di Carnot, come abbiamo ampiamente mostrato in precedenza, il completamento del ciclo

vedeva coinvolto il sistema cilindro-pistone che eseguiva lavoro esoergonico sul mondo esterno

durante la corsa di lavoro e vedeva poi il mondo esterno eseguire lavoro sul sistema cilindro-pistone

nel momento in cui veniva esercitata una pressione sul pistone per comprimere il gas. «Il ciclo di

Carnot collega fonti di energia meccanica e di energia termica in un ciclo. Una rete di reazioni

chimiche con un ciclo dovrà collegare reazioni spontanee, esoergoniche, e reazioni non spontanee,

endoergoniche, nell'analogo chimico di un ciclo. Al pari della macchina ciclica di Carnot, l'analogo

chimico dovrà lavorare in un ciclo di stati, come il ciclo 1, 2, 3, 4, 1 del ciclo di Carnot. Inoltre,

affinché il ciclo operi con una velocità finita, e quindi irreversibilmente, l'agente autonomo deve

essere un sistema termodinamico aperto spinto da fonti esterne di materia o di energia -- quindi cibo

-- e la spinta continua del sistema da parte di tale cibo mantiene il sistema lontano

dall'equilibrio.»29 (Figura 3).

Figura 3

Stando così le cose, dunque, in accordo con Kauffman, risulta possibile riconsiderare sotto questa

luce il sistema autocatalitico di Ghadiri; la sequenza di 32 aminoacidi A che salda due frammenti,

A'di quindici aminoacidi, e A? di 17 aminoacidi, per formare A. Questa reazione è puramente

esoergonica, procede dai frammenti substrato A'e A? per formare la molecola prodotto A, e si

approssima al rapporto di equilibrio substrati/prodotto. «Il sistema autocatalitico di Ghadiri è

magnifico, ma puramente esoergonico: non produce un ciclo. In generale, sistemi autocatalitici e

collettivamente autocatalitici possono essere puramente esoergonici. In qualsiasi caso del genere,

non si realizza alcun ciclo. A questo punto, possiamo ritornare alla mia definizione buttata lì: un

agente autonomo è un sistema riproduttivo che esegue almeno un ciclo di lavoro termodinamico.

Quel batterio, remando contro il gradiente di glucosio, con il flagello che si dimena in cicli di

lavoro, si danna per farlo, riproducendosi ed eseguendo uno o più cicli di lavoro. E lo fanno anche

le cellule autonome e gli organismi. Noi, come puro fatto, colleghiamo processi spontanei e non

spontanei in percorsi interattivi dai complessi intrecci, che attuano la riproduzione e i cicli di lavoro

persistenti mediante cui agiamo sul mondo. I castori costruiscono davvero le dighe, eppure questi

animali sono meri sistemi fisici. Tuttavia, l'esempio del peptide autocatalitico proposto da Reza

Ghadiri non si dimostra all'altezza e nemmeno l'esamero autocatalitico di DNA di Günter von

Kiedrowski o l'insieme collettivamente autocatalitico di due esameri di DNA. Tutti questi sistemi

sono esclusivamente esoergonici e non viene eseguito alcun ciclo.»30 Una volta enunciata la

definizione, dunque, il grande studioso americano prosegue la sua argomentazione ipotizzando la

realizzazione di un agente autonomo molecolare (figura 4).

Figura 4

Tale figura è costruita per connettersi con altri due sistemi molecolari, il sistema esoergonico

autocatalitico sviluppato da G. von Kiedrowski basato sulla saldatura di due trimeri di DNA da

parte del loro esamero complementare. Qui l'esamero è semplificato come 3'CCCGGG5'e i due

trimeri complementari sono 5'GGG3'+ 5'CCC3'. Questa reazione, lasciata ai propri meccanismi, è

esoergonica e, in presenza di trimeri in eccesso rispetto al rapporto all'equilibrio tra esamero e

trimeri, è Kauffman che parla, fluirà esoergonicamente verso l'equilibrio mediante la sintesi

dell'esamero. Dato che l'esamero è a sua volta catalizzatore della reazione, la sintesi dell'esamero è

autocatalitica. Il primo sistema aggiunto è il pirofosfato PP, un dimero ad alta energia di

monofosfati che si scinde per formare due monofosfati P + P. Come qualsiasi reazione, la reazione

che converte PP in P + P ha un proprio equilibrio, e quindi un rapporto di equilibrio tra PP e P. In

presenza di PP in eccesso rispetto all'equilibrio, la reazione fluisce verso l'equilibrio mediante

scissione spontanea di PP, da cui si ottiene P + P.31 «Io mi richiamo alla conversione esoergonica

di PP in P + P al fine di utilizzare la perdita di energia libera in questa reazione esoergonica per

guidare la reazione trimeri-esamero di DNA oltre il suo equilibrio, determinando così una sintesi in

eccesso rispetto 3'CCCGGG5'rispetto alla sua concentrazione di equilibrio. Pertanto, la sintesi in

eccesso dell'esamero, che non si manifesterebbe spontaneamente, è guidata endoergonicamente

essendo accoppiata alla scissione esoergonica di PP in P + P. In breve, la rottura esoergonica di PP

in P + P fornisce l'energia libera per guidare l'accumulo in eccesso della concentrazione di

3'CCCGGG5'oltre il proprio equilibrio rispetto ai propri substrati, i trimeri 5'GGG3'e 5'CCC3'. La

sintesi in eccesso di 3'CCCGGG5'costituisce la riproduzione in eccesso del prodotto della reazione

autocatalitica dell'esamero oltre quella che si verificherebbe senza l'accoppiamento con la fonte di

energia libera aggiuntiva PP. Il sistema allora si riproduce meglio accoppiandosi a PP che non

accoppiandosi. [...] Una volta che il pirofosfato PP viene scisso e forma P + P, al fluire di questa

reazione verso il rapporto di equilibrio tra PP e P, quell'energia libera viene consumata. Per avere

una fonte interna rinnovata di energia libera necessaria per sintetizzare esamero in eccesso, è

conveniente risintetizzare il pirofosfato dai due monofosfati P + P'. [...] In un'accezione generale la

convenienza riflette l'organizzazione dei processi che alimenta un agente, ma quell'organizzazione

non è conveniente, è essenziale.»32 La sintesi di PP da P + P richiede l'aggiunta di energia libera. A

questo punto si deve aggiungere energia per risintetizzare PP da P + P. Per fare ciò, Kauffman

chiama in causa una fonte addizionale di energia libera, l'elettrone e che assorbe un fotone hv, che

viene così spinto endoergonicamente in uno stato eccitato e* e ricade esoergonicamente verso il

proprio stato a bassa energia in una reazione accoppiata alla sintesi di PP da P + P. «Il punto di

questa terza coppia di reazioni è chiaro: PP viene sintetizzato da P + P, così che PP possa continuare

a guidare la sintesi in eccesso dall'esamero di DNA 3'CCCGGG5'. Complessivamente, il sistema di

reazioni collegate è esoergonico. Avviene cioè una perdita complessiva di energia libera fornita a

conti fatti dal fotone entrante hv, oltre che da i due substrati 5'GGG3'e 5'CCC3'. Quindi non stiamo

sfuggendo alla seconda legge della termodinamica.»33 Torniamo per un attimo al ciclo di Carnot, in

particolare nella fase in cui Kauffman aveva fatto spingere e tirare la manopola ed il pistone ad un

soggetto esterno durante il ciclo. Come abbiamo già accennato, in una macchina reale il ruolo

nell'organizzazione dei processi (chi spinge e tira la manopola) è assunto da ingranaggi e da

scappamenti, da bielle e da connettori, da cuscinetti e da altri pezzi meccanici. Ora, però, il grande

studioso americano ipotizza, come primo assunto, che l'esamero 3'CCCGGG5'sia il catalizzatore

che accoppia la saldatura dei due trimeri 5'GGG3'e 5'CCC3'con la scissione esoergonica di PP in P

+ P e, come secondo assunto, che il monofosfato P si leghi all'esamero e faciliti la reazione. Egli,

pertanto, suppone che P sia un attivatore allosterico della reazione dove il termine allosterico

significa che P si lega a un sito dell'enzima, all'esamero in questo caso, diverso dal sito di legame

proprio dell'esamero per i substrati. Attivatori e inibitori allosterici, dunque, come tutti sanno, sono

comuni nei sistemi biologici. «In questo caso, P potrebbe legarsi allo scheletro di zuccheri-fosfato

dell'esamero di DNA. Questo accoppiamento implica che quando PP si scinde per formare P + P, il

monofosfato P eserciterà una retroazione attivando ulteriormente l'enzima esamerico e accelerando

ulteriormente la catalisi di formazione dell'esamero. Una simile retroazione positiva di un prodotto

di reazione sulla formazione di un enzima si verifica nella celebre glicolisi, il cuore del

metabolismo delle vostre cellule. In realtà, in condizioni sperimentali opportune, questo

accoppiamento basato sulla retroazione positiva può far sì che la glicolisi sia soggetta a marcate

oscillazioni temporali nella concentrazione dei metaboliti glicolitici. Infine, chiamerò in causa

qualche altro accoppiamento. Io suppongo che uno dei trimeri, 5'GGG3', sia il catalizzatore che

accoppia la perdita esoergonica di energia liberata dall'elettrone attivato e* a e, con la risintesi di PP

da P + P. Ed evocherò un'inibizione allosterica di questa catalisi da parte dello stesso PP. Pertanto,

il PP, quando è a concentrazione elevata, tende ad inibire la propria risintesi. Ma quando la sua

concentrazione diminuisce, l'inibizione della sua sintesi viene rimossa, e PP viene risintetizzato.»34

La figura 4 mostra il primo ipotetico agente autonomo. Dopo aver costruito virtualmente

l'impalcatura molecolare di un tale sistema, dunque, Kauffman ne mette in luce gli aspetti rilevanti.

Egli, infatti, individua quattro caratteristiche su cui vale la pena riflettere. La prima riguarda il fatto

che l'ipotetico agente autonomo «costituisce una classe di reti di reazioni chimiche non ancora

indagate: il comportamento di sistemi esoergonici autocatalitici e a catalisi incrociata comincia

adesso ad essere studiato. Il comportamento di reti di reazioni esoergoniche ed endoergoniche

collegate è la sostanza stessa del metabolismo intermedio e della trasduzione biochimica

dell'energia, oggetto di studio per i biochimici per anni. Ma, fino a oggi, nessuno ha iniziato a

studiare reti di reazioni collegate in cui l'autocatalisi è accoppiata a reazioni esoergoniche ed

endoergoniche connesse. Stiamo dunque entrando in un dominio completamente nuovo. Il nostro

agente autonomo molecolare costituisce perciò un sistema con due caratteri essenziali dei sistemi

viventi: l'auto-riproduzione e il metabolismo. Tuttavia, il mio insistere che un agente autonomo

esegue un ciclo perfeziona il concetto di metabolismo per come viene comunemente inteso,

includendo la richiesta che esso esegua un ciclo.»35 Il secondo aspetto messo in luce dal grande

studioso americano, consiste nel fatto che il nostro agente autonomo virtuale è di necessità un

sistema in non equilibrio. L'energia libera, infatti, nel nostro caso nella forma del fotone hv e dei

trimeri substrati, viene inclusa ed impiegata per guidare la sintesi di PP e l'eccesso dell'esamero di

DNA. All'equilibrio, dunque, non vi è azione causale. La sintesi in eccesso dell'esamero di DNA

costituisce la replicazione in eccesso dell'esamero in virtù dell'accoppiamento della sintesi trimeri-

esamero al ciclo di reazioni PP? P + P, che, agli occhi di Kauffman, costituisce una vera e propria

«macchina chimica». Il terzo carattere da rilevare è il ciclo eseguito dall'agente. Nel comportamento

della reazione PP? P + P è possibile vedere il ciclo. Nel ciclo di Carnot, come abbiamo ampiamente

mostrato in precedenza, il gas effettua dei cicli: da compresso e caldo, a meno compresso e freddo,

e di ritorno a compresso e caldo. Nell'ipotetico agente autonomo esiste un ciclo macroscopico di

materia da PP a P + P attraverso la reazione di formazione dell'esamero di DNA e di ritorno lungo

una via circolare a PP attraverso la reazione con l'elettrone a energia elevata. Ebbene, il ciclo

macroscopico di materia intorno a questo ciclo costituisce la macchina operante. «In funzione dei

dettagli delle costanti cinetiche, il nostro agente autonomo potrebbe letteralmente manifestare un

ciclo di concentrazioni oscillatorio, dove la concentrazione di PP inizia elevata per diminuire poi

rapidamente con la formazione di P + P; a quel punto, la concentrazione elevata di PP si riforma

con l'impiego della reazione esoergonica e*? e che il fotone ha arricchito di energia. Allora, la

reazione PP? P + P inclusa nell'agente autonomo costituisce una macchina chimica in cui si verifica

un flusso macroscopico netto di materia intorno al ciclo PP? P + P, che opera lontano dall'equilibrio

essendo spinto dall'addizione di energia del fotone hv e da quella dei due trimeri di DNA, e poiché

l'energia è drenata via per guidare la sintesi in eccesso dell'esamero di DNA.»36 Infine, il quarto

aspetto da rilevare, secondo Kauffman, risiede nel fatto che l'agente autonomo, come la macchina di

Carnot, lavora lungo un ciclo. Al termine del ciclo il sistema è pronto per un nuovo ciclo,

ovverossia si realizza un'organizzazione ripetuta del processo. Inoltre, come la macchina di Carnot

che fatta funzionare al contrario è un frigorifero e non una pompa, se le reazioni dell'agente

autonomo venissero attivate al contrario la macchina PP? P + P funzionerebbe nella direzione

contraria. «La ragione è che tutte le coppie di reazioni sarebbero allontanate dall'equilibrio nella

direzione contraria e l'analogo di invertire il movimento degli ingranaggi -- ovvero invertire di

segno gli accoppiamenti, positivi e negativi, di attivatore e inibitore con i due enzimi opportuni --

convertirebbe l'energia in eccesso, immagazzinata nella concentrazione all'equilibrio dell'esamero di

cui sopra, nella produzione di due trimeri e nella risintesi di PP da P + P. Se la liberazione del

fotone hv fosse un passo facilmente reversibile, l'eccesso di PP guiderebbe l'emissione di un fotone

da parte dell'elettrone eccitato, che ritornerebbe allo stato iniziale, lo stato non eccitato. In breve,

l'agente autonomo, se fatto funzionare al contrario, si fonde con il suo cibo. Attivato al contrario, il

sistema non è un agente autonomo: non si riproduce e non esegue un ciclo. Attivato al contrario il

sistema è un lampo di luce.»37 Insieme a A. J. Daley, A. Girvin, P. R. Wills e D. Yamins,

Kauffman, nell'articolo dal titolo: Simulation of a Chemical Autonomous Agent, ha simulato con

successo il sistema di equazioni differenziali che corrispondono alla dinamica di questa rete di

reazioni molecolari dell'agente autonomo. Le equazioni differenziali rappresentano il modo in cui la

concentrazione di ciascuna specie chimica nell'agente autonomo varia nel tempo in funzione della

concentrazione propria e di altre sostanze chimiche.38 In genere, nelle equazioni differenziali di

questi modelli matematici sono incluse diverse costanti fisse che rappresentano costanti cinetiche e

altri parametri. In questo caso, il sistema di equazioni differenziali possiede tredici di questi

parametri. Il sistema dell'agente autonomo simulato viene allontanato dall'equilibrio mediante

l'aggiunta persistente dei due trimeri di DNA 5'GGG3'e 5'CCC3', la rimozione dell'esamero di DNA

e l'attivazione persistente per opera del fotone hv, dall'esterno. La rete delle reazioni chimiche si

verifica in condizioni di chemostato, ovvero tutti i costituenti molecolari del sistema sono trattati

matematicamente come se fossero in un serbatoio reale ben agitato cui vengono aggiunti a velocità

costante i trimeri ed il fotone. In aggiunta, i componenti molecolari dell'esamero vengono rimossi

dal sistema con una velocità regolabile che ne mantiene costante la concentrazione interna a

prescindere da quale sia la velocità di riproduzione dell'esamero. Sono stati eseguiti esperimenti di

selezione al computer, non solo comparando l'agente autonomo ad un sistema esoergonico nudo di

trimeri-esamero di DNA, ma anche mutando in maniera computazionale le costanti cinetiche per

piccoli valori e facendo evolvere, sempre computazionalmente, gli agenti autonomi affinché si

riproducessero con maggiore efficienza termodinamica. Alla luce di tutto ciò, dunque, nel suo

volume, il grande studioso americano così commenta i risultati ottenuti: «I nostri risultati

dimostrano innanzitutto una cosa: che gli agenti autonomi operanti lontano dall'equilibrio, e che

utilizzano un ciclo, sono più efficienti nell'impiego dell'energia libera disponibile che entra nel

sistema totale per riprodurre l'esamero di DNA che non quando è assente l'accoppiamento del

sistema di DNA trimeri-esamero con il sistema del ciclo PP ed elettrone fotone. Allora, l'agente

autonomo come totalità, includendo il suo ciclo, riproduce l'esamero di DNA più rapidamente che

non il solo sistema esoergonico trimeri-esamero. In breve, fatto non meno importante, essere un

agente autonomo che accoppia un sistema autocatalitico con un ciclo, arreca un vantaggio selettivo

rispetto al semplice essere un sistema autocatalitico esoergonico. In secondo luogo, proprio come

nel caso della retroazione positiva nella glicolisi, il nostro agente autonomo simulato, per valori

opportuni delle costanti cinetiche, può subire intense oscillazioni temporali della concentrazione di

PP e di altre sostanze. L'oscillazione di PP durante il ciclo, da concentrazione elevata a bassa

concentrazione e poi di nuovo a concentrazione elevata, è analoga all'oscillazione dell'espansione e

della compressione del gas nel ciclo della macchina di Carnot. In terzo luogo, esiste un paesaggio di

fitness montuoso nello spazio dei parametri matematici delle tredici costanti cinetiche, dove alcuni

valori delle costanti cinetiche determinano un'efficienza di riproduzione superiore rispetto ad altre.

La selezione naturale darwiniana potrebbe in linea di principio operare se vi fosse variazione

ereditabile delle costanti cinetiche. La conclusione principale che ricaviamo dalla nostra

simulazione è che gli agenti autonomi, accoppiando uno o più cicli autocatalitici e cicli di lavoro,

sono una forma perfettamente plausibile, se pure nuova, di rete di reazioni chimiche aperta e in non

equilibrio. Nessuna magia qui. In un futuro prossimo quasi certamente costruiremo simili reti di

reazioni molecolari degli agenti autonomi e ne studieremo la dinamica e l'evoluzione del

comportamento. Una biologia generale è davvero dietro l'angolo.»39 Alla luce di quanto detto

sinora, dunque, è ipotizzabile la creazione di una nuova forma di vita, per

simulazione/manipolazione della biologia molecolare? In un'intervista rilasciata nel 2002 a R.

Benkirane, Kauffman così ha risposto: «Si, potremo creare sistemi molecolari autoriproduttori in

grado di compiere cicli termodinamici: all'inizio li si creerà in vitro e poi, in una seconda fase, si

tenterà di inserirli in una parvenza di vita che nasce da abbozzi di cellule. Se pensa a ciò che è un

agente autonomo, ovvero un sistema che si connette ad un ambiente e agisce per proprio conto,

allora tutte le cellule viventi possono agire in questo modo all'interno del proprio milieu -- ad

esempio un batterio può nuotare risalendo un gradiente di glucosio per cercare cibo. Mi chiedo quali

debbano essere le caratteristiche di un sistema fisico affinché esso possa connettersi al suo ambiente

per proprio conto, e rispondo che tale sistema deve essere in grado di autoriprodursi e compiere

cicli di lavoro termodinamico; forse così ho trovato una definizione rigorosa di vita... In ogni caso

potremo produrre sistemi di questo tipo in un prossimo futuro, perché già oggi gli scienziati

concepiscono sistemi molecolari autoriproduttori. Restano solo da aggiungere i cicli di lavoro

termodinamico, e avremo una nuova tecnologia basata su questi sistemi entro i prossimi

trent'anni.»40 L'agente autonomo virtuale finora studiato, però, è stato trattato come se il problema

di conservare i reagenti in una regione di spazio confinata potesse essere ignorato. Tale assunto in

realtà costituisce un'idealizzazione: se, infatti, l'ipotetico agente autonomo si trovasse in una

soluzione diluita, le velocità di reazione sarebbero molto lente. Pertanto, sottolinea Kauffman, la

creazione effettiva di un agente autonomo molecolare funzionante richiederà che le specie

molecolari reagenti siano confinate in un piccolo volume (micelle e liposomi) o superficie, oppure

confinate in qualche altro modo. Nel prossimo paragrafo mostreremo altre proprietà degli agenti

autonomi molecolari. In particolare focalizzeremo l'attenzione sul concetto di lavoro. Il grande

studioso americano, in effetti, critica il concetto fisico di lavoro: ai suoi occhi, infatti,

l'interpretazione migliore di lavoro appare quella secondo cui quest'ultimo costituisce il rilascio

vincolato di energia. «Eppure, i vincoli effettivi al rilascio di energia, essenziali per svolgere il

lavoro, costituiscono a loro volta l'analogo di ingranaggi, bielle, connettori e scappamenti di una

comune macchina. Ma, soprattutto, ci vuole di solito proprio del lavoro per costruire i vincoli sul

rilascio di energia che poi costituisce a sua volta lavoro.»41 Nell'ipotetico agente autonomo,

dunque, questi vincoli sono presenti negli accoppiamenti, precedentemente delineati, di catalizzatori

e attivatori allosterici con le reazioni che costituiscono l'agente autonomo stesso. «Ho la sensazione

-- una sensazione profonda che rasenta la convinzione -- che l'organizzazione coerente della

costruzione di insiemi di vincoli sulla liberazione di energia, che costituisce il lavoro attraverso cui

gli agenti costruiscono poi ulteriori vincoli sul rilascio di energia i quali, nel tempo dovuto, a loro

volta letteralmente costruiscono una seconda copia dell'agente stesso, sia un concetto nuovo, la cui

formulazione adeguata sarà un concetto adeguato di organizzazione.»42 E, nell'articolo del 2007 dal

titolo Question1: Origin of life and a Living State, Kauffman, dopo aver introdotto la nozione di

agente autonomo, aggiunge: «The inclusion of a work cycle seems to be a central feature of this

tentative definition, for work cycles link spontaneous and non-spontaneous (exergonic and

endergonic) chemical reactions. The collectively autocatalytic system [...] might have been entirely

exergonic. If one considers the biosphere as a whole, it is a richly interwoven web of linked

exergonic and endergonic reactions building up the enormous chemical complexity of the entire

biosphere, the most complex chemical system we know. I suspect that we will create molecular

autonomous agents in the reasonably near future, for molecular reproduction has been achieved

experimentally, as have molecular motors. I also suggest that such system may foretell a

technological revolution for they do work cycles, hence can build things, as do cells when they

build copies of themselves and do other work. It may be, although I would not insist on it, that

molecular autonomous agents, augmented to have a bounding membrane, my be a minimal

definition of life. I would note that Schrödinger, in What is life, argued for the necessity for «neg-

entropy», but not for the requirement for a work cycle.»43 Se il ragionamento del grande

biochimico americano è corretto, quindi, Schrödinger avrebbe visto giusto per quanto riguarda il

suo microcodice il quale, però, ora viene «reinterpretato» come un sottoinsieme dei vincoli sulla

liberazione di energia mediante cui un agente autonomo costruisce una copia grezza di se stesso.

Ciò, allora, significa che il microcodice è la struttura stessa del DNA, che funge da vincolo sugli

enzimi i quali poi trascrivono e traducono il codice. «Schrödinger tuttavia non asserì che il requisito

di un agente dovesse essere il non equilibrio. Invece lo spostamento dall'equilibrio è una condizione

necessaria affinché un microcodice faccia alcunché. E allora, forse, lo spostamento dall'equilibrio

era implicito nella sua tesi. Ma, soprattutto, credo gli sia sfuggito un altro concetto: che un agente è

un'unione di un sistema autocatalitico che segue uno o più cicli di lavoro. Un'unione che è un

sistema dinamico di tipo nuovo. Ora che abbiamo visto un agente autonomo mi scopro a

domandarmi se gli agenti autonomi potrebbero rappresentare una definizione adeguata della vita in

sé. Non provo nemmeno a difendere la mia forte intuizione che la risposta sia affermativa. Ho il

dubbio che il concetto di agente autonomo, inteso come sistema autocatalitico che esegue uno o più

cicli di lavoro, definisca la vita. Se è così, eccolo il centro, quel nocciolo esclusivo della vita, che

l'indagine di frammenti molecolari della cellula non rivela. Una buona parte del libro sarà dedicata

ad esaminare gli sviluppi imprevisti di questa definizione provvisoria di agenti autonomi e, perché

no, della vita. Ma non insisterò certamente su questa mia intuizione. Giunti sin qui sarà sufficiente

rilevare che tutti i sistemi viventi liberi da noi conosciuti -- batteri unicellulari, eucarioti unicellulari

e organismi pluricellulari -- soddisfano la mia definizione di agente autonomo.»44 Tale definizione

provvisoria, tuttavia, a nostro giudizio, nasconde delle insidie. Se, infatti, la figura 4 ci illustra un

primo caso di agente autonomo molecolare, quanto è grande la famiglia di sistemi abbracciata dal

concetto di agente autonomo? Secondo Kauffman, nulla nel concetto di sistema riproduttivo, che

esegue almeno un ciclo termodinamico, limita un sistema di questo tipo al DNA, all'RNA e alle

proteine; pertanto, sembra plausibile che ampie classi di reti di reazioni chimiche possano esaudire i

criteri fin qui delineati. A questo punto, quindi, risulta possibile chiedersi: sistemi mutuamente

gravitanti come le galassie, non potrebbero esaudire gli stessi criteri? Ed inoltre, cosa dire, per

esempio, di sistemi formati per lo più da fotoni, da spettri autoriproduttivi in una cavità risonante

alimentata da un mezzo amplificatore? Ed, infine, che cosa dire della geomorfologia? A tali

domande, però, Kauffman dichiara di non poter, al momento, offrire alcuna risposta: «Non lo so.

Forse a questo punto ci basterà aver iniziato un'indagine, un'esplorazione, e non tanto averla

completata.»45 L'indagine relativa agli agenti autonomi, pertanto, ci conduce verso quelle che

potremmo definire come «le colonne d'ercole della biologia». Dove risiede, infatti, assumendo

come attendibile la definizione di agente autonomo elaborata da Kauffman, la linea di demarcazione

tra ciò che è vita e ciò che non lo è? Quali sono i principi alla base della genesi delle forme viventi e

della loro auto-organizzazione, un'auto-organizzazione, vale a dire, molto più complessa rispetto a

quella mostrata da una perturbazione atmosferica o da altri fenomeni naturali non ancora viventi? A

partire dalle esplorazioni di Kauffman, nei prossimi paragrafi, cercheremo di mostrare come, a

nostro giudizio, l'essenza della vita costituisca, in realtà, un'alterità radicale e profonda che

trascende costantemente, pur non trasgredendole, la chimica (per esempio il concetto di

autocatalisi), la fisica (per esempio, la nozione di cicli di lavoro termodinamico) e la bio-

matematica (i modelli di simulazione e le equazioni differenziali). Forse, dietro al misterioso

connubio di auto-organizzazione e selezione naturale non c'è solo una relazione addizionale tra

materia, energia ed informazione, bensì, come Kauffman intuisce, giunge a fare capolino una nuova

concezione dell'informazione, una concezione al cui interno l'informazione giunge ad apparire come

una «qualità» in grado di generare e regolare l'intero sistema (relazione coestensiva legata ad un

continuo gioco dialettico delle parti), trasformandolo in un sistema vivente e quindi in un sistema

cognitivo. Ci stiamo riferendo qui all'affascinante possibilità di far dialogare il mistero della

complessità del vivente con la nozione di emergenza del significato. Il bios, infatti, a nostro

giudizio, andando oltre la misurazione meramente quantitativa (livello sintattico) dell'informazione

aggredita attraverso la logica binaria (logica estensionale),46 può essere interpretato come un

fenomeno emergente intrinsecamente connesso a forme di cognizione e di intenzionalità (livello

semantico). In questo spirito, quindi, proseguiremo la nostra trattazione approfondendo, da un lato

la circolarità fisica esclusiva della vita tra vincoli e lavoro secondo la quale il lavoro viene definito,

al contempo, come il rilascio vincolato di energia e come la condizione principale della costruzione

dei vincoli medesimi e dall'altro l'esigenza intrinseca al concetto di organizzazione propagante di

porre le basi per la costruzione di una fisica della semantica (o meglio di una semantica

molecolare). Questa intuizione geniale di Kauffman, pertanto, ci permette di compiere un ulteriore

passo in avanti per ciò che concerne la nostra esplorazione dell'auto-organizzazione; sotto certi

aspetti, però, tale indagine ci consente anche di esplorare percorsi teorici paralleli portati avanti da

studiosi che pongono l'accento delle loro ricerche sui limiti della teoria dell'informazione di

Shannon e sulla possibilità affascinante di elaborare quella che attualmente viene definita da alcuni

come teoria semantica dell'informazione.

2. Lavoro propagante

Può darsi che il mondo sia brutalmente davanti ai nostri occhi, ma che, di esso, ci manchino le

domande che ci consentirebbero di vedere. Davanti a noi, infatti, in ogni istante cellule o colonie di

cellule propagano una meravigliosa organizzazione di processo: ogni agente autonomo, come

abbiamo visto in precedenza, collegando con abilità processi esoergonici ed endoergonici, mediante

la chiusura delle attività catalitiche e delle attività di lavoro, costruisce di fatto una seconda copia

«grezza» di se stesso da «piccoli mattoni». Risulta difficile, dunque, vedere qualcosa di cui non si

ha ancora un concetto. Nel presente paragrafo, pertanto, attraverso le esplorazioni di Kauffman,

tenteremo di svolgere un'indagine su cosa potremmo intendere, e quindi vedere, per organizzazione

propagante. Il nostro cammino teorico prende le mosse dal demone di Maxwell e dalla ragione per

cui la misurazione di un sistema è remunerativa solo in una situazione di non equilibrio. Situazione

in cui le misurazioni si possono archiviare in memoria ed impiegare per estrarre lavoro dal sistema

misurato. In fisica, il demone di Maxwell è il luogo per antonomasia in cui è possibile trovare

insieme materia, energia ed informazione. Ciò nonostante, più avanti scopriremo che il demone ed i

suoi sforzi di misurazione sono sorprendentemente incompleti: solo alcuni caratteri di un sistema in

non equilibrio, infatti, se misurati, rivelano spostamenti dall'equilibrio da cui in linea di principio

risulta possibile estrarre lavoro; gli altri caratteri, invece, persino se misurati, sono inutili per

rilevare tali fonti di energia. Ma procediamo con ordine. Si consideri per l'ennesima volta un

sistema termodinamicamente isolato, ovvero una scatola che contiene un gas, isolata da ogni

scambio di energia o di massa con l'esterno. Nella scatola sono contenute n particelle di gas e, come

abbiamo sottolineato, di tutte le n particelle è possibile considerare posizione e quantità di moto.

Ciascuna posizione e ciascuna quantità di moto risulta possibile poi scomporla in tre valori

numerici, che definiscono posizione e moto nelle tre direzioni nello spazio. L'intero stato delle n

particelle sarà perciò definito da 6n numeri, cui aggiungeremo la specificazione dei confini interni

della scatola. In precedenza avevamo affermato che tutti i possibili stati di questo sistema 6n di

particelle si possono suddividere in volumi molto piccoli di stati, che chiameremo microstati. Un

microstato, come tutti sanno, è un insieme di microstati. In particolare, il macrostato all'equilibrio è

un insieme di microstati che godono della proprietà per cui le particelle di gas sono distribuite nella

scatola in modo pressoché uniforme, con una distribuzione caratteristica delle velocità all'equilibrio,

che lo stesso Maxwell risolse. Questo macrostato all'equilibrio presenta ulteriori importanti

proprietà per cui: a) Moltissimi microstati sono nel macrostato all'equilibrio e b) alcuni caratteri

macroscopici (la temperatura, la pressione e il volume) sono sufficienti per specificare il macrostato

all'equilibrio. «Abbiamo visto che, in termini di macrostati e microstati, la seconda legge può essere

riformulata nella sua celebre incarnazione secondo la meccanica statistica. La seconda legge diventa

l'enunciato secondo cui, all'equilibrio, il sistema fluirà da un qualunque macrostato iniziale in modo

tale da trascorrere la maggior parte del tempo nel macrostato all'equilibrio. Questo enunciato della

seconda legge non esclude il caso estremamente improbabile in cui succede che le n particelle

fluiscano verso un angolo della scatola. La seconda legge sarà allora una legge statistica in

meccanica statistica. Ma ecco che arriva Maxwell e inventa una creatura microscopica, poi

soprannominata demone o diavoletto di Maxwell. Per inciso, confesso che trovo l'uso del termine

demone qui più che leggermente interessante. Si può dire che il demone di Maxwell sia quasi un

agente autonomo. Anche se questa creatura non viene definita così come la definisco io, presto

vedrete come essa sembri capace di prendere decisioni e di agire su mondo fisico. [...] Maxwell ci

chiede di considerare quello stesso contenitore con n particelle. Egli però immagina che il

contenitore sia suddiviso in due scomparti da una parte con una finestrella, nella quale è inserita una

valvola a battente. A valvola aperta, le particelle di gas possono fluire dalla scatola sinistra a quella

destra, oppure da quella destra alla sinistra. Ebbene, esprime divertito Maxwell, supponiamo che lo

stato iniziale del gas nel contenitore sia il macrostato all'equilibrio: nessun lavoro macroscopico

potrà essere svolto dal sistema all'equilibrio. Questo era il punto centrale di Carnot. Esiste un mare

di energia nei movimenti casuali delle particelle di gas, ma da esso non vi è modo di estrarre lavoro

meccanico, per esempio per spingere un pistone. Poi, aggiunge Maxwell, appassionandosi alla sua

tesi, «immaginiamo che il nostro minuscolo amico agisca sulla valvola a battente in modo che egli,

ogni volta che una particella veloce di gas si avvicina alla finestra dall'interno del contenitore

sinistro verso quello destro, apra il battente e lasci passare la particella di gas più veloce della

media, cioè la particella più calda. Supponiamo poi che il nostro demone agisca sulla valvola a

battente e lasci così passare le particelle di gas più lente della media, e quindi più fredde, dal

contenitore destro a quello sinistro. Ebbene, presto il contenitore sinistro sarà più freddo ed il

contenitore destro più caldo. E ora [...] noi possiamo sfruttare la differenza macroscopica di

temperatura tra il contenitore sinistro e il contenitore destro ed estrarre lavoro meccanico, magari

per spingere un pistone».»47 Maxwell pose, quindi, una questione difficile per la meccanica

statistica: sembrava, infatti, che le azioni del demone potessero aggirare la seconda legge della

termodinamica. In effetti, il diavoletto di Maxwell ha posto un enigma non ancora risolto appieno.

Tuttavia, un passo importante verso il «salvataggio» della seconda legge lo ha compiuto L. Szilard

che concepì la reazione nucleare a catena, favorendo così lo sviluppo della bomba e dell'energia

atomiche. «Szilard effettuò un calcolo che collegava per la prima volta il concetto di entropia ad un

concetto nuovo di informazione. L'entropia in un sistema è la misura del suo disordine. Se ricordate,

possiamo definire i volumi di macrostati differenti dal numero di microstati contenuti in ciascun

macrostato. Per convenzione, consideriamo il logaritmo del numero di microstati di ciascun

macrostato. In aggiunta, ogni macrostato ha anche la probabilità di essere occupato dal sistema.

Moltiplichiamo il logaritmo del numero di microstati per macrostato per la probabilità che il sistema

sia in quel macrostato. A questo punto, sommiamo tutti questi valori per tutti i macrostati. Il valore

totale sarà l'entropia del sistema.»48 Dal punto di vista statistico, l'entropia di un sistema o aumenta

nel tempo oppure è costante. All'equilibrio, per esempio, essa è costante. Diversamente, se il

sistema viene lasciato libero da un macrostato inizialmente improbabile, in un primo momento

l'entropia iniziale sarà bassa poiché la maggior parte dei macrostati non è occupata, tuttavia, con il

passare del tempo, essa si diffonderà su tutte le possibilità e la somma della probabilità dei tempi di

occupazione moltiplicata per i volumi dei macrostati crescerà fino al valore di equilibrio. «Szilard

compì una prima riflessione su quella che in seguito Shannon avrebbe definito informazione.

Szilard aveva grosso modo compreso che, quando il demone lascia passare in modo specifico una

particella più veloce o più lenta nello scomparto sinistro oppure in quello destro, allora l'entropia

totale del sistema sta diminuendo un poco. Ma, a sua volta, Szilard stimò la quantità di lavoro che il

demone deve svolgere per distinguere se la particella di gas è più veloce o più lenta della media. Ne

risulta che il lavoro da svolgere, e quindi l'energia utilizzata, è equivalente al lavoro che in seguito

potrà essere estratto dal sistema una volta che le particelle veloci e quelle lente sono state segregate

nei due comparti. Poiché il lavoro svolto dal demone equivale al lavoro estraibile in seguito dal

sistema, all'equilibrio non può essere estratto alcun lavoro netto dal sistema: la seconda legge è

salva.»49 Il passo successivo, però, lo ha compiuto Shannon legando il concetto di entropia con

quello di informazione. Egli era interessato alla trasmissione dei segnali via cavo e concepì

acutamente il segnale minimo come una risposta tutto o nulla, una risposta «si» o «no», che si

poteva quindi rappresentare sottoforma di cifre binarie (di 1 o 0), quelle che oggi definiamo bit.

Shannon considerò l'entropia di una sorgente che inviava un eventuale messaggio come l'insieme

dei possibili messaggi potenzialmente inviabili, dove ogni messaggio doveva essere quantificato per

la probabilità di essere effettivamente inviato. Egli concepì la ricezione di un messaggio come la

riduzione di entropia, o di incertezza, riguardo a quale messaggio fosse stato effettivamente inviato,

considerato l'insieme iniziale di messaggi possibili. In tal modo, dunque, Shannon reinventò la

stessa matematica attinente all'entropia. Si immagini che esista un insieme di messaggi e che

ciascuno di essi occupi un volume in uno spazio di messaggi possibili. Ogni messaggio viene

inviato dalla sorgente con una certa probabilità. Shannon allora considerò il logaritmo del volume,

nello spazio dei messaggi, occupato da un messaggio e lo moltiplicò per la probabilità che quel

messaggio venisse inviato dalla sorgente. Se la frazione del volume totale dello spazio dei messaggi

occupato da un certo messaggio è p, allora il logaritmo di questo volume è logp mentre la

probabilità di quel volume è p. Pertanto il logaritmo di una probabilità di un messaggio moltiplicata

per la probabilità stessa è data da plogp. La somma di questi termini plogp per l'insieme totale dei

messaggi alla sorgente, dunque, rappresenta l'entropia della sorgente. «La ricezione di un segnale

riduce l'incertezza nel ricevente riguardo a cosa viene inviato dalla sorgente, un'entropia negativa

dunque. La misura dell'informazione secondo Shannon sarà allora il valore negativo della misura

normale dell'entropia. Il legame che Szilard stabilì tra entropia e demone di Maxwell è, grosso

modo, il seguente: la distinzione effettuata dal demone circa il fatto che una molecola di gas sia più

veloce o più lenta della media e provenga dallo scomparto sinistro oppure da quello destro (vale a

dire, se debba aprire o chiudere la valvola) costituisce una misurazione che estrae informazione sul

sistema del gas, e quindi diminuisce l'incertezza sul sistema stesso. L'entropia del sistema sarà

ridotta. La cosa importante è che, quando si parla di entropia, esiste un osservatore implicito.

Pertanto, un fisico potrebbe affermare che l'entropia di un sistema la dobbiamo alla «nostra

suddivisione a grana grossa» del sistema in macrostati scelti (arbitrariamente). Se noi disponessimo

di più informazione sugli stati microscopici del sistema, la nostra grana più fine ridurrebbe

l'entropia del sistema dal nostro punto di vista. E, difatti, nel concetto di entropia, vi è stata una

certa confusione sul ruolo dell'osservatore e della sua scelta più o meno arbitraria delle dimensioni

della grana.»50 R. Sinclair e W. Zurek hanno rivisitato il problema del demone con un mirabile

insieme di concetti proponendo altresì una soluzione interessante alla confusione or ora accennata.

Il demone quando è alle prese con la valvola sta in realtà misurando il sistema di gas: egli, infatti,

effettuando le misurazioni, conosce più cose sullo stato dettagliato del sistema, ovvero possiede una

descrizione compatta dello stato del sistema del gas. In realtà, la descrizione compatta dello stato di

equilibrio è tale per quanto possibile: alcune variabili macroscopiche (temperatura, pressione e

volume) sono sufficienti. I due studiosi hanno effettuato indipendentemente ricerche che dimostrano

quanto segue: «da principio, il demone, nel suo operare, accresce la propria conoscenza del sistema

e dunque l'entropia del sistema di gas diminuisce. Ma, al contempo, aumentando l'informazione che

il demone ha del sistema, di quest'ultimo aumenta anche la lunghezza della descrizione più

compatta. In realtà, la lunghezza della descrizione più compatta aumenta, in media, esattamente con

la stessa velocità con cui diminuisce l'entropia nel sistema di gas. Ma al crescere della lunghezza

della descrizione più compatta, bit dopo bit reale, il suo contenuto di informazione aumenta, bit

dopo bit. Pertanto, per ciascun bit di riduzione dell'entropia del sistema di gas ottenuto dalle nostre

misurazioni, il contenuto d'informazione della descrizione più compatta aumenta, in media,

esattamente con la stessa rapidità. Oppure -- afferma Zurek -- nell'interpretazione moderna, in un

sistema di gas all'equilibrio la somma dell'entropia del sistema di gas e della conoscenza che

l'osservatore ha di quel sistema è una costante.»51 Ebbene, è ancora possibile estrarre lavoro dal

nostro sistema di gas misurato avvalendoci dell'informazione sul suo microstato ricavata da tutte le

misurazioni. Tuttavia, nota Sinclair, a lungo andare l'inganno non funzionerà poiché si è dovuto

registrare l'informazione sul sistema di gas da qualche parte, magari nei registri di un chip di silicio.

Ad ogni modo, in un certo momento, all'interno di un sistema chiuso, il chip avrà saturato di bit i

suoi registri. Per continuare a misurare il sistema all'equilibrio, quindi, si dovrà cancellare il chip. Il

calcolo effettuato da Sinclair, inoltre, conferma quello di Szilard: cancellare un bit archiviato in

memoria richiede un costo energetico minimo che bilancia esattamente il lavoro che si potrebbe

ottenere dal sistema di gas usando l'informazione immagazzinata relativa al sistema. La seconda

legge, ancora in un'accezione statistica, regge. Stando così le cose, dunque, Kauffman così scrive:

«All'equilibrio nessun lavoro macroscopico può essere svolto da un sistema: in una condizione di

equilibrio la misurazione non paga. Perché questo lungo preambolo? Perché invece paga misurare il

sistema di gas se non è all'equilibrio. Un semplice esempio: le particelle di gas nello scomparto

sinistro sono effettivamente più calde di quelle nello scomparto destro. La pressione nello

scomparto sinistro sarà dunque maggiore rispetto a quello dello scomparto destro. Se la valvola è

aperta, il gas fluirà dallo scomparto sinistro a quello destro fino a equilibrio ristabilito. Si noti che

una descrizione molto semplice, compatta, ha colto questi tratti del sistema in non equilibrio e si

può estrarre lavoro mentre il sistema di gas fluisce verso l'equilibrio. Più in generale, la tesi di

Zurek è che, quando le misurazioni sono effettuate su un sistema di gas in non equilibrio, la

lunghezza della descrizione più compatta cresce più lentamente di quanto la conoscenza così

guadagnata riduca l'entropia del sistema. È pagante misurare il sistema in non equilibrio, nel senso

che quelle misurazioni specificano gli spostamenti dall'equilibrio che costituiscono fonti di energia

utilizzabili per estrarre lavoro. Ecco che il demone è davvero un luogo della fisica dove

confluiscono materia, energia, informazione e, naturalmente, lavoro.»52 Si prenda in

considerazione ora come il lavoro potrebbe essere estratto nella situazione classica del demone di

Maxwell, con un gas ideale in due scomparti separati da una parete con finestrella e valvola. Come

esempio si consideri un piccolo mulino a vento. La banderuola sul mulino misura la direzione del

vento e direziona il mulino in modo da disporne le pale contro vento. Il vento eseguirà a sua volta

lavoro sulle pale facendo ruotare il mulino. Il sistema complessivo misura una deviazione

dall'equilibrio (in questo caso, la direzione del vento), orienta l'intero sistema in modo che il

marchingegno estragga lavoro grazie al vento ed esso estrarrà lavoro: il mulino gira. A questo punto

si immagini che il piccolo mulino sia collocato molto vicino alla finestra con la valvola all'interno

dell'intero sistema di gas. Se la valvola è aperta, un flusso d'aria passerà dallo scomparto sinistro a

quello destro. La pala del mulinello misurerà la direzione del flusso e orienterà le pale

perpendicolarmente a esso. Infine, il flusso d'aria causerà la rotazione della pala ausiliaria, che

estrarrà pertanto lavoro meccanico dal sistema fino a raggiungere l'equilibrio. È dunque possibile

chiedersi: quale aspetto del sistema di gas totale è stato misurato e rilevato si da poter estrarre

lavoro? Approssimativamente, il flusso d'aria dallo scomparto sinistro a quello destro. Kauffman,

però, fa notare come in realtà non tutte le misurazioni del sistema a due scomparti si sarebbero

rivelate informazione utile, nel senso che il lavoro avrebbe potuto essere estratto dallo scomparto

reale nella sua configurazione reale. Per esempio, la scatola con la valvola separa lo scomparto

destro dal sinistro; si supponga che vi sia un identico numero di molecole di gas dai due scomparti

di grandezza equivalente e che il gas nello scomparto sinistro sia più caldo di quello nello

scomparto destro. Si supponga poi che il demone misuri il numero e le posizioni all'istante di tutte

le particelle di gas negli scomparti destro e sinistro. Se si misurassero il numero e le posizioni

istantanee di tutte le particelle di gas negli scomparti destro e sinistro, non verrebbe comunque

rilevato che le particelle nello scomparto sinistro sono più calde che in quello destro e che quindi si

muovono più velocemente. Per misurare il movimento più veloce, il demone deve misurare

posizioni in due istanti, oppure qualche altra proprietà, come il contraccolpo delle pareti dello

scomparto misurato dalla quantità di moto trasferita dalle particelle di gas più calde rispetto a quelle

più fredde nello scomparto sinistro e destro quando rimbalzano contro la parete. Come fa, allora, il

demone a misurare (o decidere) le proprietà rilevanti, affinché sia identificata con successo una

fonte di energia da cui estrarre lavoro? «A dire il vero, una risposta ancora non l'abbiamo. Eppure è

una questione essenziale. Solo determinati caratteri di un sistema in non equilibrio riveleranno, a

una misurazione, uno spostamento dall'equilibrio effettivamente utilizzabile per estrarre lavoro.

Altri caratteri, se misurati, sono privi di utilità per la rivelazione di uno spostamento dall'equilibrio

impiegabile per estrarre lavoro da parte di un sistema specifico qualsiasi. È importante sottolineare

che qui disponiamo di una accezione di utile che esula dal contesto degli agenti autonomi.

Misurazioni utili individuano tratti di spostamento dall'equilibrio che rivelano fonti di energia da cui

si può estrarre lavoro. [...] Io credo che in definitiva potremo creare una teoria statistica della

probabilità della generazione di nuovi processi, di nuove strutture e di nuove sorgenti di energia

specifici; della propagazione di misurazioni; della rivelazione di fonti di energia utili; e degli

accoppiamenti di strutture e di processi a fonti di energia per estrarre lavoro e accumulare

progressivamente nuove strutture, nuove fonti di energia e nuovi processi -- il tutto in funzione della

diversità attuale di strutture, di processi di trasformazione e di entità di misurazione e di

accoppiamento. [...] Quella di cui abbiamo bisogno è una teoria dove la rottura di simmetria

richiede ulteriore rottura di simmetria in un accumulo progressivo di strutture e processi

diversificanti.»53 Un prototipo parziale di una teoria statistica di questo tipo è presente nel

precedente paragrafo dove si è parlato di agenti autonomi, intesi come sistemi fisici auto-

riproduttivi, che misurano con esito favorevole spostamenti dall'equilibrio e che si evolvono con

successo per accoppiare reazioni esoergoniche ed endoergoniche e per realizzare cicli di lavoro

completi: la vasta rete di reazioni esoergoniche ed endoergoniche accoppiate in modo complesso

nell'ecosistema globale, pertanto, appare, agli occhi di Kauffman, come una dimostrazione positiva

di tale costruzione propagante nell'universo fisico. È altresì importante analizzare il significato delle

espressioni, presenti nella citazione precedente, «effettivamente» e «sistema specifico qualsiasi». Si

consideri una singola particella di gas in un contenitore. Si misuri la posizione di tale particella a

destra o a sinistra di una qualunque superficie arbitraria che tagli trasversalmente il contenitore. Se

si sa che la particella è a sinistra di una paratia arbitraria data, è possibile, in linea di principio,

estrarre lavoro consentendo a tale particella di passare attraverso una finestra nella paratia e di

effettuare lavoro sul mulinello mentre passa nello scomparto destro. Sembra, pertanto, che, in linea

di principio, qualsiasi misurazione arbitraria rilevi una fonte di energia sfruttabile per estrarre

lavoro. Kauffman, però, ci tiene a precisare che è falsa la conclusione secondo cui qualunque delle

misurazioni arbitrarie del nostro sistema con una sola molecola di gas possa rilevare uno

spostamento dall'equilibrio da cui estrarre lavoro. «Quell'«in linea di principio» di poc'anzi implica

l'idea che, avendo collocato arbitrariamente la paratia e misurato da che lato della paratia si trova la

particella, e rilevato quindi mediante quella misurazione arbitraria lo spostamento dall'equilibrio

che è fonte di energia, con il senno di poi possiamo decidere una procedura di costruzione che

utilizzerà l'informazione sullo spostamento dall'equilibrio per estrarre lavoro dal sistema misurato,

in non equilibrio.»54 In altre parole, è possibile collocare il mulinello nel sistema dopo aver

misurato la posizione della particella di gas. Prima si effettua la misurazione e poi si colloca il

mulinello nello scomparto privo della particella di gas, così quella particella, attraversando la

valvola a battente, farà ruotare lievemente il mulinello. Ma nel caso in cui si fosse già costruito il

sistema destinato a estrarre lavoro (come nel caso del minuscolo mulinello) e lo si fosse già montato

in una posizione specifica dentro il contenitore, non potrebbe essere estratto alcun lavoro netto: la

molecola di gas, infatti, è Kauffman che parla, rimbalzando ripetutamente contro le pale del

mulinello da tutti gli angoli, non permetterebbe il verificarsi di alcuna rotazione netta della pala.

Secondo il grande studioso americano, dunque, qui è possibile rintracciare gli indizi di qualcosa di

nuovo: «Solo determinati aspetti di un certo sistema in non equilibrio, se misurati, daranno luogo al

rilevamento di fonti di energia che potrebbero essere accoppiate ad altri processi specifici che,

effettuando lavoro, propagano cambiamenti macroscopici nell'universo. Il minuscolo mulino è un

esempio di congegno che non solo rileva il flusso di particelle dallo scomparto sinistro a quello

destro, ma che orienta la pala perpendicolarmente a quel flusso e presenta accoppiamenti e vincoli

incorporati nella sua struttura tale che il lavoro meccanico venga effettivamente estratto. [...]

L'universo nella sua interezza è stato testimone della nascita di nuove strutture e di nuovi processi,

il che è accaduto anche per la biosfera. Dove non esistevano differenze, differenze sono scaturite. In

un'accezione generale, la persistente emergenza di strutture e di processi differenti è la rottura

persistente della simmetria dell'universo. Che cosa alimenta questa evidente diversità

propagante?»55 Le reazioni chimico-organiche esorganiche ed endorganiche tra loro collegate

presenti in quegli agenti autonomi molecolari che chiamiamo cellule sono proprio un esempio di

strutture e funzioni al contempo raffinate e complesse. Per esempio, la distribuzione della carica

elettrica su due molecole organiche complesse avvicinate tra loro, accoppiata ai movimenti

traslazionali, vibrazionali e rotazionali, costituisce, secondo Kauffman, il mezzo raffinato per

misurare gli spostamenti dall'equilibrio, per accoppiarsi a tali spostamenti e per generare reazioni

esoergoniche ed endoergoniche catalizzate collegate. «Al crescere della diversità molecolare della

biosfera, nascono molte di queste specie molecolari lontane dall'equilibrio: molte di esse sono

capaci di rilevare spostamenti dall'equilibrio simili e si generano ulteriori reazioni endoergoniche ed

esoergoniche accoppiate di questo tipo. In generale, sembrerebbe che, generandosi una diversità

maggiore di entità -- entità perciò necessariamente più complesse -, i loro modi d'essere in

condizioni di non equilibrio aumentano in quanto a diversità e raffinatezza. A sua volta, l'esistenza

stessa di insiemi di queste entità progressivamente diverse e complesse conferisce loro un numero

maggiore di modalità, e dunque maggiore probabilità, per accoppiarsi l'una con l'altra, così che l'una

possa misurare uno spostamento dall'equilibrio dell'altra. Queste entità si imbattono dunque in una

fonte di energia che può essere, ed è, estratta per eseguire lavoro. A sua volta, quel lavoro può

dirigere processi non spontanei a creare specie molecolari ancora più complesse, o altre entità, nel

possibile adiacente. In breve, sembra esistere una relazione positiva tra la diversità e la complessità

di strutture o processi e la diversità e la complessità dei caratteri di un sistema in non equilibrio, che

possono essere rilevate e misurate dalla struttura di rilevazione per identificare una fonte di energia

e poi accoppiarsi alla fonte di energia ed estrarre lavoro. Se esiste una relazione per cui tali caratteri

diversi e complessi di sistemi in non equilibrio, utili come fonte di energia, possono essere rivelati

al meglio da strutture egualmente diverse e complesse, allora nell'universo sembra esistere un

insieme di processi autocatalitici generalizzati già a partire dal Big Bang, e anche in una biosfera,

mediante i quali nascono sistemi in non equilibrio di diversità e complessità crescenti, che

forniscono fonti di energia di raffinatezza e di complessità crescenti, e che a loro volta vengono

rilevati ed estratti dalle strutture vieppiù complesse che vengono generate.»56 Questa lunga

riflessione di Kauffman, riportata qui quasi integralmente, costituisce, senza dubbio, una prima

risposta alla domanda relativa alla fonte dell'organizzazione propagante della biosfera: la diversità e

la complessità stesse della biosfera, infatti, è il grande studioso che parla, ne causano l'ulteriore

diversificazione e complessificazione (e lo stesso discorso potrebbe valere per l'universo intero). «Il

legame tra un ligando e un recettore può innescare una complicata sequenza di reazioni che

conducono alla sintesi di centinaia di specie molecolari differenti. Ma l'elevata specificità delle

interazioni molecolari in una cellula è un esempio puntuale della nascita di una ricca gamma di

processi molecolari complessi, dalle ricche sfumature strutturali e operative, che misurano e

rilevano fonti di energia e che accoppiano tali fonti all'esecuzione di ulteriore lavoro, sia esso

chimico, elettrico o meccanico. Una biosfera che coevolve realizza proprio l'emergenza di tale

organizzazione auto-costruttiva diversificante. Se le galassie, i sistemi planetari, quelli stellari o di

altro tipo facciano la stessa cosa è una questione aperta. Ancora una volta, si percepisce la

possibilità di una teoria statistica della propagazione e dell'auto-elaborazione di tali sistemi

trasformazionali dalla struttura connessa.»57 In questo spirito, dunque, dopo aver indagato il

demone di Maxwell, Kauffman si pone ora una domanda propria della fisica: che cos'è il lavoro? La

risposta dei fisici è la seguente: l'integrale della forza per la distanza. I fisici hanno in mente

qualcosa di simile alle leggi di Newton, dove F = ma, la forza è uguale alla massa per

l'accelerazione. In tal senso, allora, il lavoro svolto si ricava semplicemente sommando piccoli

incrementi di forza agente su una massa e accelerandola lungo una distanza. Tuttavia, vi sono delle

complicazioni. In qualsiasi specifico caso di lavoro eseguito, una direzione di applicazione della

forza è specificata nello spazio tridimensionale, qualche direzione reale del movimento della massa

è specificata nello spazio tridimensionale ed un meccanismo reale di accoppiamento è in gioco

cosicché la forza agisce effettivamente sulla massa e la accelera in quella direzione. È dunque

possibile domandarsi: come si pone in essere la specificazione di una direzione? Ed inoltre, come si

verifica l'organizzazione del caso specifico di lavoro? Nella fisica classica tutte queste

specificazioni sono poste all'inizio del problema, nell'enunciato delle condizioni iniziali e al

contorno. Si consideri come esempio una partita di biliardo. Le palle sono sul tavolo in questa o

quest'altra posizione, la stecca viene mossa con tale velocità e colpisce una certa palla in tale

posizione con una certa velocità. A questo punto si calcoli con gli strumenti di Newton la traiettoria

futura delle palle sul tavolo. «Il problema dell'origine delle condizioni iniziali e al contorno, e lo

specifico accoppiamento tra stecca e palla, saranno nascosti nelle condizioni iniziali e al contorno

del problema e nel modo in cui Newton ci ha insegnato a calcolare. In breve, il problema

dell'organizzazione del processo in qualsiasi caso specifico di lavoro è nascosto alla vista nelle

condizioni iniziali e al contorno dell'enunciato usuale del problema fisico. In effetti, la scelta è

quella dei gradi di libertà rilevanti, che equivale alla scelta delle condizioni al contorno di contro

alle variabili dinamiche del sistema. Ma una biosfera che si evolve non è che la nascita nell'universo

delle complesse, e di continuo diversificanti, condizioni iniziali e al contorno che costituiscono

agenti autonomi che coevolvono, con la loro mutevole organizzazione di capacità nel misurare e

rilevare fonti di energia, e di accoppiare tali fonti rilevate a sistemi che talvolta estraggono lavoro.

[...] Ha senso voler prestabilire in modo finito le condizioni iniziali e al contorno di una biosfera? Io

sosterrò di no, che non ha senso. La mia tesi sarà che non possiamo prespecificare in modo finito lo

spazio delle configurazioni di una biosfera e che dunque non possiamo fare la stessa cosa per le sue

condizioni iniziali e al contorno.»58 Stando così le cose, secondo Kauffman, non è possibile

nascondere la questione dell'organizzazione dei processi di lavoro in un enunciato delle condizioni

iniziali e al contorno della biosfera. Egli, infatti, tentando di andare oltre Newton, si sforza di

risolvere l'emergenza e la propagazione dell'organizzazione nei suoi stessi termini. Consideriamo il

lavoro da un secondo punto di vista. Facciamo il caso di un sistema termodinamico isolato.

All'equilibrio, il sistema non può eseguire alcun lavoro. Poniamo però che il sistema sia suddiviso

in due o più domini, per esempio da una membrana. Ecco, una parte del sistema può ora svolgere

del lavoro sull'altra parte. Per esempio, se la pressione media in una parte è superiore alla pressione

in un'altra parte, la prima parte provocherà il rigonfiamento della membrana verso l'interno della

seconda parte. Da dove è venuta la membrana? Come viene a essere suddiviso il sistema? Non si

tratta forse di un'altra condizione iniziale o al contorno che cela la domanda: da dove è derivata

questa organizzazione di materia e di processo? Per inciso, si noti che il concetto di lavoro sembra

richiedere che l'universo sia in sé suddiviso. Regioni dell'universo devono essere distinte (da cosa o

da chi?) affinché il lavoro si verifichi. E adesso vengo a una delle mie definizioni preferite, coniata

da Peter Atkins nel suo libro definisce il lavoro «liberazione vincolata di energia» e ribadisce che il

lavoro è una «cosa».»59 Si consideri il cilindro ed il pistone nel ciclo di Carnot ideale, con il gas di

lavoro caldo e compresso dentro la camera. Il cilindro e il pistone, la posizione del pistone nel

cilindro, il grasso tra il pistone ed il cilindro sono vincoli che, insieme con il gas caldo compresso

nella testa del cilindro, affinché il lavoro si svolga quando il gas si espande ed esercita la spinta sul

pistone. Quale è, tuttavia, l'origine di tali vincoli? E così sembriamo entrare in un circolo

interessante: il lavoro è la liberazione vincolata di energia, ma spesso è necessario il lavoro per

costruire i vincoli. Secondo Kauffman, dunque, per lavoro qui si intende un accoppiamento tra

processi spontanei e non spontanei, ovverossia proprio quello che si suppone debba accadere negli

agenti autonomi. «L'universo è pieno di fonti di energia. Scaturiscono strutture e processi in non

equilibrio, di diversità e complessità crescenti, che costituiscono fonti di energia e che misurano,

rivelano e catturano quelle fonti di energia, costruiscono nuove strutture che costituiscono vincoli

sul rilascio di energia, e quindi spingono processi non spontanei a creare ulteriori processi, strutture

e fonti di energia, nuovi e diversificanti di questo tipo. [...] La cosa certa è che finora non

disponiamo di una teoria coerente per questa fioritura di processo e di struttura. Di qualunque cosa

si tratti, una biosfera lo fa. Quanto era sterile il Nebraska, ovunque esso fosse, quattro milioni di

anni fa! Ora, non più.»60 Il cuore dell'enigma riguarda la comprensione adeguata del concetto di

organizzazione. Più in profondità, è il grande studioso che parla, il mistero attiene alla

manifestazione storica, a partire dal Big Bang, di strutture connesse di materia e di energia e dei

processi mediante i quali nell'universo compare una crescente diversità di tipi di materia, di fonti di

energia e di tipi di processi: proprio ciò che abbiamo davanti agli occhi e che non siamo in grado di

vedere. Riassumendo brevemente quanto detto sinora, dunque, abbiamo che il lavoro è la

liberazione vincolata di energia e i vincoli sono loro stessi la conseguenza di lavoro. Ebbene, sulla

base della definizione provvisoria di agente autonomo come un sistema auto-riproduttivo che

esegue almeno un ciclo di lavoro, Kauffman ha rilevato che un agente autonomo è necessariamente

un dispositivo in non equilibrio, un dispositivo, vale a dire, in grado di immagazzinare energia.

Inoltre, coma abbiamo ampiamente mostrato in precedenza, riflettendo sui cicli di lavoro, il grande

studioso si è interrogato sul demone di Maxwell, sulla misurazione, sul motivo per cui la

misurazione paghi, ed infine su quali aspetti di un sistema in non equilibrio sono misurati in modo

tale da costruire una fonte di energia. Di qui si è poi domandato come nascano accoppiamenti in

grado di catturare la fonte di energia giungendo altresì al concetto di lavoro, a quello di vincoli ed

infine a quello che è stato definito come lavoro propagante dovuto, cioè, all'occorrenza di insiemi

connessi di vincoli e flussi di materia e di energia. «Un passo successivo sarà capire che i soli agenti

autonomi ben conosciuti, vale a dire le cellule reali -- come il lievito, i batteri, le vostre e le mie

cellule -- realizzano effettivamente processi collegati in cui processi spontanei e non spontanei sono

accoppiati per costruire vincoli sulla liberazione di energia. L'energia, una volta liberata, costituisce

lavoro che si propaga e che effettuerà ulteriore lavoro, costruendo ulteriori vincoli sulla liberazione

di energia che, liberata a sua volta, costituirà lavoro destinato a propagarsi oltre.»61 La figura 5

rappresenta in modo schematico una cellula.

Figura 5

Qui viene mostrata una tipica membrana a doppio strato lipidico, piccole molecole organiche di

specie differenti A, B, C, D, E, F, G, un canale trans-membrana, e così via. Ebbene, come tutti

sanno, le cellule eseguono di regola lavoro termodinamico per costruire lipidi da specie molecolari

più piccole. Tipicamente, l'energia la forniscono la scissione di ATP in ADP o reazioni metaboliche

esoergoniche simili. I lipidi, tuttavia, hanno la capacità di precipitare in una struttura a bassa

energia, precisamente un doppio strato lipidico. In ambiente acquoso, notoriamente, i lipidi tendono

a formare membrane a doppio strato lipidico con le teste idrofobiche affacciate sul mezzo acquoso e

le code idrofobiche rivolte in profondità, le une contro le altre lontane dall'acqua. In realtà, se si

prende una molecola lipidica e la si dissolve in acqua, si formeranno spontaneamente vescicole

membranose di lipidi a due strati: i liposomi. Alla luce di tutto ciò, dunque, risulta possibile inferire,

in accordo con Kauffman, che le cellule eseguono lavoro termodinamico per costruire lipidi, lipidi

che, a loro volta, formano spontaneamente una struttura a bassa energia, la membrana. Ma la

membrana costituisce vincoli. Si veda la figura 5. «A e B sono piccole specie molecolari organiche

capaci di tre reazioni ipotetiche. A e B possono essere soggette ad una reazione due-substrati-due-

prodotti e formare C e D. A e B possono saldarsi e formare un unico prodotto, E. Oppure A e B

possono andare incontro a una differente reazione due substrati-due prodotti e formare F e G.

Naturalmente ciascuno di questi tre percorsi di reazione di A e B procede lungo le proprie

coordinate di reazione attraverso il proprio differente stato di transizione. Poiché ciascuno dei tre

stati di transizione possiede un'energia superiore rispetto ad A e B o ai prodotti C più D oppure E o

F più G, l'energia dello stato di transizione è una barriera di potenziale energetico, che rallenta la

reazione da A e B lungo ciascuno dei tre percorsi di reazione.»62 Si supponga che A e B si

dissolvano nella membrana lipidica dall'interno acquoso della cellula. Quando ciò accade,

l'immersione di A e di B nell'ambiente della membrana modifica i movimenti vibrazionali,

rotazionali e traslazionali (o gradi di libertà) di A e B. Ma, a loro volta, le modificazioni dei

movimenti di A e di B modificano l'altezza delle energie dello stato di transizione lungo ciascuna

delle tre vie di reazione da A e B a C più D oppure a E, o a F più G. «Ma la modificazione delle

altezze di energia potenziale lungo i tre differenti percorsi delle reazioni da A e B è precisamente la

modificazione dei vincoli su queste reazioni. Le altezze delle barriere, insieme con le barriere di

energia anche superiori che forniscono i muri delle coordinate di reazione lungo cui la reazione

procede, costituiscono i vincoli. La cellula in realtà ha dunque svolto lavoro termodinamico per

costruire vincoli sulla liberazione di energia chimica immagazzinata in A e B, che potrebbe essere

liberata per formare C più D oppure E, o anche F più G.»63 Non solo. Il grande studioso, infatti, fa

notare che la cellula esegue lavoro termodinamico, utilizzando la degradazione di ATP in ADP,

anche per legare gli aminoacidi in una proteina enzimatica. L'enzima diffonde nella regione della

membrana dove sono caricati A e B e si lega stereospecificamente allo stato di transizione che

conduce da A e B ai prodotti C e D. Legandosi al complesso dello stato di transizione di questo

percorso di reazione, l'enzima abbassa la barriera di potenziale per la reazione A + B? C + D e

l'energia chimica immagazzinata in A + B viene liberata per formare C + D. Stando così le cose,

quindi, Kauffman così scrive: «La cellula esegue pertanto lavoro, sia per costruire vincoli che per

modificarli, elevando o abbassando le barriere di potenziale affinché venga liberata energia chimica.

Inoltre, l'energia liberata può, cosa che spesso si verifica, propagarsi per effettuare lavoro che

costruisce altri vincoli. Allora, il prodotto D potrà a sua volta diffondersi verso un canale trans-

membrana e qui legarsi, cedendo parte dell'energia immagazzinata nella sua struttura mediante una

rotazione interna ad uno stato di energia inferiore, e perciò sia legarsi al canale sia addizionare

energia a quest'ultimo per aprirlo, in modo tale che gli ioni calcio entrino nella cellula. Sono così

accoppiati un processo spontaneo e un processo non spontaneo. Il lavoro si propaga nelle cellule e

spesso lo fa attraverso la costruzione di vincoli sulla liberazione di energia, che una volta rilasciata

costituisce lavoro che si propaga per costruire ulteriori vincoli sulla liberazione di energia.»64

In termini di diversità molecolare e di diversità di altro tipo, quindi, secondo il grande studioso,

l'universo e la biosfera progrediscono in un persistente possibile adiacente. Nuovi tipi di molecole,

infatti, dotate a loro volta di nuove proprietà e in coppia con altri tipi di molecole, nascono senza

sosta sul pianeta terra e forse nelle fredde nubi molecolari giganti, dove, cioè, nascono le stelle in

gran parte delle galassie a spirale. Così, è Kauffman che parla, le nuove specie di molecole

forniscono nuove reazioni esoergoniche ed endoergoniche, nuovi vincoli e nuove fonti de energia

che sono parte della creatività che vediamo al di fuori delle nostre finestre. «Eppure, noi sappiamo a

malapena come esprimere la natura di questa propagazione e di questa elaborazione

dell'organizzazione e del processo, e siamo privi di indizi sull'esistenza di leggi generali che

presiedono a tali processi auto-costruttivi in non equilibrio. Una legge del genere potrebbe essere la

mia sospirata quarta legge della termodinamica per sistemi aperti e auto-costruttivi. Eravamo partiti

dagli agenti autonomi, ma qui siamo andati oltre le biosfere. Quali sono le condizioni generali che

consentono di fiorire a tali processi auto-costruttivi in non equilibrio? Le biosfere sono l'unico

esempio? Che dire allora dell'evoluzione della geologia di un pianeta, di un sistema solare, di una

galassia o dell'universo intero? Esistono modi per considerare l'emergenza di strutture che misurano

e scoprono fonti di energia nei sistemi in non equilibrio, insieme con l'emergenza di strutture e

processi che si accoppiano a fonti di energia, effettuano lavoro per costruire vincoli e propagano la

liberazione vincolata dell'energia scoperta, tale che possano sorgere strutture, vincoli e processi più

diversi, de novo, nel possibile adiacente dell'universo che si evolve?»65 A molte di queste domande

tutt'ora non c'è una risposta che non sia soltanto un'ipotesi. Molto probabilmente, però, secondo

Kauffman, l'universo rompe di continuo simmetrie generando novità di questo tipo, creando

molecole peculiari o altre forme mai esistite prima. Addirittura, secondo Kauffman e Atkins,66

potrebbe esistere una legge generale per la biosfera e forse anche per l'universo intero lungo la

traccia seguente. Una candidata quarta legge della termodinamica: «come tendenza media, le

biosfere e l'universo creano novità e diversità quanto più rapidamente possibile senza distruggere

l'organizzazione propagante accumulata, che è il fondamento e il tessuto connettivo da cui ulteriore

novità viene scoperta e incorporata nell'organizzazione propagante.»67 Gli agenti autonomi, ovvero

sistemi autoriproduttivi che eseguono uno o più cicli di lavoro collegando processi esoergonici ed

endoergonici in una modalità ciclica che propaga l'unione di catalisi, di costruzione di vincoli e di

organizzazione di processo, sono gli esempi più miracolosamente diversificanti di questo processo

generale che avviene nel nostro universo in continuo dispiegamento e in continua trasformazione.

Con riferimento a questa prospettiva, dunque, ci sia consentito, a questo punto, di chiudere il

presente paragrafo facendo nostra la seguente riflessione di Kauffman tratta dal suo ultimo volume:

«Now what a cell does is rather astonishing, and hard to pin down. Chemical processes happen that

do work to construct constraints on the release of Energy, which, when released, does further work

that builds a variety of things, including further constraints on the release of energy. This, crudely,

is propagating process. In due course, this propagating process of constraint construction, the

constrained release of energy in specific directions, the resulting building of structures and carrying

out of processes, closes upon itself in a set of tasks such that the cell constructs a rough copy of

itself. While we all know this is true, we seem not to have a language for it. The closest simple

analogy I can think of is a river and river bed, where the river carves the bed, while the bed is a

constraint on the flow of the river. The phenomena of propagating processes, with linked constraint

construction and constrained release of energy, are right in front of us, but hard to describe so far,

and hard to mathematize so far. It is this self propagating organization of processes, upon which the

philosopher Immanuel Kant commented over 200 years ago, that we need to understand more fully,

and for which we need to formulate a mathematical framework. Perhaps the reader knows of such a

framework already. I confess I do not as jet. Nevertheless, cells carry out a propagating organization

of process, overwhelmingly chemical, that remains poorly analyzed. Linked among cells, this

propagating organization of process flows through and constructs the biosphere.»68

3. Semantica molecolare ed «informazione istruttiva»

Nei paragrafi precedenti abbiamo avuto modo di approfondire ulteriormente la definizione di agente

autonomo elaborata da Kauffman. Ora tale definizione risulta alquanto ampliata poiché abbiamo

realizzato che spesso gli agenti autonomi rilevano, misurano e registrano anche spostamenti

dall'equilibrio di sistemi esterni, e che tali spostamenti sono impiegabili per estrarre lavoro. Al

momento, dunque, sappiamo che gli agenti autonomi estraggono lavoro dal loro ambiente,

propagando lavoro e costruendo vincoli. L'egretta, l'airone, l'Escherichia coli e qualsiasi altro essere

vivente, però, fanno parte del mondo fisico tanto quanto gli atomi e forse più dei quark. Tuttavia, gli

agenti autonomi che manipolano giorno per giorno il mondo a loro vantaggio e che ricevono dai

loro linguaggi comuni gli attributi inevitabili dell'intenzionalità e della finalità sono anche, nella

definizione divisata da Kauffman, semplici sistemi fisici con un'organizzazione peculiare di

processi e di proprietà. «Se il concetto di agente autonomo fosse una definizione utile -- o, meglio,

adeguata -- della vita stessa, allora gli agenti autonomi colmerebbero il divario che separa il

dominio del meramente fisico da quel nuovo regno del meramente fisico dove tutti noi ci

attribuiamo a vicenda uno scopo. La semantica entra in gioco con la finalità. Affinché ciò sia vero,

non è necessario che i portatori di finalità -- mi viene in mente proprio quello stesso batterio che si

dirige contro corrente lungo il gradiente di glucosio -- siano coscienti.»69 In precedenza abbiamo

visto che, secondo il grande studioso, una biosfera è una co-costruzione auto-consistente di agenti

autonomi, di modi di procurarsi da vivere e di procedure di ricerca (la mutazione e la

ricombinazione), ma, al contempo, è anche «esplorazione comportamentale aperta» per gli agenti

autonomi. Ebbene, Kauffman sostiene che questi ultimi, come individui e come collettività, hanno il

know-how incarnato per guadagnarsi da vivere con i giochi naturali del loro mondo. «I mezzi per

procurarsi da vivere ben esplorati e padroneggiati dagli agenti e dalle loro procedure di ricerca sono

diventati i mestieri più occupati, le nicchie abbondanti nella biosfera. Nella totalità di questo

sistema auto-costruttivo vi è un saper fare più ampio, che travalica quello di ogni singolo agente

autonomo che si muove bramosamente nel suo microambiente. Eppure è chiaro che il saper fare è

distribuito. Non esiste alcun agente autonomo, nessuno, che sappia come funziona l'intero sistema,

non più di quanto oggi ciascuno di noi conosca il funzionamento di un sistema economico globale

con le sue miriadi di interazioni, di transizioni commerciali, di frodi, speranze e frustrazioni. Che

cos'è il know-how nel mondo? I filosofi distinguono tra sapere come (know-how) e sapere che

(know-that). Io so come allacciarmi le scarpe e sto imparando come si suona la batteria jazz. Il

sapere che riguarda proposizioni, più convenientemente proposizioni umane. Io so che la luna --

così mi dicono -- non è fatta di gorgonzola. So che la terra orbita intorno al sole e che è grossomodo

sferica; che le sedie vengono usate per sedersi. Il sapere che implica le questioni standard e non

standard della verità o della falsità di proposizioni riferite a stati del mondo. Forse anche i primati

superiori addestrati a manipolare simboli semplici con evidente riferimento al mondo possono

possedere il sapere che rispetto a proposizioni. Il sapere come, a differenza del sapere che, non

implica proposizioni sul mondo. Esso riguarda la conoscenza procedurale, il nostro cavarcela nel

mondo. Il ghepardo che insegue lo gnu e l'atleta di talento che salta in alto possiedono il know-how

che permette loro queste azioni. Allora, un batterio sa come procurarsi da vivere nel proprio

mondo? La mia risposta è, senza titubanze, sì, anche se io non attribuisco affatto a quest'ultimo una

coscienza.»70 Si consideri, per esempio, la miriade di intricate attivazioni e disattivazioni di geni, di

commutazioni metaboliche, di contrazioni meccaniche, di percezione del gradiente di glucosio, di

azioni natatorie controcorrente per raggiungere concentrazioni maggiori di glucosio. Il batterio sa

fare tutto ciò anche se non può raccontarlo. «Grazie a Dio esiste il know-how. Il sapere che non che

è una sottile patina depositata sopra la facoltà del know-how, una facoltà vecchia quattro miliardi di

anni e abbondante nella biosfera. Ma qualsiasi agente autonomo che prolifera da solo e con una

congerie di altri agenti è anche favorito, sembrerebbe, da quel suo know-how. Se nei decenni a

venire sintetizzeremo agenti autonomi ed essi co-evolveranno sotto il nostro sguardo rapito in pochi

mesi o anni, in un ecosistema di modesta complessità, brulicante di nuove forme di vita, ebbene

anch'essi sapranno come procurarsi da vivere nel modo che avranno creato mutuamente, cui si

aggiungeranno le condizioni al contorno che noi, più o meno intelligentemente, imporremo loro.

Posto in questi termini, il know-how è solo un altro modo di vedere le chiusure catalitiche che si

propagano, i compiti di lavoro, la percezione, la registrazione e le azioni che noi oggi riconosciamo

come intrinseci alle attività di agenti autonomi. Il know-how non è al di fuori di

quell'organizzazione propagante: il know-how è l'organizzazione propagante.»71 Eccoci, dunque,

inevitabilmente condotti ai confini della semantica. In on emergence, agency and organization,

articolo del 2006, Kauffman, in collaborazione con P. Clayton, ha messo in luce il fatto che se esiste

un agente autonomo, esiste necessariamente una semantica dal suo punto di vista privilegiato.

Ebbene, tutto ciò è molto semplice. Una specie molecolare che sopraggiunge e penetra in un agente

autonomo è: (I) cibo; (II) veleno; (III) un segnale; (IV) neutro; (V) altro. La molecola entrante è

disgustosa oppure deliziosa. Agli occhi di Kauffman il grande passo concettuale verso il disgustoso,

ovvero il delizioso, è inevitabile una volta che un agente autonomo viene posto in essere.72 Così,

sostanzialmente, risulta possibile inferire che sono criteri darwiniani quelli a cui stiamo facendo

riferimento: se è delizioso, infatti, questo tipo di agente sarà probabilmente più rappresentato sotto

forma di discendenza, qualora fosse disgustoso, invece, non è altrettanto probabile che questa

discendenza prospererà. A questo punto, dunque, a giudizio di Kauffman, se esistono il disgustoso

ed il delizioso, allora vuol dire che ci stiamo avvicinando alla triade semiotica di C. S. Pierce:

segno, significato, significante. «Che ci piaccia o meno, il gradiente di glucosio è un segno, un

qualcosa che predice «maggiore quantità di glucosio lungo quella strada». Certo, tale molecola non

è un simbolo arbitrario, non più di quanto la nube lo è per la pioggia. In quest'accezione limitata, i

segni sono casualmente correlati con la cosa significata. Viceversa, la relazione tra la parola sedia e

l'oggetto che essa significa, e su cui adesso sono seduto, è arbitraria. Ma possono i segnali chimici

nelle comunità di batteri, di piante e di esseri umani essere arbitrarie dal punto di vista chimico-

causale? In caso affermativo, possono «mere sostanze chimiche» essere segni a pieno titolo, per

come li intendeva Pierce? Io sono convinto sia chiaro che una semplice chimica in un agente

autonomo possa ospitare simboli e segni nelle accezioni più complete dei termini.»73 Si consideri,

ad esempio, il celeberrimo codice genetico. Triplette di nucleotidi in una molecola di RNA

rappresentano aminoacidi specifici, i quali verranno incorporati in una proteina. Nei dettagli della

meccanica causale, infatti, abbiamo: le molecole di tRNA con il sito dell'anticodone e con il sito

distante cui si attaccano gli aminoacidi, gli enzimi aminoacil-trasferasi che caricano il sito di

legame dell'aminoacido di ciascun tRNA con l'aminoacido corretto tra i venti disponibili, il legame

del sito caricato dell'anticodone dell'RNA con l'opportuna tripletta dell'RNA (una parola in codice)

ed infine il ribosoma che scivola tra molecole caricate di tRNA adiacenti legando così gli

aminoacidi nella catena polipeptidica in crescita la quale fluttua in una sua estremità nel citoplasma

essendo ancorata dal ribosoma alla molecola di mRNA che nel frattempo viene tradotta.

L'arbitrarietà del codice genetico è esemplificata dall'evoluzione di nuove molecole di tRNA le

quali traducono un determinato codice di triplette di mRNA in un aminoacido differente. Come tutti

sanno, Monod, più di trenta anni fa, ha focalizzato l'attenzione delle sue ricerche sulla gratuità dei

processi cellulari mettendo così in luce il fatto che le relazioni tra le strutture chimiche che

controllano la catalisi sono totalmente arbitrarie rispetto a quelle che la supportano. Lo stesso

discorso vale per lo tRNA. Qui, infatti, il sito dell'anticodone è distante dal sito di legame

dell'aminoacido e, in virtù di ciò, quale aminoacido sia caricato su una specifica molecola di tRNA

è assolutamente arbitrario ed è controllato dall'enzima aminoacil-trasferasi, nonché dalla struttura

del sito di legame per l'aminoacido sul tRNA: entrambi, quindi, possono essere modificati senza

cambiare il meccanismo di accoppiamento codone-anticodone. Alla luce di tutto ciò, dunque,

Kauffman, dopo aver più volte ribadito che la chimica ammette organizzazioni arbitrarie delle

relazioni di controllo, così si esprime: «Sembra pienamente legittimo assegnare i concetti di segno,

significato e significante al codice genetico. E sembra legittimo anche estendere quella nozione a

gran parte dei raffinati meccanismi di trasmissione di segnali, chimici e di altra natura, tra agenti

autonomi e all'interno di essi. Ne sono un esempio le piante. Esse, infestate da un particolare

insetto, secernono un metabolita chimico secondario che allerta altri membri della stessa specie di

un'infestazione d'insetti in atto, affinché questi attivino, a loro volta, metaboliti secondari di difesa

anti-insetto.»74 In accordo ad una tesi formulata da J. Bronowski75 e formalizzata, poi, da M.

Eigen, è ormai consuetudine affermare che, a livello biologico, il contenuto informazionale di una

struttura data può permanere stabile solo se esso viene mantenuto nel tempo nei limiti di una

determinata soglia che risulta essere inversamente proporzionale al tasso medio di mutazioni che si

danno nella replicazione delle strutture individuali.76 In tal modo, il mantenimento della stabilità

nella replicazione risulterebbe legato ad una sorta di confronto continuo ed incessante con il

rumore. Tuttavia, in relazione a questa tesi, occorre rilevare il fatto che senza la utilizzazione

creativa degli shifts casuali, vale a dire senza l'irrompere di mutazioni, non vi è, a livello degli

organismi viventi, reale possibilità di raggiungere progressivamente strutture stabili di grado più

elevato. Con riferimento alla formulazione originaria della tesi di Eigen, pertanto, come rilevano A.

Carsetti ed altri studiosi, appare necessario distinguere due diversi tipi di stabilità. «Una stabilità

statica connessa ad una pura replicazione dell'esistente ed una stabilità dinamica che vive nello

sviluppo e che risulta legata a continui processi di trasformazione e di innovazione. A livello di

questo ultimo tipo di stabilità, un organismo biologico può pervenire a realizzare un incremento

progressivo della complessità che lo caratterizza a livello interno e, quindi, un arricchimento

effettivo del proprio patrimonio informazionale, solo mediante la utilizzazione creativa di shifts

casuali capaci di aprire la strada per giungere a concretizzare stadi più alti e prima imprevedibili di

complessità stabile. È attraverso questa utilizzazione creativa che il gioco casuale della evoluzione

appare venire a lanciare in avanti il processo della crescita, permettendo il delinearsi di nuovi

equilibri, di nuove strutture, capaci di rivelarsi come dei veri e propri punti di accumulo per nuovi

balzi, per brusche variazioni dei tassi di crescita della complessità interna; variazioni atte a condurre

al superamento di antiche soglie per determinare, quindi, in loro vece, nuovi livelli di stabilità

invariante.»77 Così, nel caso dell'evoluzione naturale, ci troviamo dinanzi a processi di

convergenza e di divergenza intrinsecamente correlati. In altre parole, ci troviamo di fronte ad una

sorta di processo dialettico nascosto in grado di tenere insieme permanenza ed innovazione da un

lato e variabilità e specificità dall'altro, una dialettica vale a dire che, in ogni caso, vede come

risultato ultimo del processo la formazione di «isole sempre più rarefate di negentropia». Questo

rapporto dialettico tra stabilità e mutazione, dunque, ci consente di rivisitare le prime considerazioni

di Monod circa la relazione esistente tra casualità ed invarianza, ma, al contempo, ci indica anche la

necessità di un ampliamento della problematica monodiana: «La necessità, segnatamente, di

giungere a distinguere una invarianza di superficie da una invarianza a livello profondo, connessa a

precisi processi di crescita e di rivelazione a livello interno. Rispetto a questo ultimo tipo di

invarianza non si pone più, soltanto, il problema di garantire la fedeltà della replicazione del

messaggio originario, né quello di garantire, esclusivamente, tramite selezione, la permanenza di

mutazioni inseritesi nel tessuto del messaggio e rivelatesi apportatrici di specifici vantaggi selettivi;

ciò che appare necessario assicurare, perché una struttura data si replichi secondo invarianza

profonda, è la possibilità, da un lato, della eliminazione sistematica del rumore non utilizzabile in

modo costruttivo e, dall'altro, del delineamento di «aperture» di tipo non predeterminato che

conducano ad una irruzione di rumore «creativo» in vista di un successivo allargamento delle basi

semantiche del messaggio che viene trasmesso, della struttura stessa che si replica invariante.»78

Ovviamente, per far sì che questo tipo di processo possa darsi in modo ordinato, occorre l'esistenza

di una attività continua di controllo, di auto-organizzazione e di selezione. Occorre, cioè, un

rapporto di accoppiamento costante tra gli organismi che si replicano e l'ambiente circostante.

Prima di tutto, infatti, è l'ambiente che concorre a determinare i confini del tasso medio di

mutazioni che possono darsi all'interno di un determinato essere vivente ed è l'ambiente che

interviene attraverso la selezione per assicurare una «direzione» all'evoluzione. Così, più un

organismo risulterà altamente strutturato, più avrà l'opportunità di sfruttare intelligentemente ed in

modo autoregolato le proprie risorse interne e più avrà possibilità di fare proprie le potenzialità di

sviluppo che gli vengono offerte dalle mutazioni, ovverossia dalle «vie privilegiate del caso».

D'altro canto, l'ambiente, a sua volta, dovrà intervenire per selezionare tra la molteplicità degli

sviluppi possibili e per guidare la composizione di questi sviluppi in modo da garantire una crescita

ed un adattamento equilibrati. «Ci troviamo, pertanto, a livello evolutivo, dinanzi ad una situazione

dinamica che diviene e si trasforma per equilibri successivi. Da un lato, il mantenimento necessario

della stabilità nella replicazione comporta la eliminazione di una molteplicità di vie del rumore.

Questa espulsione dall'isola identica della replicazione di aperture e tensioni sottese, di aggressioni

aleatorie interne ed esterne, costituisce un impoverimento oggettivo delle capacità espressive a

livello di crescita e di rivelazione in senso profondo della struttura che si riproduce. Dall'altro, la

utilizzazione creativa degli shifts casuali, l'inglobamento ordinato di mutazioni permettono una

crescita reale delle strutture. Ma questa utilizzazione non potrà essere portata oltre una certa soglia

se non si vuole che la struttura perda la propria identità, le proprie caratteristiche di stabilità interna,

di controllo unitario ed equilibrato di un processo di rivelazione progressiva.»79 A questo punto,

dunque, l'aporia che sembrava scaturire da quest'apparente contrapposizione si scioglie una volta

che l'identità or ora accennata, in una situazione di sviluppo, non venga più intesa, in senso

restrittivo, come identità di superficie, bensì come invarianza relativa alla coordinazione unitaria dei

patterns profondi di crescita. In tal senso, quindi, proprio all'interno di questo rapporto dinamico tra

superficie e profondità è possibile rintracciare il filo conduttore utile a farci comprendere come sia

possibile, in effetti, conservare un'identità a carattere analitico nonostante il flusso di trasformazioni

progressive (sintetiche) delle strutture informazionali. In questa luce, dunque, appare possibile

pensare che «è, esattamente, nelle pieghe di questa connessione intrinseca che si cela l'origine,

almeno per determinati aspetti, delle metamorfosi della Natura, la ragione o meglio una delle

ragioni che guidano il continuo emergere del nuovo. Da un punto di vista effettivo [...] il problema

non è, pertanto, quello di chiarire entro quale soglia, in presenza di mutazioni, possa essere

assicurata la replicazione invariante di una struttura data. Il problema è quello, in realtà, di spiegare

in che termini e secondo quali modalità una crescita conservativa della struttura, atta a rivelare il

tessuto profondo delle potenzialità che la sottendono, possa contemporaneamente giungere sia ad

utilizzare il rumore in senso creativo, sia ad assicurare una invarianza minima di superficie, in

maniera tale da permettere un'alternanza coordinata di periodi di convergenza e di divergenza. E',

precisamente, la esistenza di questa porta di Giano nei confronti del Caso che assicurerebbe,

secondo la ipotesi che viene qui delineata, quel lancio in avanti dell'evoluzione a cui si è dianzi

accennato. Non si tratta più, allora, di determinare soltanto i confini di una soglia, bensì di

comprendere in qual modo questa soglia, pur operante, possa essere spostata continuamente in

avanti, nel rispetto di precisi moduli connettivi e secondo gradi di complessità via via più

elevati.»80 Ebbene, l'origine e le modalità di azione di questo spostamento appaiono direttamente

riconducibili, per quanto concerne il modello teorico, nel cuore della dinamica propria dei processi

di auto-organizzazione che sono alla base dei fenomeni della vita. Quando ci troviamo, infatti,

dinanzi non a fenomeni di puro ordine né di pura casualità, bensì a fenomeni riguardanti forme di

alta auto-organizzazione, ci troviamo, in realtà, al cospetto di una situazione intermedia tra la

completa assenza di vincoli e il massimo della ridondanza. Nei fenomeni vitali, pertanto,

l'organizzazione dovrebbe essere vista come un compromesso tra la massima variabilità e la

massima specificità, un compromesso, vale a dire, che, in presenza di una struttura profonda

sottostante il messaggio di superficie, verrà ad articolarsi secondo una dimensione dinamica capace

di mutare nel tempo. «La dimensione propria di un processo di auto-organizzazione, di un processo,

vale a dire, in base al quale il cambiamento dei moduli organizzativi non risulta diretto da un

programma già predeterminato, bensì da un programma che nasce dall'incontro tra la esplicitazione

di potenzialità interne al sistema in evoluzione, da un lato, e la rivelazione (a seguito anche del

realizzarsi di una precisa azione di guida) di principi generativi che vivono, in modo sotteso, nella

realtà esterna al sistema, dall'altro. Tale processo potrà comportare in linea di principio, un

progressivo decremento delle condizioni di possibile alta ridondanza proprie dello stato iniziale,

sotto l'effetto di una molteplicità di fattori, ed un correlato e successivo incremento della variabilità

potenziale a livello simbolico. Ciò potrà permettere, quindi, un ampliamento susseguente del raggio

d'azione dei fattori regolativi interni, collegato all'apparizione di nuovi vincoli, di forme rinnovate

di organizzazione. In questo modo ad un aumento della variabilità verrà a corrispondere un aumento

della specificità, una diminuzione del disordine. E ciò senza cadere in paradossi o contraddizioni.

E', esattamente, a questo pressoché contestuale aumento della variabilità e della specificità, che

facciamo riferimento quando parliamo di apertura dall'interno di un sistema accoppiato, dotato di

moduli auto-organizzativi. In altre parole, nel momento in cui si realizzano passaggi di soglia le

basi della variabilità si ampliano e si giunge, altresì, nel contempo, a porre le condizioni per

realizzare fenomeni di organizzazione estremamente complessi.»81 In effetti, oggi sappiamo come

l'entropia possa aumentare e contemporaneamente il disordine diminuire quando il numero dei

microstati non risulta costante: in particolar modo quando l'incremento di questo numero avviene

più rapidamente di quello di S (l'entropia). In tal senso, allora, può essere rivisitata la tesi originale

di von Weizsäcker che mette in stretta relazione l'incremento di informazione e l'incremento di

entropia: l'ampliarsi della variabilità è, infatti, condizione necessaria, a livello semantico, per il

realizzarsi di una «complessificazione» del sistema.82 Così, come tutti sanno, affinché si realizzi un

concreto processo di auto-organizzazione occorre la presenza di un sistema accoppiato sorgente-

osservatore che risulti caratterizzato da un «dialogo informazionale» continuo tra le due componenti

or ora accennate, nonché dalla capacità effettiva della sorgente di aprirsi al proprio interno

articolandosi così secondo una precisa dimensione semantica in grado di snodarsi per livelli

gerarchici successivi. Naturalmente, il legame tra evoluzione ed entropia deve essere visto in

riferimento al divenire reale di biosistemi a carattere complesso, dotati di codice interno, di apparati

specifici di regole e di capacità di auto-programmazione. Occorre, in questo senso, andare oltre la

caratterizzazione data da Shannon del concetto di informazione: «Il punto di fondo è che a livello

biologico gli organismi sono determinati da un insieme di vincoli, di codici, di programmi.

L'informazione che risiede negli organismi a livello profondo specifica, al tempo stesso, la loro

struttura. Dobbiamo, pertanto, seguendo Layzer, individuare uno spazio degli stati avente carattere

biologico e definire, conseguentemente, microstati o eventi elementari che risultino determinati da

vincoli regolativi, da regole di produzione, da punti limite ecc. La variabilità e la specificità

dovranno, quindi, essere definite rispetto a questo tipo particolare di microstati; ad eventi

elementari, vale a dire, che non possono essere identificati [...] tramite il riferimento ingenuo a

frequenze o a vincoli di superficie; che debbono, al contrario, essere definiti nella loro oggettività,

nel quadro del rapporto dialettico esistente tra osservatore e sorgente, tra ipotesi misure e

falsificazioni, in riferimento, segnatamente, alla possibilità stessa di innescare, tramite la guida

offerta dalle misure, un processo di liberazione della informazione profonda e, quindi, il rivelarsi

progressivo di strutture specifiche, collegate al processo suddetto. Qui possiamo individuare uno dei

nodi cruciali del processo della analisi. La nostra capacità di arrivare a distinguere microstati atti a

dar conto dell'articolarsi di una funzione-entropia associata a specifici vincoli regolatori a carattere

biologico, può permetterci di delineare una spiegazione, in generale, dei processi di soglia e di auto-

organizzazione che sono alla base di quel particolare tipo di struttura vivente rappresentato dal

DNA. Una molecola, vale a dire, che possiede al suo interno le regole preposte alla piena

espressione del proprio programma, nonché le regole per mutare queste stesse regole.»83 Tale

molecola, dunque, possiede una capacità che risulta adeguata ad elaborare strutture potenzialmente

infinitarie, quelle strutture, vale a dire, che risultano essere determinanti per la trasmissione

dell'informazione, trasmissione che si attua con la replicazione nel finito, con la trasmissione delle

regole relative alla replicazione della struttura. In questo modo, allora, il DNA non è sorgente

infinitaria in senso attuale, bensì costituisce la base per la trasmissione di quantità finite, ma

adeguate, di informazione relative alla edificazione per replicazione possibile di strutture

potenzialmente infinitarie. «Occorre, in altre parole, rendersi conto, innanzitutto, che non è

possibile calcolare l'informazione biologica così come avviene per il caso della trasmissione dei

segnali. Non possiamo confondere eventi macroscopici o macrostati con microstati. Né basta tener

conto dell'intervento dell'attività della misura distinguendo informazione libera ed informazione

legata, quando, poi, non si è in grado di individuare la realtà intrinseca dei microstati biologici e,

quindi, il tipo di vincoli specifici ad essi connessi. È necessario, al contrario, individuare i livelli

della informazione profonda, là dove si nascondono i vincoli regolatori; è necessario, altresì, dar

ragione del rapporto che lega l'osservatore alla sorgente ed in particolare del nesso che intercorre tra

i vari livelli a cui si disloca il contenuto della informazione. Ciò permetterà di definire in modo

corretto i microstati con riferimento alla evoluzione reale della sorgente ed alla apparizione

progressiva di nuovi vincoli in presenza di un aumento della variabilità. Come giustamente nota

Jaynes entrare nei livelli profondi della sorgente, nel nostro caso del DNA, è possibile solo con

l'aiuto di telescopi-modelli molto sofisticati, con l'aiuto di misure di informazione e di ipotesi non

predeterminate in modo rigido. Capaci, occorre aggiungere, di dar ragione del complesso intreccio

esistente tra informazione di superficie ed informazione di profondità. Di dar conto, in altri termini,

di come il rumore, generato innanzitutto a livello interno, possa essere sfruttato in modo creativo e

divenire fattore di innovazione. Tutto ciò comporta che i microstati non potranno essere considerati

come semplici lettere di un alfabeto, come entità ancorate a vincoli di superficie a carattere

monodimensionale, incapaci di dar conto della dialettica esistente tra sorgente ed osservatore. Al

tempo stesso la creatività del sistema, il suo carattere semantico non possono scaturire [...] da

semplici aggiunte di nuovi stati-lettere, bensì dal manifestarsi di processi di riorganizzazione

globale che si realizzano tramite scissione interna degli atomi, apertura di punti fissi, individuazione

di nuovi attrattori. Il problema reale è quello di capire come la macchina auto-poietica giunga ad

ampliare, in modo autonomo, la base della propria variabilità interna in modo da porre le basi per il

realizzarsi di un bricolage evolutivo, storicamente determinato che si snoda lungo il passaggio da

un elemento all'altro di una gerarchia di livelli, secondo moduli non predeterminati in via

completa.»84 Il problema reale, dunque, è quello di capire come l'osservatore possa, tramite le sue

misure, porsi come «fattore di guida» per il rivelarsi delle potenzialità nascoste, ovvero per

l'espressione piena dell'autonomia propria della fonte. Per poter realizzare tale azione di guida,

quindi, l'osservatore dovrà possedere una teoria adeguata della complessità, ossia dovrà dotarsi di

strumenti che non siano il frutto di proiezioni antropomorfiche, che risultino, bensì, oggettivi:

capaci, ad esempio, di dare nascita ad un processo concreto di aumento della variabilità. Quanto

abbiamo fin qui accennato, dunque, può essere sommariamente riassunto dicendo che un processo

di auto-organizzazione atto a determinare la crescita «qualitativa» della complessità propria del

sistema, può darsi effettivamente solo nel caso in cui viene garantita la presenza operante di alcuni

fattori di fondo: «(1) il carattere accoppiato del sistema globale: la presenza, vale a dire, di una

interazione continua tra sorgente ed osservatore; (2) l'articolarsi intrecciato di una molteplicità di

processi di riflessione, invenzione e selezione; (3) la presenza di un apparato di istruzioni, di un

codice autonomo interno alla sorgente, atto a far si che la sorgente, nel mentre che esprime se

stessa, specifichi, nel medesimo tempo, la propria struttura; (4) uno sviluppo autonomo del sistema

che risulti intessuto in accordo alle caratteristiche di un vero e proprio bricolage evolutivo; (5) la

presenza, da un lato, di potenzialità latenti a livello della sorgente, di fattori di liberazione possibile,

e la presenza, dall'altro, di programmi specifici a livello di osservatore, di fattori vale a dire di

intervento, riflessione e coagulo.»85 Nel quadro di questa apertura a carattere semantico, dunque, a

nostro giudizio, si profila l'importanza di possedere una teoria dell'informazione che non si incentri

soltanto sulla determinazione di particolari distribuzioni di probabilità, da un lato, e

sull'accertamento delle condizioni di ergodicità, dall'altro, ma che, diversamente, definisca il

contenuto di informazione di «strutture-oggetti» determinati in termini della complessità degli

oggetti stessi, della quantità di informazione necessaria per calcolare e generare le strutture sotto

esame. Ebbene, il calcolo shannoniano «risulta legato al disegno di un programma stocastico che

consente la ricostituzione, a livello di superficie, della struttura frantumata, che permette, cioè, di

ristabilire i vincoli perduti in accordo a misure proposizionali e nel quadro di un processo che si

articola in un ambito a carattere strettamente monodimensionale. In un quadro, vale a dire, che non

prende in considerazione l'ampliamento e la trasformazione autonoma del tessuto delle

complessioni, sulla base dell'intervento di fattori di auto-organizzazione. Che non prevede, al limite,

il sorgere stesso di tale ampliamento a seguito della interazione reale sistema-osservatore. L'ordito

concettuale fornito da Shannon non consente di analizzare i punti campioni oltre il livello di

superficie. Essi vengono definiti, per di più, in relazione ad una rete di vincoli a carattere

markoviano che limita, a sua volta, le possibilità relazionali di tali punti, nonché il ventaglio di

scelta ad essi relativo.»86 Questa problematica è ben presente alla mente di Kauffman e anima una

parte non piccola dei suoi pensieri da circa un decennio, da quando cioè, come abbiamo dinanzi

mostrato, egli ha deciso di intraprendere un nuovo sentiero teorico, oggi ancora provvisorio ed

incompleto; ci stiamo riferendo qui all'affascinante congettura, proposta nel quinto capitolo di

Esplorazioni Evolutive e successivamente approfondita in alcuni articoli scientifici, di costruire una

Fisica della Semantica (o meglio una semantica molecolare) andando così oltre la tradizionale teoria

dell'informazione elaborata da Shannon e Wiener, una teoria, vale a dire, basata ancora su un tipo di

matematica troppo semplice e quindi incompatibile con la complessità dei fenomeni vitali. Nel suo

volume, dunque, il grande studioso americano così si esprime: «Il calcolo, ovvero l'elegante teoria

dell'informazione di Claude Shannon, ha sempre riguardato la riduzione dell'incertezza statistica

della sorgente di un insieme di simboli. In nessun punto del nucleo del lavoro di Shannon sulla

codificazione e sulla trasmissione di informazione entra in gioco il significato, la semantica,

dell'informazione. La mia non è una critica e la teoria è ampiamente conosciuta e apprezzata.

Tuttavia, nella concezione di Shannon vi è appena un cenno di semantica, ovvero che essa risieda

nel decodificatore. Non posso accettare la concezione di Shannon almeno che il decodificatore non

sia un agente autonomo. In caso contrario, il decodificatore non fa altro che trasformare una stringa

di bit trasmessi lungo un canale di comunicazione in una dinamica di tipo diverso, discreta o

continua: per esempio un insieme di ciotole colme d'acqua viene svuotato attivando una macchina

che apre in determinati modi le valvole tra ciotole e mondo esterno. Gli schemi di drenaggio delle

ciotole a fronte della ricezione dei messaggi, in forma di stringa binaria inviati lungo un canale di

comunicazione, costituiscono la decodificazione. Ma se il ricevente è un agente autonomo, un

batterio per esempio, e la molecola in arrivo è un segno-simbolo di un paramecio o di un'ameba

incombenti, e il batterio si allontana nuotando perché vuole evitare di diventare il loro pasto, allora

quella sequenza di eventi sembra carica di semantica. Se solo il batterio potesse dirci: «Hai visto

quel bestione di paramecio che mi veniva addosso? Mi ci sono imbattuto prima, ma mi sono

nascosto sotto quel masso e lui non ha mai percepito la mia presenza! Sono tornato a casa sano e

salvo. Martha, passami altro glucosio per piacere». [...] Non correte, non accusatemi subito di

antropomorfismo. Io pure sono consapevole dei rischi, fra cui la pretesa comune che, in linea di

principio, possiamo sempre tradurre un «discorso intenzionale» in una spiegazione causale che

predice appieno gli eventi in questione. Pazienza! Non solo siamo incapaci di prestabilire lo spazio

di configurazioni di una biosfera e di predirne gli sviluppi, ma non possiamo nemmeno tradurre --

nel senso di condizioni necessarie e sufficienti -- il discorso giuridico in discorso intenzionale

normale, e men che meno il discorso giuridico del Signor Henderson giudicato colpevole di

assassinio in un discorso di fisica riguardante forme di onde sonore monitorate e masse descritte

lungo linee dello spazio-tempo. Proviamo, dunque, per un momento ad essere semplici. La

semantica del disgustoso -- delizioso che entra in un agente autonomo semplice -- in un batterio

primitivo, per esempio -- è legata al know-how incorporato di quell'agente, alla sua capacità o

incapacità di procurarsi da vivere nel suo mondo. La semantica di un evento è un sottoinsieme

dell'insieme, completamente modellato e dipendente dal contesto, di implicazioni causali

dell'evento, o del segnale, in questione.»87 Da queste parole, pertanto, è possibile evincere

facilmente i limiti della teoria dell'informazione classica. Secondo la concezione shannoniana,

infatti, l'entropia massima possiede una valenza esclusivamente monodimensionale.88 Il suo

modello astratto è rappresentato da un box ideale in cui si mescolano casualmente lettere-simboli.

Tuttavia, come si è detto, a livello biologico le cose risultano essere ben diverse poiché esistono

processi di apertura in serie connessi al rivelarsi di microstati via via differenti. Di qui la necessità,

messa in luce contemporaneamente ed in modo indipendente da diversi studiosi, di individuare,

caso per caso, le misure di complessità corrette, i livelli effettivi della randomness e l'articolazione

reale dei livelli logici di volta in volta in questione. In questo quadro, allora, occorre definire le

condizioni di massima entropia in riferimento non solo all'informazione di superficie, bensì anche

alla intelaiatura propria della informazione di profondità. «A livello biologico non è, ad esempio,

possibile fornire direttamente informazione-negentropia al sistema tramite sequenze di simboli

macroscopici a carattere istruttivo. Si può parlare al sistema solo nelle condizioni del suo linguaggio

interno e nel rispetto della sua autonomia. Ma ciò implica l'accertamento previo, di volta in volta, a

livello probabilistico ed informazionale, della natura effettiva dei microstati che concernono il

sistema stesso, nonché delle condizioni reali della randomness che lo caratterizzano. Occorrerà, in

altre parole, possedere una teoria adeguata delle regole, dei vincoli, del gioco dei possibili che

presiedono, dall'interno, all'articolazione espressiva dell'informazione profonda.»89 In questo

spirito, dunque, proseguiremo la presente trattazione mettendo in luce come, in pressoché totale

accordo con le parole di Carsetti, Kauffman, in collaborazione con altri studiosi, nell'articolo del

2008 dal titolo Propagating organization: an enquiry, offra alcuni spunti molto interessanti per

quanto riguarda la possibilità di elaborare una nuova teoria dell'informazione applicabile

all'evoluzione e alla biosfera, una teoria della «informazione biologica», vale a dire, che fa appello

immediatamente ad una semantica di tipo funzionale capace altresì di offrire un adeguato modello

interpretativo per le strutture infinitarie come, ad esempio, la molecola del DNA. Pertanto, nella

parte iniziale del suo articolo il grande studioso americano così scrive: «Shannon information

require that a prestated probability distribution (frequency interpreted) be well stated concerning the

message ensemble, from which its entropy can be computed. But if Darwinian preadaptations

cannot be prestated, then the entropy calculation cannot be carried out ahead of time with respect to

the distribution of features of organisms in the biosphere this, we believe, is a sufficient condition to

state that Shannon information does not describe the information content in the evolution of the

biosphere. There are further difficulties with Shannon information and the evolving biosphere.

What might constitute the «Source»? Start at the origin of life, or the last common ancestor. What is

the source of something like «messages» that are being transmitted in the process of evolution from

that Source? The answer is entirely unclear. Further, what is the transmission channel?

Contemporary terrestrial life is based on DNA, RNA, and proteins via the genetic code. It is

insufficient to state that the channel is the transmission of DNA from one generation to the next.

Instead one would have to say that the actual «channel» involves successive life cycles of whole

organisms. For sexual organisms this involves the generation of the zygote, the development of the

adult from that zygote the pairing of that adult with a mate, and a further life cycle. Hence, part of

one answer to what the «channel» might be is that the fertilized egg is a channel with the Shannon

information to yield the subsequent adult. But it has turned out that even if all orientations of all

molecules in the zygote were utilized there is not enough information capacity to store the

information to yield the adult. This move was countered by noting that, if anything, development is

rather more like an algorithm than an information channel [...] . In short, a channel to transmit

Shannon information along life cycles does not exist, so again Shannon information does not seem

to apply to the biosphere. It seems central to point out that the evolution of the biosphere is not the

transmission of information down some channel from some source, but rather the persistent on

going, co-construction, via propagating organization, heritable variation and natural selection, of the

collective biosphere. Propagating organization requires work. It is important to note that Shannon

ignored the work requirements to transmit «abstract» information, although it might be argued that

the concept of constraints is implicit in the restrictions on the messages at the Source. While we

mention this, we have no clear understanding physically of what such constraints are.»90 Come

abbiamo mostrato nel primo paragrafo, fu Schrödinger ad introdurre in biologia la meccanica

quantistica, la chimica ed il concetto d'informazione (a livello embrionale). Egli fu l'antesignano

della nostra concezione del DNA e del codice genetico poiché tradusse l'idea del dire nell'idea del

codificare. Come tutti sanno, la sostanza del gene, secondo lui, doveva essere una forma di cristallo

aperiodico e la forma dell'aperiodicità avrebbe dovuto contenere una sorta di codice microscopico

capace di controllare l'ontogenesi. A questo punto, però, è possibile domandarsi: in che senso un

cristallo aperiodico «codifica molta informazione»? Schrödinger si è limitato ad affermare che il

solido aperiodico può contenere un microcodice; egli, quindi, a giudizio di Kauffman, non ha colto

fino in fondo la portata semantica di un tale processo. «We believe Schrödinger was deeply correct,

and that the proper and deep understanding of his intuition is precisely that an a-periodic solid

crystal can contain a wide variety of micro-constraints, or micro-boundary conditions, that help

cause a wide variety of different specific events to happen in the cell or organism. Therefore we

starkly identify information, which we here call «instructional information» or «biotic information»,

not with Shannon, but with constraints or boundary conditions. The amount of information will be

related to the diversity of constraints and the diversity of processes that they can partially cause to

occur. By taking this step, we embed the concept of information in the ongoing processes of the

biosphere for they are causally relevant to that which happens in the unfolding of the biosphere. We

therefore conclude that constraints are information and, as we argue below, information is

constraints which we term as instructional or biotic information to distinguish it from Shannon

information. We use the term «instructional information» because of the instructional function this

information performs and we sometimes call it «biotic information» because this is the domain it

acts in, as opposed to human telecommunication or computer information systems where Shannon

information operates. This step, identifying information as constraints or boundary condition, is

perhaps the central step in our analysis. We believe it applies in the unfolding biosphere and the

evolving universe, expanding and cooling and breaking symmetries, that we will discuss below. Is

this interpretation right? It certainly seems right. Precisely what the DNA molecule, an a-periodic

solid, does, is to «specify» via the heterogeneity of its structural constraints on the behaviour of

RNA polymerase, the transcription of DNA into messenger RNA. Importantly this constitutes the

copying or propagating of information. Also, importantly, typically, the information contained in a-

periodic solids requires complex solids, i. e., molecules, whose construction requires the linking of

spontaneous and non-spontaneous, exergonic and endergonic, processes. These linkages are part of

the work cycles that cells carry out as they propagate organization. [...] The working of a cell is, in

part, a complex web of constraints, or boundary conditions, which partially direct or cause the evens

which happen. Importantly, the propagating organization in the cell is the structural union of

constraints as instructional information, the constrained release of energy as work, the use of work

in the construction of copies of information, the use of work in the construction of other structures,

and the construction of further constraints as instructional information. This instructional

information further constraints the further release of energy in diverse specific ways, all of which

propagates organization of process that completes a closure of tasks whereby the cellreproduces.»91

Ecco allora che una nuova concezione di informazione viene ad essere delineata, una concezione,

vale a dire, che fa appello immediatamente all'originale intuizione secondo cui, in una cellula

vivente, un insieme di vincoli guida il flusso di energia libera, producendo altresì lavoro

termodinamico. Stando così le cose, quindi, proprio nella circolarità di concetti codefiniti come, ad

esempio, quello di informazione, di vincoli, di energia, di cicli di lavoro termodinamico, di chiusura

di compiti e di organizzazione propagante, dunque, è possibile comprendere pienamente la

definizione di agente autonomo: un sistema riproduttivo che esegue almeno un ciclo di lavoro

termodinamico, ossia l'organizzazione di materia, energia e instructional information cui possono

essere attribuite finalità quali, appunto, la capacità di agire a proprio vantaggio e la riproduzione. In

questa definizione, pertanto, pietre e sedie non risultano essere agenti autonomi, mentre le cellule

viventi lo sono; in ogni istante, infatti, gli agenti autonomi manipolano davvero il mondo a proprio

vantaggio, si pensi, ad esempio, ad una coppia di uccelli che costruiscono il nido. «Una volta che

abbiamo gli agenti autonomi e la differenza fra delizioso e disgustoso, sembra proprio che la

semantica faccia il suo ingresso nell'universo allorché gli agenti coevolvono e agiscono a proprio

vantaggio l'uno rispetto all'altro in una biosfera che si dispiega.»92 A questo punto è possibile

chiedersi: l'informazione è una costante come, ad esempio, la velocità della luce? La risposta di

Kauffman è negativa. La definizione di informazione, infatti, secondo il grande studioso, è relativa

e dipende dal contesto in cui viene considerata: la nozione di instructional information, ad esempio,

risulta essere proficua per quanto concerne i sistemi biologici nella stessa misura in cui

l'informazione di Shannon è efficace per il canale ingegneristico di telecomunicazione e quella di

Kolmogorov è utile per studiare la compressione dell'informazione relativa alle macchine di Turing.

«Just as Shannon defined information in such a way a to understand the engineering of

telecommunication channels, our definition of instructional or biotic information best describes the

interaction and evolution of biological systems and the propagation of organization. Information is a

tool and as such it comes in different forms. We therefore would like to suggest that information is

not an invariant but rather a quantity that is relative to the environment in which it operates. It is

also the case that the information in a system or structure is not an intrinsic property of that system

or structure; rather it is sensitive to history and environment . [...] Information is about material

things and furthermore is instantiated in material things but is not material itself. Information is an

abstraction we use to describe the behaviour of material things and often is thought as something

that controls, in the cybernetic sense, material things. So what do we mean when we say the

constraints are information and information is constraints [...] . «The constraints are information» is

a way to describe the limits on the behaviour of an autonomous agent who acts on its own behalf

but is nevertheless constrained by the internal logic that allows it to propagate its organization. This

is consistent with Hayle's [...] description of the way information is regarded by information

science: «It constructs information as the site of mastery and control over the material world.» She

claims, and we concur, that information science treats information as separate from the material

base in which it is instantiated. This suggests that there is nothing intrinsic about information but

rather it is merely a description of or a metaphor for the complex patterns of behaviour of material

things. In fact, the key is to what degree information is a completely vivid description of the objects

in question.»93 La possibilità di comprendere la natura dell'informazione, come abbiamo già

ampiamente mostrato, la si deve all'originale formulazione dell'informazione di Shannon che, in un

ormai celebre articolo del 1948, così scriveva: «The fundamental problem of communication is that

of reproducing at one point either exactly or approximately a message selected at another point.

Frequently the messages have meaning; that is they refer to or are correlated according to some

system with certain physical or conceptual entities. These semantic aspects of communication are

irrelevant to the engineering problem. The significant aspect is that the actual message is one

selected from a set of possible messages. The system must be designed to operate for each possible

selection, not just the one that will actually be chosen since this is unknown at the time of design. If

the number of messages in the set is finite then this number or any monotonic function of this

number can be regarded as a measure of the information produced when one message is chosen

from the set, all choices being equally likely.»94 Agli occhi di Kauffman, tuttavia, questa visione

dell'informazione risulta essere riduttiva e parziale specialmente se applicata in ambito biologico:

ecco, dunque, che alcuni problemi vengono immancabilmente ad emergere. «The first is that the

number of possible messages is not finite because we are not able to prestate all possible pre-

adaptations from which a particular message can be selected and therefore the Shannon measure

breaks down. Another problem is that for Shannon the semantics or meaning of the message does

not matter, whereas in biology the opposite is true. Biotic agents have purpose and hence meaning.

The third problem is that Shannon information is defined independent of the medium of its

instantiation. This independence of the medium is at the heart of a strong AI approach in which it is

claimed that human intelligence does not require a wet computer, the brain, to operate but can be

instantiated onto a silicon-based computer. In the biosphere, however, one cannot separate the

information from the material in which it is instantiated. The DNA is not a sign for something else

it is the actual thing in itself, which regulates other genes, generates messenger RNA, which in turn

control the production of proteins. Information on a computer or a telecommunication device can

slide from one computer or device to another and then via a printer to paper and not really change,

McLuhan's «the medium is the message» aside. This is not true of living thing. The same genotype

does not always produce the same phenotype.»95 E più avanti il grande studioso americano

aggiunge: «According to the Shannon definition of information, a structured set of numbers like the

set of even numbers has less information than a set of random numbers because one can predict the

sequence of even numbers. By this argument, a random soup of organic chemicals has more

information that a structured biotic agent. The biotic agent has more meaning than the soup,

however. The living organism with more structure and more organization has less Shannon

information. This is counterintuitive to a biologist's understanding of a living organism. We

therefore conclude that the use of Shannon information to describe a biotic system would not be

valid. Shannon information for a biotic system is simply a category error. A living organism has

meaning because it is an autonomous agent acting on its own behalf. A random soup of organic

chemicals has no meaning and no organization. We may therefore conclude that a central feature of

life is organization -- organization that propagates.»96 Stando così le cose, dunque, per cogliere in

profondità la complessità del bios, secondo Kauffman, non basta un sistema linguistico (o a limite

un puro sistema di programmi), diversamente, questi elementi devono essere legati al significato

poiché la vita, come ha ben messo in luce Monod, è teleonomia, ovvero progetto autonomo che si

dà da sé il proprio telos. In tale prospettiva, quindi, lo studio del significato nell'ambito dei processi

di auto-organizzazione costituisce la vera e propria chiave d'ingresso scientifica all'interno della

complessità dei sistemi biologici. Ebbene, in questo spirito, Kauffman, nelle sue recenti

pubblicazioni, ha messo in luce lo stretto legame che inevitabilmente viene ad instaurarsi in ambito

biologico tra informazione semantica, da un lato, e vincoli, dall'altro: la semiosi, infatti, sotto certi

aspetti, costituisce proprio un caso specifico dell'informazione intesa come restrizione. E', quindi,

possibile domandarsi: quali sono le condizioni fisiche minime affinché si manifesti questo

misterioso processo di correlazione che lo studioso definisce semiosis? Ed inoltre, se non c'è alcuno

spirito vitale, come si genera allora la teleonomia nei processi biologici? «Consider an agent that is

confronted by molecules in its environment, which constitute yuck or yum. To respond to these

environmental features, the agent, assumed to be bounded [...], must also have yuck and yum

receptors, capable in the simplest case of recognizing molecules of yuck or yum, and responding

appropriately by avoiding yuck and eating yum. Assume such molecular machinery exists in the

agent. They of course exist in prokaryotic and eukaryotic cells. We wish to say that the agent

confronting yuck or yum receives information about yuck or yum. This appears to constitute the

minimal physical system to which semiotic information might apply. And it is worth noting that the

meaning or semiotic content of the yuck and yum molecules is built into the propagating

organization of the cell. The cell, we want to say, has embodied knowledge and know-how with

respect to the proper responses to yuck and yum, which was assembled for the agent and its

descendants by heritable variation and natural selection. The existence of yuck and yum as semiotic

signs is sub-case of constraint as information. How does the agent detect yuck? A concrete case

would be that a yuck molecule binds a yuck receptor, constraining the receptor's motions, which in

turn acts as a constraint in unleashing a cell signalling cascade leading to motion away from yuck.

Further, if yuck is present below a detection threshold, it will not be detected by the agent. Hence

that threshold, and the receptor itself, act as a constraints partially determining the behavior of the

agent in fleeing or not fleeing.»97 Secondo questa prospettiva, dunque, batteri e amebe manifestano

già forme di apprendimento poiché sono dotati di recettori che si adattano su un livello costante di

un certo ligando-segnale e che percepiscono un cambiamento dal livello presente. Qui, non si può

ancora parlare di associazione tra uno stimolo condizionato più o meno arbitrario ed uno stimolo

non condizionato, tuttavia, agli occhi di Kauffman, risulta possibile immaginare una chimica che

realizzi quest'ultimo. Così, nella misura in cui si suppone che i neuroni proliferino e formino nuove

connessioni sinaptiche, mediando la connessione tra stimolo condizionato e stimolo non

condizionato, allo stesso modo potrebbe esistere, è il grande studioso che parla, una chimica

complessa, ad esempio schemi molto complessi di sintesi dei carboidrati alimentati da insiemi

complessi di enzimi la cui attività è modulata da quegli stessi carboidrati differenti, come nel caso

del metabolismo attuale dei carboidrati. Uno schema del genere certamente potrebbe sperimentare

alla cieca schemi varianti di sintesi fino a formare una rete auto-alimentante che collega i

carboidrati, gli enzimi e determinati recettori proteici (mediatori tra stimolo non condizionato e

stimolo condizionato) che conservano quel legame mediante anelli di retroazione positiva. Al di là

di tali ipotesi, però, un aspetto emerge con forza da queste riflessioni: le funzioni cognitive dei

sistemi molecolari semplici, ovverossia di sistemi privi di cellule nervose. Pertanto, la capacità dei

batteri e delle amebe di percepire i cambiamenti esterni tramite recettori e di agire a proprio

vantaggio nell'ambiente in cui vivono testimonia, in modo inequivocabile, il fatto che la vita è

significato e cognizione. Ebbene, tutto ciò è traducibile anche a livello molecolare: «One can

construct an underlying set theoretical interpretation for yuck and yum semantics in two equivalent

ways: the first posits a set of instances, and a set of properties to which each instance is assigned.

The second posits a set of instances and detectors do the job. If the second stance is taken, then

detectors, yuck and not yuck, suffice and no extension beyond instructional information is required.

If the second stance suffices, we want to say not only that constraints are information but also that

information is constraints. We recognize that this second is arguable and do not analyze this issue

further here. Semiotic information can not itself embody agentness, for it has no agency; but

identified agents can be observed to respect the semiotic interpretation like yuck and yum. This

inspectable behaviour provides the opportunity to attribute constraint-directed behaviour to the

agent organism. Another important point in this attempt to understand propagating organization is

that the semiotic behaviour can identify a source of free energy, yum in this case, from which work

can be extracted and propagate in the cell. This behaviour is part of a theory that unifies matter,

energy, information and propagating organization. [...] A wide variety of molecules might bind to

the yum receptor with modest affinity, hence mimic true yum molecules. So the yum receptor can

be fooled. This might allow another agent to emit a poison that mimics the yum molecule, fools the

receptor, and leads to the death of the agent. So evolves the biosphere. Now ask, can a Shannon

channel be fooled? Clearly noise can be present in the channel. Due to noise a 1 value can replace a

0 value in the constrained sense of 1 and 0 as subsets of the physical carriers of 1 and 0. But the

Shannon channel cannot be fooled: fooling is a semantic property of detectors, hence not present in

a Shannon channel. Therefore, while one might be tempted to measure the amount of semiotic

information using a Shannon-like approach, the fact that semiosis in an organism can be fooled

suggests that a symbol based Shannon move is inappropriate.»98 E più avanti Kauffman e colleghi

così concludono la loro argomentazione: «We conclude that semiotic information in molecular

agents such as organisms is a special case of information as constraint. For semiotic information to

be about something, and to be extracted, it appears that a constraint must be present in one or more

variables that are themselves causally derived from that which the information is about. Like the

threshold level of yum needed for detection, to use the information, the extracted semiotic

information must do work on some system. That work might copy the information, for example into

a record, or might construct constraints on the release of energy which is further work. Here,

semiotic information becomes part of propagating organization. We comment that in standard

semiotic analyses with human agents and language, there are three elements to semiotic

information, namely: 1) The subject of the information or the agent being informed. 2) The object

of the information or what the information is about. 3) The possibly arbitrary, sign or symbol

referring to the object. With Monod in Chance and Necessity we add that allosteric chemistry

allows arbitrary molecule to cause events. If we wish to call such molecules «symbols» that «refer

to» «yum», the standard semiotic analysis just noted applies to molecular autonomous agents. Note

that Monod's example is broader than DNA, RNA and proteins. It is the general arbitrariness of

allosteric chemistry that allows arbitrary molecules to cause events. Information is thus broader than

coding.»99 Nei prossimi paragrafi vedremo come quello di informazione semantica sia un concetto

molto più ampio rispetto a quello di codice genetico: in un sistema vivente, infatti, la realtà

profonda (livello semantico) non solo regola ma addirittura genera l'informazione di superficie

(livello sintattico). Per il momento però appare opportuno ritornare a Kauffman ed, in particolare,

alla sua nozione di informazione biologica (biotic information) intesa come informazione istruttiva

(instructional information or constraint), ovvero come quell'informazione capace di causare eventi

sempre nuovi nella biosfera. «For information to be united with matter and energy, information

must be part of the physical unfolding of the universe. [...] What is required is that, in the non-

equilibrium setting, a displacement from equilibrium that is a source of free energy must be

detected by at least one measurement; a physical system able to couple to that source of free energy

must have come to exist and must actually extract free energy, and must release that energy in a

constrained way to carry out actual work. Thereafter, this work may propagate. If we conceive of an

abiotic physical system able to carry out these processes of measurement and work extraction in the

abiotic universe, it will have to be an abiotically derived system able to perform such

measurements, recording the results, and employ the record of the measurements to extract actual

work. Such a system will be a case of propagating organization with boundary conditions as

constraints, including measurements in the record as constraints on the behaviour of the system

conditional on the recorded measurements, and the constrained release of energy in work. [...]

These considerations suggest that we take information to be constraint or its physical equivalent,

boundary conditions that partially cause events, where the coming into existence of the constraint is

itself part of propagating organization. If we do so, the issue starts to clarify in a simple way. It is

fully familiar in physics that one must specify the laws, particles, the initial and boundary

conditions, then calculate the behaviour of the system in a defined state space. Now it is common,

as noted, in physics, to «put in by hand» the boundary conditions, as in the cylinder and piston case.

But in the evolving biosphere, it self part of the evolving universe, and in the evolving universe as a

whole, new boundary conditions come into existence and partially determine the future unfolding of

the biosphere or the universe. These evolving boundary conditions and constraints are part of the

propagating organization of the universe. [...] Then the growing grains appear to be cases in which

matter, energy, and continuously evolving boundary conditions and novel sources of free energy

emerge, and condition the future evolution of the grains. The grains are at levels of complexity

sufficiently above atoms so that what occurs is typically unique in the universe. It seems virtually

sure that no two modest size grains are molecularly identical. Here we confront a union of matter,

energy, and evolving and diversifying boundary conditions linking, for example, spontaneous and

non-spontaneous processes, and providing diversifying sources of free energy, which alter the ever

diversifying structures that come to exist in the evolving expanding universe. If this approach has

merit, it appears to afford a direct union of matter, energy and information as constraint or boundary

condition.»100 In quest'ottica, dunque, a nostro giudizio, ogni agente autonomo inteso come un

sistema riproduttivo che misura, rileva e registra fonti di energia effettuando lavoro per costruire

vincoli al rilascio di energia, costituisce, in realtà, quel progetto in grado di fissare per sé il proprio

scopo e, di conseguenza, di portare autonomamente il significato al di fuori di sé; ma poiché

l'assimilazione, caratteristica che analizzeremo dettagliatamente più avanti, non può che avvenire

sulla base di un progetto, un organismo vivente può essere definito anche come un sistema

funzionale cognitivo che si auto-programma. Qui possiamo riconoscere con precisione quel

particolare intreccio di auto-organizzazione, complessità, emergenza ed intenzionalità (legata allo

scopo) che ci permette, sotto certi aspetti, di «leggere» la vita come un fenomeno cognitivo in

costante evoluzione.

4. Le pre-condizioni dell'etica

Nella Metafisica dei costumi, capolavoro del 1797, Immanuel Kant, nella parte introduttiva, dà una

definizione di ciò che si intende per vita: «Si chiama vita la facoltà che un essere ha di agire in

modo conforme alle proprie rappresentazioni.»101 Di primo acchito sembra che questa frase si

riferisca solo a soggetti dotati di coscienza, in realtà, se si rivisita questa definizione meravigliosa

alla luce della prospettiva di Kauffman dinanzi delineata, alcuni aspetti originali vengono

certamente ad emergere. Per esempio, a più di duecento anni dalle geniali parole di Kant, la

biologia sistemica non può che riconoscere al grande filosofo del settecento il merito di aver

individuato una delle caratteristiche principali della vita: la cognizione. Ma non è tutto, fra poco

apparirà chiaramente come, negli organismi viventi, la cognizione sia profondamente legata alla

fondamentale nozione di intenzionalità. D. Dennet nel volume dal titolo: L'idea pericolosa di

Darwin, propone una gerarchia di forme del conoscere, scaturite durante l'evoluzione con mezzi

darwiniani. Egli, infatti, distingue creature darwiniane, creature pavloviane, creature popperiane e

creature gregoriane. «Processi più o meno arbitrari di ricombinazione e mutazione dei geni

generano alla cieca una gran varietà di organismi candidati. Questi furono saggiati sul campo e

sopravvissero i migliori. Questo è il pianterreno della torre. Agli abitanti di questo piano si dia il

nome di creature darwiniane.»102 Un agente autonomo semplice come, per esempio, un batterio è

una creatura darwiniana. Nella sua versione più semplice tale creatura si evolve per mutazione, ma

anche per ricombinazione e selezione naturale (senza considerare alcun apprendimento

comportamentale). Pertanto, una creatura, oppure una colonia o un ecosistema, si adatterà

grossomodo come pensava Darwin. «E poi questi individui erano abbastanza fortunati da essere

dotati alla partenza di rafforzatori che casualmente favorivano [...] le azioni migliori per chi le

eseguiva. Questi individui pertanto affrontarono l'ambiente generando una grande varietà di azioni,

che sperimentarono singolarmente sino a trovarne una funzionante. Le creature darwiniane di

questo sottoinsieme, dalla plasticità condizionabile, si potrebbero chiamare creature

skinneriane.»103 Quindi, nel livello superiore successivo a quello delle creature darwiniane,

secondo Dennet, esiste un sistema nervoso e la creatura (per esempio l'aplysia) è capace di

apprendimento stimolo-risposta. In realtà, l'aplysia può apprendere stimoli condizionati molto

semplici; l'analogo più recente può essere rappresentato dal campanello che induce il cane a salivare

nell'aspettativa del cibo. «Il condizionamento skinneriano è una buona capacità da possedere, fino a

che non si viene uccisi da uno degli errori commessi in precedenza. Un sistema migliore comporta

la preselezione tra tutti i possibili comportamenti o azioni, che consente di scartare le alternative

sciocche prima di arrischiarle nel mondo spietato [...] . I beneficiari del terzo piano della torre si

possono chiamare creature popperiane, poiché come disse una volta con grande eleganza Sir Karl

Popper, questo progresso progettuale «di morire al nostro posto».»104 Secondo Dennet, dunque, le

creature popperiane (noi vertebrati) possiedono modelli interni del loro mondo e possono far

funzionare il modello interno a ruota libera, piuttosto che attivare il modello in tempo reale nel

mondo reale. In tal modo, allora, come appunto ha affermato Popper, «le nostre ipotesi muoiono al

posto nostro». «I successori delle semplici creature popperiane sono quelli i cui ambienti interni

sono permeati dalle parti progettate dell'ambiente esterno. Le creature di questo sotto-sotto-

sottoinsieme si potrebbero chiamare creature gregoriane, poiché lo psicologo britannico Richard

Gregory è a mio avviso il teorico preminente del ruolo dell'informazione [...] nella creazione di

mosse accorte.»105 Le creature gregoriane siamo noi esseri umani. Il ragionamento di Dennet è

molto semplice: noi utilizziamo i nostri utensili (coltelli di pietra, frecce, sarchietti, macchine

utensili) per ampliare il nostro mondo di fatti e di processi. Questo mondo condiviso e allargato ci

mette a disposizione più saper fare e più conoscenza. In un certo momento però l'evoluzione

culturale irrompe libera: la musica rock, ad esempio, invade i minareti iraniani. Alla luce di quanto

detto sinora, dunque, Kauffman così commenta: «Mi piace moltissimo la scala di Dennet del sapere

come, e infine del sapere che. Senza invocare la coscienza, non perché essa non meriti di essere

chiamata in causa ma perché così poche cose sensate sono state dette in materia, sembra importante

domandarsi fino a che punto questa gerarchia potrebbe essere realizzata da sistemi molecolari

semplici, privi di cellule nervose persino. Sono propenso a credere che gran parte di questa

gerarchia sia traducibile a livello molecolare. Per esempio batteri e amebe manifestano già un

apprendimento pavloviano: sono dotati di recettori che si adattano su un livello costante di un certo

ligando-segnale e che percepiscono un cambiamento dal livello presente. Qui, non si può ancora

parlare di associazione tra uno stimolo condizionato più o meno arbitrario e uno stimolo non

condizionato, ma riesco a immaginare una chimica che realizzi quest'ultimo. [...] Ad esempio

schemi molto complessi di sintesi dei carboidrati alimentati da insiemi complessi di enzimi la cui

attività è modulata da quegli stessi carboidrati differenti, come nel caso del metabolismo attuale dei

carboidrati? Un sistema del genere potrebbe sperimentare alla cieca schemi varianti di sintesi fino a

formare una rete autoalimentante che collega i carboidrati, gli enzimi e determinati recettori proteici

-- mediatori tra stimolo non condizionato e stimolo condizionato -- che conservano quel legame

mediante anelli di retroazione positiva. Questa immagine non è poi così distante da come

immaginiamo il funzionamento delle reti immunitarie a idiotipo e anti-idiotipo, che provvedono alla

sintesi di un insieme di anticorpi desiderati contro un agente patogeno che invade l'organismo. In

queste reti, di cui esistono prove moderatamente buone, un primo anticorpo funge da antigene

stimolando il corpo a produrre un secondo anticorpo, il quale si lega a sequenze di aminoacidi

esclusive, l'idiotipo del primo anticorpo. A sua volta, il secondo anticorpo, l'anti-idiotipo, stimola un

terzo anticorpo, che stimolerà a sua volta un quarto anticorpo. È probabile, però, che questa serie

formerà anelli a retroazione. Infatti il primo e il terzo anticorpo possono spesso legarsi allo stesso

sito del secondo anticorpo: il primo e il terzo anticorpo saranno allora forme simili nello spazio

delle forme. Non è poi una forzatura considerare il sistema immunitario come un sistema di risposta

a stimolo condizionato.»106 Si pensi, ad esempio, alle creature popperiane di Dennet; i nervi sono

necessari? Sembra che le piante si inviino segnali mediante complessi metaboliti secondari, e ciò

per caratterizzare i tipi di insetti che infestano la radura. Tra il metabolita e l'insetto si stabiliscono

relazioni strutturali arbitrarie, proprio come i simboli del linguaggio umano sono spesso arbitrari

rispetto alla cosa significata. Non male per degli invertebrati privi di sistema nervoso. Ma andiamo,

ora, a prendere in considerazione le creature gregoriane. «Persino qui, la creazione libera e aperta di

nuove stringhe di simboli in una lingua, ovunque si possano creare nuove frasi, non differisce nella

sostanza dalla persistente creazione aperta di nuovi tipi di molecole nella biosfera intesa come un

tutto. Se ci stupiscono le nostre conversazioni di bipedi recenti sui nostri sarchietti e sulle nostre

bombe atomiche, non da meno è la conversazione chimica in qualsiasi ecosistema completo, dove

tutti siamo funzionali alla vita l'uno dell'altro. Forse, io sono ingenuamente spinto a ritenere che la

biosfera, con la sua incalzante diversità, dentro la quale noi, tronfi per tutto il nostro know-how,

continuiamo la nostra ricchissima conversazione, possa aver ospitato precocemente tutti i livelli di

cui parla Dennet. [...] Che posto interessante la biosfera, con tutti questi argomenti di cui parlare!

Quattro miliardi di anni di cicaleccio. Le commedie e le farse potrebbero aver avuto inizio tanto

tempo fa.»107 Posto in questi termini, il know-how, in accordo con Kauffman, è un altro modo di

vedere le chiusure catalitiche che si propagano, i compiti di lavoro, la percezione, la registrazione e

le azioni che noi oggi riconosciamo come intrinseci alle attività di agenti autonomi. Il know-how,

infatti, non è al di fuori dei processi di auto-organizzazione: il know-how è l'organizzazione

propagante stessa. In quest'ottica, dunque, agli occhi del grande studioso americano, con gli agenti

autonomi nasce anche un barlume di questione etica. «Disgustoso o delizioso esistono dal mio

punto di vista, se io sono un agente autonomo. Vi sono ragioni profonde per essere cauti. Molto

tempo fa Hume aveva parlato di fallacia naturalistica: non si può dedurre il «dev'essere» dall'«è».

Dal fatto che le madri si prendono cura dei piccoli, non possiamo dedurre che esse dovrebbero fare

così, egli sosteneva. [...] L'ingiunzione di Hume è alla base della cautela degli scienziati

nell'esprimersi su questioni di etica. Noi scienziati scopriamo i fatti. Voi cittadini del mondo potete

discettare di etica. Ma se Hume ci invita a non dedurre il deve essere dall'è, che origine hanno i

valori? L'ingiunzione di Hume a non dedurre il dev'essere dall'è ha in ogni caso iniziato

riconoscendo la legittimità della categoria del deve essere. Gli sforzi successivi a Hume per

comprendere il significato di asserti etici sono stati lunghi, contorti e ardui. [...] Mi ha sempre

lasciato perplesso che il messaggio principale dei positivisti logici, «solo gli enunciati verificabili

empiricamente sono significativi», sia esso stesso non verificabile empiricamente. È un po'come se

qualcuno si desse la zappa sui piedi. [...] L'emergenza dell'etica nell'evoluzione della vita sul nostro

pianeta è una questione affascinante. Mi limiterò ad interrogarmi sull'origine innanzitutto del valore

e dei rudimenti di intenzionalità nell'universo fisico [...] . Dove è il posto del valore in un mondo di

fatti? Una breve digressione, allora. I fatti sono enunciati dal sapere che. Ma il sapere come ha

preceduto il sapere che. Io, anche se pienamente consapevole dell'ingiunzione di Hume, credo che

nella prospettiva dell'agente autonomo la dicotomia disgustoso-delizioso sia primaria, inevitabile e,

per quell'agente, della massima importanza. Noi applichiamo, suppongo, criteri darwiniani: troppo

disgustoso, ed ecco che quell'agente autonomo, prole compresa, scompare dal futuro della biosfera.

Senza attribuire una coscienza a E. coli o a un agente autonomo che potremmo creare in un

prossimo futuro, non posso non percepire che i rudimenti del valore sono presenti una volta che

esistono gli agenti autonomi.»108 Ritorniamo per un momento alla definizione formulata da Kant.

La vita intesa come facoltà di agire in modo conforme alle proprie rappresentazioni non solo ci dice

che tutti gli esseri viventi sono sistemi cognitivi, ma ci dice anche che questi organismi agiscono

secondo modelli interni creando così sempre nuovi significati. Una rappresentazione, infatti, può

essere letta, da un punto di vista fenomenologico, come una ri-presentazione di qualcosa, nel

termine rappresentazione, dunque, è implicita la differenza interno/esterno e quindi la direzionalità

verso la realtà esterna percepita attraverso modificazioni dello stato interno cui è possibile

rispondere mediante semplici azioni. Questa tensione all'esteriorità, soltanto intuita da Kant, a

nostro giudizio, può essere definita come intenzionalità non riferita alla coscienza, ossia come quel

processo, strettamente connesso con la gratuità delle interazioni molecolari, per cui i significati si

sviluppano e, una volta incarnati nelle azioni, operano consentendo altresì agli agenti autonomi di

modificare a proprio vantaggio l'ambiente in cui vivono per riprodursi. Ripensiamo per un attimo

all'umile E. coli che nuota controcorrente in un gradiente di glucosio. Come abbiamo ampiamente

mostrato attraverso le acute osservazioni di Kauffman, il batterio è un sistema autocatalitico in

grado di riprodursi e quindi di agire effettuando uno o più cicli di lavoro termodinamico, ma è

anche un sistema cognitivo capace di creare sempre nuovi significati e, successivamente, di

trasmetterli per mezzo di azioni non coscienti. I batteri e le amebe, infatti, come ben sappiamo,

manifestano già un apprendimento potremmo dire pavloviano per usare le parole di Dennet; questi

organismi, infatti, sono dotati di recettori che si adattano su un livello costante di un certo ligando-

segnale e che percepiscono un cambiamento dal livello presente: ecco, dunque, il delinearsi in

biologia di una forma primitiva (naturalmente non cosciente) di rappresentazione. Qui, pertanto, pur

non potendo ancora parlare di associazione tra uno stimolo condizionato più o meno arbitrario e uno

stimolo non condizionato, risulta possibile inferire che tali organismi sono a tutti gli effetti dotati di

quella facoltà vecchia quattro miliardi di anni che Kauffman definisce come know-how,

intenzionalità non riferita alla coscienza. A questo punto, dunque, appare con chiarezza la genialità

dell'intuizione di Kant: «Si chiama vita la facoltà che un essere ha di agire in modo conforme alle

proprie rappresentazioni.» In questa definizione, tuttavia, resta ancora da chiarire un aspetto. Cosa

si intende infatti con il termine «azione»? Nel tentativo di dare una prima risposta a tale quesito,

appare opportuno esaminare attentamente le seguenti parole di Kauffman: «Daniel Yamins è un

giovane e brillante matematico. Dan, da poco iscritto ad Harvard, ha trascorso con me un'estate al

Santa Fe Institute prima di imparare a guidare. L'estate precedente l'aveva passata presso il

laboratorio di Jack Szostak ad Harvard, dove, quattordicenne, imparava a far evolvere molecole di

RNA che si legassero a ligandi arbitrari. Quell'estate, Dan e io abbiamo lavorato sodo per

distinguere tra le azioni di un agente autonomo e i meri accadimenti che si svolgono dentro e

intorno a lui. Si noti che diciamo che E. coli sta nuotando controcorrente nel gradiente di glucosio

per raggiungere il cibo. Ma in quel momento è in atto ogni genere di movimento molecolare

vibrazionale, rotazionale e transazionale. Che cosa è azione e che cosa mero accadimento? Non

credo che siamo riusciti a distinguere in modo netto tra azioni e accadimenti con una matematica

chiara. Percepisco, però, che la differenza tra azione e accadimenti, nella felice espressione di Dan,

sia rilevante per E. coli, per le tigri, per noi, per gli alberi e per gli agenti autonomi in generale. [...]

Non è insieme strano e interessante che tali questioni sembrino scaturire tutte insieme con gli agenti

autonomi, ma non altrimenti? Fermo restando che qui sembriamo ritrovare la circolarità del gioco

linguistico cui abbiamo alluso in precedenza, credo davvero che rudimenti di semantica, di

intenzionalità, di valore e di etica nascano con gli agenti autonomi.»109 Alla luce di tutto ciò,

dunque, la differenza fondamentale tra ciò che è vivente e ciò che non lo è risiede nella capacità di

agire, ovvero in quel processo che consente al significato di manifestarsi nel tempo: «Meaning

derives from agency, Recall the discussion of the minimal autonomous molecular agent,

reproducing, doing at least one work cycle, with a receptor for food and for poison, and able to

move toward food and away from poison. We can substitute a bacterium swimming up a glucose

gradient for food as our example. Then, I claimed, an increased rate of glucose molecules detected

by a glucose receptor as the bacterium swims or orients up the gradient was a sign of more glucose

up the glucose gradient, and that sign was interpreted by the bacterium by its oriented motion up the

glucose gradient. In the C. S. Peircian sense, the glucose is given meaning to the bacterium by the

bacterium's reception of the sign, the glucose, and in its doings, here, swimming up the glucose

gradient. The bacterium itself is the receiver. And in this case it is natural selection that has

assembled the molecular systems able to accomplish this. Without agency, as far as I can tell, there

can be no meaning. It is a very long distance to human agency and meaning. But it is we humans

who use the computer to solve our problems. It is we who invest meanings in the physical states of

the water bowls or electronic states of the silicon chip. This meaning is the semantics missing in the

Turing machine's computations. Without the semantics the Turing machine is merely a set of

physical states of marks on paper, or levels of water in a water bowl or electronic states on that

silicon chip. Similarly, it is not a wonder than Shannon brilliantly ignored semantics to arrive at his

quantitative theory of the amount of information carried down a channel. That is why Shannon tells

us the amount of information passing down a channel, a syntactic quantity, but does not tell us what

information is.»110 Da queste parole di Kauffman, quindi, risulta chiaro che gli agenti autonomi

costituiscono quel luogo misterioso della fisica in cui la fisica si apre alla semantica; tuttavia, a

nostro giudizio, risulta opportuno distinguere nella scala dei viventi le azioni di agenti autonomi

semplici come le amebe ed i batteri o più complessi come le tigri e gli scimpanzé da quelle

dell'Homo sapiens, ovvero l'unica specie finora conosciuta capace di bene e di male. Con l'Homo

sapiens, infatti, fa la sua comparsa sulla terra il sistema nervoso più profondamente teleonomico

mai esistito nella storia della nostra biosfera: solo a questo livello, dunque, la natura, prendendo

coscienza di sé, risulta essere effettivamente in grado di trasformare le azioni portatrici di

significato in atti liberamente voluti. Per comprendere fino in fondo la portata di queste

considerazioni ci pare opportuno invocare di nuovo l'aiuto di Kant il quale nella Metafisica dei

costumi distingue con grande acume il termine «azione» (Handlung) da quello di «atto» (That).

L'azione (handlung) costituisce un mutamento posto in essere dal soggetto, ovvero da qualsiasi

essere vivente; l'atto (that), invece, è il contenuto materiale dell'azione, ovvero ciò di cui il soggetto

è l'artefice.111 Secondo Kant, quindi, solo l'uomo compie atti poiché solo l'uomo, in quanto unico

essere auto-cosciente, è in grado di riconoscere responsabilmente un'azione come espressione della

propria soggettività. A questo punto, allora, possiamo tornare alla definizione kantiana di vita. In

virtù della distinzione or ora delineata, appare chiaramente come, agli occhi del grande filosofo

tedesco, la facoltà di agire (handeln) in modo conforme alle proprie rappresentazioni non sia

soltanto umana, bensì si estenda a tutti i sistemi viventi, ovvero a tutti quei sistemi cognitivi che,

agendo a proprio vantaggio, sono in grado di riprodursi. Ebbene, questa geniale intuizione di Kant

ci consente di riflettere anche su un'altra questione rilevante sollevata da Kauffman, ci stiamo

riferendo, cioè, all'idea originale secondo cui rudimenti di semantica, di intenzionalità, di valore e di

etica nascano con gli agenti autonomi e quindi siano intrinsecamente correlati alla nozione di vita.

Secondo il grande studioso americano, infatti, anche se tali rudimenti non sono sufficienti per

saltare a piè pari la fallacia naturalistica di Hume, tuttavia con la comparsa degli agenti autonomi le

categorie del dover essere e dell'essere fanno ingresso nell'universo fisico. In tal senso, allora,

l'auto-coscienza, l'etica ed i valori potrebbero affondare le loro radici nell'intenzionalità, proprietà

fondamentale della vita: «[...] Senza attribuire una coscienza, una volta che un agente autonomo

esiste, è presente il rudimento di intenzionalità? In caso affermativo, è stata posta un'altra pietra

angolare di attività etica. Il comportamento etico richiede innanzitutto la possibilità logica del

comportamento di cui si è responsabili. Voi non siete responsabili di atti e di effetti al di fuori del

vostro controllo. Per agire eticamente, dovete prima di tutto essere capaci di agire in senso lato.»112

Nell'introduzione alla Dottrina della virtù Kant presenta un ragionamento, per certi versi, simile e a

tratti sorprendente, tenendo bene a mente la sua posizione nei confronti della legge di Hume. Il

grande filosofo tedesco, infatti, così si esprime: «[...] La coscienza non è qualcosa che si può

acquisire e non esiste il dovere di procurarsene una. Piuttosto ogni uomo, in quanto essere etico, ha

in sé originariamente una tale coscienza.»113 Che vuol dire che la radice dell'etica e del dovere

risiedono nell'essere? Quest'espressione è usata da Kant per distaccarsi dall'idea che la coscienza si

possa acquisire. Se si potesse acquisire, infatti, si tratterebbe di qualcosa di cui abbiamo un dovere:

sarebbe, cioè, qualcosa che non abbiamo in quanto esseri umani. Dire che ogni uomo ha in sé

originariamente una coscienza, infatti, non significa che l'uomo è buono per natura. Questo tema

oggi è di grande attualità, si pensi ad esempio alle neuro-scienze ed in particolare alla nascita di

nuovi ambiti di ricerca come per esempio la neuro-etica; alcuni studiosi, infatti, si chiedono se

esistono delle strutture di valore filogeneticamente consolidate che in qualche modo possono essere

legate alla chimica. Se la risposta a tale domanda fosse positiva, l'uomo rappresenterebbe

quell'essere capace di morale e di responsabilità i cui atti (that), potrebbero però essere considerati

come il risultato di milioni di anni di evoluzione, un risultato, vale a dire, le cui radici

risiederebbero nella capacità stessa degli agenti autonomi più semplici di agire (handeln) a proprio

vantaggio nell'ambiente in cui vivono (know-how). Se così fosse, allora sarebbe possibile inferire

che l'uomo, in quanto attuale punto più alto dell'evoluzione (se prendiamo la curva dell'indice di

encefalizzazione l'Homo sapiens rappresenta un vero e proprio salto), costituisce una sorta di anello

di congiunzione tra l'etica e la biologia, ovvero quel livello della natura in cui la natura, prendendo

coscienza di sé, diviene altresì conditio sine qua non per la comparsa dell'etica: «Non vi è uomo che

sia privo di un qualche sentimento morale, in quanto una totale insensibilità verso questo

sentimento segnerebbe la sua morte etica e se (per parlare in termini medici) la forza vitale etica

non fosse più in grado di produrre questo sentimento, l'umanità (per legge chimica, in un certo qual

modo) si disperderebbe nella mera animalità e si mescolerebbe irrimediabilmente con la massa

degli altri esseri naturali. Contrariamente a quanto si usa dire, non abbiamo un sesto senso per il

bene ed il male (etici) come noi l'abbiamo per la verità; ciò che abbiamo è caso mai la sensibilità

con cui il libero arbitrio è messo in movimento dalla ragione pura pratica (e dalla sua legge), e

questo è ciò che chiamiamo sentimento morale.»114 Come tutti sanno, per Kant la morale la fa la

legge e non il sentimento, tuttavia, dove ne va di concetti estetici preliminari, il grande filosofo

scrive che per non ridurre l'umanità a mera animalità dobbiamo pensare ad una «forza vitale etica»

che produce nell'uomo un sentimento che non è un sesto senso perché non si aggiunge al piano in

cui operano gli altri cinque, bensì costituisce una sorta di «morale prima della morale» la cui

interfaccia è rappresentata dalla legge morale stessa. Stando così le cose, dunque, in queste pagine il

Kant incompatibilista parla della misteriosa forza vitale etica che fa dell'uomo un essere vitale etico.

Proprio in queste parole, quindi, risulta possibile rintracciare, a nostro giudizio, l'alba di un ipotetico

cammino teorico in cui è possibile supporre una fondazione naturalistica delle pre-condizioni della

capacità morale anche in virtù della definizione di agente autonomo divisata da Kauffman e

poca'anzi messa a confronto con l'originale prospettiva kantiana. In quest'ottica, allora, L. Boella

così scrive: «Parlare di morale prima della morale presuppone la ricerca inaugurata da Darwin, di

specifici comportamenti orientati a fini vitali (la sopravvivenza della specie), ma non solo.

L'evoluzione ci dice infatti quanto la risposta al bisogno di mantenimento in vita di un organismo

implichi lo sviluppo di un tessuto di interazione tra gli individui fondamentale per l'acquisizione di

capacità superiori come il linguaggio, l'apprendimento, la memoria. In realtà, in una morale prima

della morale non è in gioco semplicemente l'attestazione della base biologica della morale, quanto

piuttosto la possibilità di ridefinire e ricomporre una visione unitaria della persona in cui i dati che

risultano dalla conoscenza dei meccanismi naturali non vengano recepiti passivamente come

qualcosa di immutabile ed estraneo (e magari manipolabile da forze superiori come la medicina),

bensì vengano attratti nell'orbita dell'esperienza quale ognuno di noi la costruisce giorno per giorno,

sacrificando parti di sé, incoraggiandone altre, affidandone altre ancora alla cura di medici, di

familiari. [...] Quando ci si riferisce all'approccio scientifico e, nel caso specifico, neurobiologico

alle questioni morali, è giusto chiarire che esso si colloca nel contesto dell'evoluzione ma si pone

una domanda diversa da quella di Darwin sull'origine naturale-biologica della morale, che per altro

continua ad alimentare molte discussioni. Le neuroscienze possono infatti essere utilmente

interrogate in relazione ad un ambito determinato e sicuramente non esaustivo della complessità

dell'esperienza morale, quello delle precondizioni o condizioni di possibilità della capacità morale.

Quello biologico o, più precisamente, neurobiologico è quindi un livello dell'esperienza morale

corrispondente all'esistenza di reazioni automatiche anche complesse governate da meccanismi

cerebrali. Tale livello mette di fronte a vincoli decisivi per l'esercizio della capacità morale e al

tempo stesso rende plausibile un radicamento del comportamento morale -- per esempio,

dell'altruismo, della bontà -- nel sistema dei desideri, delle intenzioni, delle motivazioni. D'altra

parte, la molteplice gamma di possibilità inscritte nel cervello umano e la sua plasticità rendono

impossibile, almeno allo stato attuale delle conoscenze, ricondurre anche solo un unico

comportamento morale esclusivamente a funzionamenti organici. Nella prospettiva dell'esperienza

umana nella sua integrità e ricchezza appare infatti che, in ogni momento dell'esistenza, gli esseri

umani sperimentano il passaggio dalla passività e dipendenza biologica all'ambito dei giudizi, delle

scelte, delle valutazioni e delle azioni. E ciò significa che in gioco sono diverse possibilità non solo

di umanizzare ciò che è naturale, ma anche di naturalizzare ciò che è umano.»115

5. Coscienza ed intenzionalità

Ed eccoci inevitabilmente condotti ai confini della neuroetica, vale a dire, verso quel nuovo campo

di indagine strettamente correlato sia agli straordinari progressi compiuti negli ultimi anni dalle

scienze del cervello, sia al complesso delle loro implicazioni etiche, legali e sociali. Tuttavia, questi

brevi accenni al dibattito di natura interdisciplinare in atto, relativo all'idea di naturalizzare l'etica ed

i valori, mostrano, con chiarezza, la complessità e la vastità di tali tematiche. Al fine, dunque, non

di dare soluzioni, ma di inquadrare meglio alcuni dei più importanti problemi teorici sul tappeto,

appare opportuno, giunti a questo punto della disamina, concludere il presente lavoro mostrando

come, parallelamente alle ricerche portate avanti da Kauffman, in questi ultimi anni, in ambito

neurobiologico, stiano facendo capolino una serie di studi relativi all'intenzionalità ed alla capacità

biologica di scegliere. In modo particolare, faremo qui riferimento a W. J. Freeman studioso

americano che, in linea di continuità con la prospettiva di Kauffman, nel volume del 1999 dal titolo:

Come pensa il cervello, mostra come l'intenzionalità non possa essere riferita solo a livello della

coscienza, bensì sia presente anche in agenti autonomi non umani, venendo ad essere considerata

altresì come una delle caratteristiche fondamentali del bios. Freeman definisce intenzionale il

processo che genera azioni mirate a un obiettivo nel cervello degli esseri umani e di altri animali. In

genere, tali azioni vengono chiamate volontarie se compiute da un essere umano, ma non da un

animale poiché molti pensano che soltanto gli esseri umani abbiano la capacità di agire per volontà.

In alternativa a questo concetto di volizione, dunque, il grande neurobiologo tenta di individuare

una base neurale per le azioni finalizzate che è comune agli esseri umani e ad altri animali poiché

riflette l'evoluzione dei meccanismi umani a partire da animali più semplici in cui l'intento può

operare senza volontà. Pertanto, nella parte iniziale del suo volume, egli così si esprime: «Il

concetto -- l'intenzionalità -- fu descritto per la prima volta da Tommaso d'Aquino nel 1272 per

indicare il processo mediante il quale gli esseri umani e altri animali agiscono in conformità alla

propria crescita e maturazione. Vi è un intento quando un'azione viene rivolta verso un qualche

obiettivo futuro che è definito e scelto dall'agente. Differisce da un movente, che è la ragione e

spiegazione dell'azione, e da un desiderio, che è la consapevolezza e l'esperienza che derivano

dall'intento. [...] Sulle orme di Tommaso d'Aquino, gli avvocati comprendono e utilizzano tali

distinzioni. Gli psicologi di norma no. I filosofi hanno cambiato radicalmente il significato del

termine intenzione e lo usano per indicare la relazione che un pensiero o una convinzione hanno con

il proprio significato, quale che sia, ma i medici e i chirurghi, di nuovo seguendo Tommaso

d'Aquino, hanno mantenuto il senso originario poiché applicano il termine ai processi di crescita e

guarigione del corpo dalle lesioni, conservandone in tal modo il contesto biologico originario. A

mio giudizio, gli animali sono dotati di consapevolezza, ma non della consapevolezza di sé, che è

ben sviluppata soltanto negli esseri umani. La consapevolezza di sé è necessaria per la volizione: gli

animali non possono offrirsi volontari. [...] La mia proposta è che i significati emergono quando il

cervello crea comportamenti intenzionali e poi cambia se stesso in accordo con le conseguenze

sensoriali di tali comportamenti. Tommaso d'Aquino e Jean Piaget hanno entrambi chiamato

assimilazione tale processo. Si tratta del processo mediante il quale il sé arriva a capire il mondo

adattando se stesso al mondo. I contenuti del significato derivano dall'impatto del mondo,

principalmente dall'impatto sociale delle azioni di altri esseri umani su di noi, e comprendono tutto

il contesto già acquisito della storia e dell'esperienza. Benché i contenuti del significato abbiano in

gran parte un'origine sociale, i meccanismi del significato sono biologici e vanno compresi in

funzione della dinamica cerebrale. Il significato è una sorta di struttura viva.»116 I neuroscienziati

hanno prestato scarsa attenzione a come nasce il significato e a quali sono le condizioni che lo

favoriscono. Per i pragmatisti e gli esistenzialisti il significato si forma chiaramente mediante

l'azione. In modo particolare, viene creato nel e dal cervello. L'opinione di Freeman, invece, è che

«il significato si crea in forme particolari e uniche dentro di noi mediante le azioni e le scelte che

noi tutti facciamo, imparando inizialmente a vivere secondo un sistema di credenze che ci viene

offerto attraverso i genitori, i compagni e i colleghi, e che dapprima cambiamo affinché ci soddisfi e

poi modifichiamo affinché diventi noi stessi.»117 Di solito le persone suppongono che il significato

si trovi negli eventi naturali come, ad esempio, i tramonti, i fiori primaverili ed il corteggiamento da

parte degli animali. In realtà, sottolinea il grande neurobiologo, i significati si trovano negli

osservatori (compresi gli animali) e non negli oggetti, negli eventi o nei movimenti del corpo.

Soltanto il cervello, infatti, ha significati e questi ultimi sono molto diversi dalle rappresentazioni.

Per cogliere pienamente tale differenza, allora, occorre distinguere la rappresentazione mentale

dallo stato mentale. «Durante gli ultimi trecento anni, ci siamo abituati a esprimere i nostri pensieri

in termini di rappresentazioni. La metafora di immagine mentale ha sostituito la descrizione

effettiva della nostra esperienza soggettiva del pensiero, tanto che mettere in dubbio l'utilità della

metafora per comprendere la funzione cerebrale può sembrare un atteggiamento polemico. Eppure

il contenuto mentale che precede la realizzazione di un dipinto, di un romanzo o di un modello, per

esempio, differisce profondamente dalle forme che vengono congelate nell'opera. Questo è

altrettanto vero per qualunque azione nei confronti dello stato mentale che la precede. Quando

tentiamo di correlare uno stato cerebrale con un comportamento, dovremmo confrontare le misure

di una configurazione di attività cerebrale non con un concetto mentale che sta dentro di noi, ma

con uno stato di significato che in base alle nostre inferenze sta nel cervello della persona o

dell'altro animale che stiamo osservando. Poiché il cervello è composto da neuroni interconnessi, i

significati devono emergere in qualche modo grazie all'attività dei neuroni.»118 Oggi sappiamo

molto delle caratteristiche anatomiche, fisiche e chimiche dei neuroni, tuttavia l'aspetto importante

per comprendere fino in fondo la relazione tra neuroni e significato costituisce, agli occhi di

Freeman, una nuova prospettiva da cui esaminare le masse di dati raccolti dai neurobiologi e gli

enigmi che ne derivano. Nonostante l'enorme quantità di dati accumulati, infatti, i neuroscienziati

tutt'ora non riescono a superare le difficoltà poste dai vecchi interrogativi. In un quadro del genere,

allora, l'idea di significato, un concetto critico che definisce la relazione tra ogni cervello ed il

mondo, diviene fondamentale specialmente nei dibattiti che si svolgono oggi nell'ambito della

filosofia della biologia, delle scienze cognitive e, recentemente, anche della neurobiologia. Come

abbiamo dinanzi accennato, il processo per cui i significati si sviluppano e operano è

l'intenzionalità. Per la maggioranza delle persone il termine intenzione si riferisce a qualsiasi

comportamento cosciente, diretto ad un obiettivo. Tale accezione, come sappiamo, è una versione

diluita del concetto elaborato da Tommaso d'Aquino. Alcuni filosofi del secolo scorso hanno usato

l'altra versione mitigata per designare la relazione (sia reale che immaginaria) tra stati mentali ed

oggetti o eventi del mondo. I riferimenti a questa accezione di intenzionalità parlano spesso di

attinenza delle rappresentazioni mentali. «Una caratteristica importante tanto dell'accezione

quotidiana quanto del recente uso filosofico è l'implicita richiesta che gli stati mentali siano stati

coscienti. Ma noi svolgiamo la maggior parte delle attività quotidiane che sono chiaramente

intenzionali e significative senza esserne esplicitamente consapevoli. Si consideri l'attività degli

atleti e dei ballerini, che muovono il loro corpo nello spazio e nel tempo per qualche fine (vincere

una gara, raccontare una storia, esprimere emozioni). Quando una persona impara per la prima volta

a ballare o a praticare uno sport, fa ricorso ad una riflessione cosciente su che cosa dovrebbe fare

con il suo corpo, ma per lo più attinge in maniera inconscia a quelle capacità già acquisite che tutti

manifestiamo utilizzando il corpo come la capacità di correre. Via via che procede l'allenamento del

cervello e del corpo, la riflessione cosciente sulla manipolazione del corpo diminuisce e la persona

salta il fosso acquisendo quella che comunemente si chiama facilità per il gioco o per la danza. La

performance diventa una «seconda natura».»119 In molti casi, la massima gioia e realizzazione

delle persone arriva con l'immersione totale nell'attività che manda in frantumi la consapevolezza di

sé: esse, infatti, diventano completamente ciò che desiderano nel corpo e nello spirito, senza riserve.

Il cervello ed il corpo, anticipando i segnali in ingresso, percepiscono e fanno movimenti senza

dover riflettere. E', quindi, proprio questo genere di abilità inconsapevole, ma diretta, nell'esercizio

della percezione (il know-how per dirla con Kauffman e Dennet) che il concetto di intenzionalità

deve comprendere. Alla luce di tutto ciò, dunque, Freeman così si esprime: «Gli esempi dell'atleta e

del ballerino dimostrano quelle che a mio giudizio sono le tre proprietà principali dell'intenzionalità.

La prima è l'unità. Il nostro cervello ed il nostro corpo sono totalmente impegnati nella proiezione

corporea di noi stessi nel mondo e l'unificazione delle nostre percezioni rispetto a tutti i sensi si

realizza a ritmi più veloci di quelli che possiamo percepire. In questo contesto, io distinguo tra il sé,

che è unificato, e la consapevolezza di sé, che nella nostra esperienza è l'ego, che non è unificata,

ma sfaccettata come il sole sulle onde. La seconda proprietà è l'interezza: l'intera esperienza della

vita confluisce in ogni momento di azione. Le esperienze della gara e della danza vengono

generalizzate e continuamente utilizzate come base di rielaborazione. È presente anche uno sforzo,

descritto da Aristotele e Goethe due secoli fa, nel senso di una lotta cieca, organica, verso la

realizzazione del nostro potenziale completo entro i limiti posti dall'eredità e dall'ambiente. La terza

proprietà dell'intenzionalità è lo scopo o intento, poiché, che gli atleti e i ballerini ne siano

consapevoli o meno, le loro azioni sono dirette a qualche fine. Quindi la percezione è un processo

continuo e perlopiù inconscio che viene campionato e contrassegnato in maniera intermittente dalla

consapevolezza, e ciò che ricordiamo sono i campioni, non il processo. Il fatto che non sia

necessario che la coscienza faccia parte della descrizione dell'intenzionalità apre nuovi orizzonti. La

coscienza non è un buon punto da cui iniziare una teoria dell'attività del cervello, poiché l'unico test

biologico per provare se la coscienza è presente o meno in un soggetto passivo consiste nel

domandarglielo. Gli animali non possono rispondere, non perché a modo loro non possono

ricordare o creare rappresentazioni, ma perché non possono creare e rappresentare astrazioni

all'altezza del livello di ricercatezza comunicativa necessario.»120 I biologi evoluzionisti hanno

mostrato che le operazioni complesse del cervello e del corpo hanno avuto origine in animali più

semplici e si sono evolute nelle capacità umane. In tal senso, allora, sulla base dei dati relativi al

comportamento, risulta possibile inferire che gli animali nutrono intenzioni, pur non sapendo se

sono coscienti delle loro azioni. Si consideri, ad esempio, un animale che si sveglia, ha fame e si

mette in cerca di una preda. Se si imbatte in una sostanza chimica odorante che corrisponde al cibo,

deve estrarre e percepire un odore di cui è alla ricerca e distinguerlo da tutto il sottofondo di odori,

un insieme infinitamente complesso di sostanze chimiche che non è affatto in grado di identificare e

catalogare. Successivamente indaga per scoprire da dove viene l'odore: concepire l'origine, infatti,

fa parte del significato dell'odore. Per fare ciò, l'animale necessita di sapere dov'era quando lo ha

percepito e di calcolare la sua intensità. Deve considerare diverse variabili come la direzione del

vento o delle acque in base alla sensazione sulla pelle, alla percezione di piante ondeggianti ed ai

suoni prodotti dalla corrente. Così, in virtù di questi nuovi ingressi, deve compiere un'altra mossa e

deve sapere dove è arrivato. Infine, deve ottenere dai recettori sensitivi dei muscoli e delle

articolazioni la verifica che abbiano effettivamente fatto quanto aveva segnalato di fare il cervello,

o, in caso contrario, deve sapere che cosa hanno fatto in alternativa. «Tutti questi segnali si

combinano nell'unità di una percezione multisensoriale, nota anche come Gestalt, che fornisce la

base per quanto l'animale sceglie di fare al passo successivo. Tutti questi aspetti vengono attribuiti

al significato della percezione, dell'odore, e nessuno di essi allo stimolo, la sostanza odorante.

L'animale si sposta in una nuova posizione, annusa ancora una volta e confronta i due odori. Ma la

differenza di intensità tra i due passi successivi sarebbe priva di significato se l'animale non

costruisse una storia che descrive dove si trovava al primo tentativo e dove è andato al secondo,

combinando numerose percezioni sensoriali che comprendono le registrazioni somatosensoriali dei

movimenti del suo corpo nell'ambiente.»121 La fondamentale attività di ricerca del cibo dimostra le

tre proprietà dell'intenzionalità individuate da Freeman. «Gli esseri umani si sono evoluti da

creature più semplici e taluni comportamenti di queste forme più antiche sono precursori del nostro

comportamento intenzionale che è ricco e vario. L'evoluzione ci ha conferito la capacità di cogliere

l'intenzionalità negli altri senza bisogno di definirla. Se vediamo un comportamento mirato, lo

riconosciamo quasi all'istante. Quando ci imbattiamo in un oggetto di un certo tipo, ci domandiamo

se è vivo o morto e se reagirebbe attaccandoci o fuggendo al nostro tentativo di catturarlo. Se sta

fermo, ci domandiamo se ci sta guardando. Se si muove, ci domandiamo se il movimento è diretto

verso di noi, lontano da noi o altrove. Nel mondo moderno, non abbiamo grandi difficoltà a

distinguere tra i comportamenti delle macchine intelligenti che non sanno ciò che fanno ed i

comportamenti intenzionali degli animali che lo sanno. Nella letteratura zoologica sono citati molti

esempi di comportamenti intelligenti manifestati da altri vertebrati e anche da invertebrati quali il

polpo, l'ape e l'aragosta. Charles Darwin scoprì prove evidenti di comportamento intenzionale nei

lombrichi e alcuni scienziati ritengono che anche i batteri lo manifestino.»122 Si pensi per

l'ennesima volta all'esempio di E. coli che risale controcorrente il gradiente di glucosio in cerca di

cibo. Il batterio «affamato» distingue il proprio corpo dagli elementi chimici esterni, come un

potenziale cibo, e tiene traccia dei suoi movimenti nello spazio e nel tempo, il che potrebbe indicare

l'interezza dell'esperienza. La sua attività, inoltre, è orientata ad uno scopo preciso: la riproduzione.

Ovviamente noi possiamo soltanto supporre tutto questo osservando l'agente autonomo in azione.

L'unità, l'interezza e lo scopo, dunque, costituiscono, agli occhi di Freeman, le condizioni base

affinché esista un soggetto biologico portatore di significato. Come abbiamo già accennato in

precedenza, quindi, i significati si trasmettono tramite l'intenzionalità, ovvero tramite quel processo

in base al quale gli organismi viventi cambiano se stessi agendo ed imparando dalle conseguenze

delle loro azioni: quando un agente autonomo afferra un significato, infatti, è spinto verso nuovi

comportamenti. Ebbene, a seconda della complessità degli agenti autonomi ci saranno capacità

differenti di elaborazione del significato, ovvero canali diversi di comunicazione. «[...] Tutto quel

che sappiamo del nostro cervello in confronto a quello di altri animali presenti sulla terra e a tutte le

testimonianze fossili ci dice che l'intelligenza biologica si è evoluta nel contesto di una brutale corsa

agli armamenti chimici, la guerra biologica in cui si mangia per non essere mangiati. Il naso era ed è

l'arbitro iniziale di ciò che ingeriamo e di ciò che ci spaventa. Il confronto tra cervelli diversi mostra

che i meccanismi dell'intenzionalità emersero per la prima volta nel sistema olfattivo e che il

sistema visivo, quello uditivo e quello somatosensitivo si inserirono cooperandone il sistema

operativo, modificando i dettagli, ma sfruttando la spinta principale di quella dinamica. L'olfatto

continua a essere unico tra i sensi a causa dell'accesso diretto alla corteccia cerebrale dei suoi

neurorecettori. [...] Questo spiega perché l'odore del fumo, della carne putrida, del caffè del tabacco,

del profumo, gli odori corporei e così via sono tanto più irresistibili emotivamente delle sensazioni

visive e uditive che li accompagnano. Se ne ricava la lezione che per capire la vista e l'udito,

comprese le forme di rappresentazione parlate e visive, dobbiamo innanzitutto capire come fa il

nostro cervello ad affrontare le infinite complessità dell'ambiente olfattivo. Gli esempi dell'atleta,

del ballerino e dell'animale affamato ci riconducono ad alcuni interrogativi fondamentali. [...] Se il

mondo esterno è infinito rispetto agli stimoli sensoriali che offre al corpo, in che modo il cervello

seleziona ciò che ha un'importanza immediata? Quando vi è consapevolezza, quale è la sua natura

biologica e cosa fa?»123 Eccoci giunti, dunque, al cospetto di una delle più grandi frontiere

dell'ignoto: la comparsa ed il funzionamento del sistema nervoso centrale dell'uomo, ovvero il

sistema più profondamente teleonomico che sia mai esistito sulla Terra, l'unico sistema, vale a dire,

a partire dal quale si genera il misterioso fenomeno dell'autocoscienza. «Alcuni sistemi biologici

sono dotati di coscienza ma, come mise in evidenza Franz Brentano, le macchine inanimate, finora,

non lo sono, poiché non hanno intenzioni. Ma quale è la natura della coscienza? In che modo il

cervello la genera? In che modo si potrebbe farla operare in un cervello dall'intelligenza artificiale

per produrre cambiamenti nei componenti della macchina e nel comportamento dell'intero sistema?

Nella comunità delle scienze cognitive sono in corso numerosi dibattiti proprio su questi argomenti.

La coscienza è un gran mistero. I problemi sono intrattabili poiché, nel campo delle scienze

cognitive, il significato è definito da una relazione tra simboli, come nelle definizioni sintattiche

delle parole, composte da altre parole e da immagini, che si trovano in un vocabolario. Ma nella

realtà i riferimenti al mondo non sono definiti nell'ambito di un vocabolario o di un computer.»124

Le riflessioni di Freeman ci consentono, a questo punto, di mostrare la concezione della mente

offerta dal pragmatismo, una concezione che, in accordo con il grande neurobiologo, facciamo

nostra anche al fine di mettere in luce un altro aspetto fondamentale del bios che Kauffman non

approfondisce e che la definizione kantiana di vita non coglie nella sua profondità, ci stiamo

riferendo qui alla fondamentale nozione di assimilazione (o adaequatio), termine introdotto per la

prima volta da Tommaso d'Aquino. Per i pragmatisti, la mente è una struttura dinamica che deriva

dalle azioni compiute nel mondo. Oggi sappiamo che la coscienza interagisce con i processi

cerebrali, tuttavia non è qualcosa di epifenomenico e non è identica a questi processi. La coscienza

non controlla le azioni che costituiscono i comportamenti o almeno non in modo diretto. In termini

dinamici, secondo il grande neurobiologo, essa può essere paragonata ad un operatore poiché

modula la dinamica cerebrale da cui sono costruite le azioni passate: «posta in nessun luogo e

dappertutto», infatti, essa è in grado di rielaborare i contenuti forniti dalle varie parti. Negli esseri

umani, secondo recenti studi, sembra che sia l'abbondante sviluppo dei lobi frontali e temporali a

fornire l'oggetto dell'autocoscienza. Il cervello degli altri animali, infatti, non possiede queste parti

ed il loro comportamento non dà prova di auto-coscienza o di auto-consapevolezza: esiste, quindi,

la possibilità che essi siano coscienti senza essere autocoscienti, né consapevoli delle loro azioni

intenzionali. «Nel 1272, Tommaso d'Aquino fece conoscere all'Europa occidentale Aristotele, in

particolare nel Trattato sull'uomo, e la teoria aristotelica della percezione attiva, secondo la quale

l'organismo acquisisce la conoscenza del mondo e realizza il suo potenziale attraverso le sue azioni

sul mondo. Tommaso modificò il concetto per renderlo conforme alla dottrina cristiana,

distinguendo tra volontà e intenzione: la volontà compie scelte etiche libere in relazione al bene e al

male, al torto e alla ragione, ed è qualcosa che hanno soltanto gli esseri umani, mentre l'intenzione è

il meccanismo attraverso il quale si realizza il potenziale dell'organismo, qualche cosa che hanno

anche altri animali. Secondo tale concezione, inoltre, ogni animale è un essere unificato e racchiuso

entro un confine che distingue tra «sé» e «altro da sé» e il sé utilizza il corpo per spingere in fuori il

suo confine nel mondo.»125 In un passaggio importante della Summa Theologiae il Doctor

Universalis così scrive: «[...] Intendere significa tendere verso qualcosa; e questa tendenza si può

riscontrare sia nel soggetto che muove sia in quello che è mosso. Se dunque si considera

l'intenzione come derivante da altri, allora si può affermare che la natura ha l'intenzione del fine:

poiché è mossa da Dio al suo fine, come la freccia dall'arciere. E in questo senso anche gli animali

irrazionali hanno l'intenzione del fine, in quanto sono mossi dall'istinto naturale verso determinate

cose. -- In un altro senso invece l'intenzione del fine è riservata al soggetto che muove, in quanto è

capace di ordinare l'operazione propria, o quella di altri, al fine. Il che spetta solo alla ragione.

Quindi gli animali irrazionali non hanno l'intenzione del fine in questo senso, che è poi quello

proprio e principale, come si è spiegato.»126 L'origine etimologica di intendere e di intenzione è il

verbo latino intendere, che significa non solo tendere in avanti, ma, in maniera altrettanto

importante, anche, come abbiamo accennato sopra, cambiare il sé agendo ed imparando dalle

conseguenze delle azioni. Al posto dell'idealismo platonico, Tommaso pose a fondamento della

dottrina medievale della Chiesa il materialismo aristotelico, operando però una brillante distinzione.

A differenza di Platone, secondo Aristotele e Tommaso la percezione è un processo attivo e non una

passiva accettazione delle forme. Nella visione Aristotelica, tuttavia, l'interazione tra mente e

mondo va in entrambe le direzioni: le azioni transitive (per esempio, tagliare, bruciare, indagare),

sono dirette nel mondo in quanto manipolazioni esplorative, e quindi gli stimoli entrano nel corpo

come forme degli oggetti materiali, mentre con le azioni intransitive si interpretano e si conoscono

le forme degli oggetti per associazione. «Tommaso, in base alla sua concezione dell'unità del sé,

concluse che il processo è unidirezionale. Le azioni del corpo escono grazie ai sistemi motori,

cambiando il mondo e cambiando la relazione del sé con il mondo. Le conseguenze sensoriali delle

azioni consentono poi al corpo di cambiare se stesso in accordo con la natura del mondo. La

percezione, tuttavia, è soltanto dei contorni alterati del sé come ne viene fatta esperienza

internamente. Nessuna forma viene spinta attraverso o al di là del confine. La parola chiave usata da

Tommaso è «assimilazione» (adaequatio indica un avvicinamento, ma non il raggiungimento,

dell'uguaglianza). Il corpo non assorbe gli stimoli, ma cambia la propria forma per diventare simile

a quegli aspetti degli stimoli che riguardano l'intento emerso nell'ambito del cervello. Tommaso

paragonò tale processo a un osservatore che fa brillare una luce all'interno di una struttura come una

tenda. L'osservatore inferisce che cosa succede all'esterno dalle forme della luce riflessa e dai

movimenti delle pareti della tenda. Vi è differenza con le pareti della caverna di Platone poiché lì la

luce e le forme provengono dall'esterno e vengono colte in modo imperfetto dai sensi in base alle

ombre sul muro immobile, mentre per Tommaso le forme vengono create internamente al sé grazie

al raggiungimento della similitudine.»127 L'Aquinate così spiega questo fondamentale concetto: «Il

vero [...] si trova formalmente nell'intelletto. E siccome ogni cosa è vera secondo che ha la forma

conveniente alla propria natura, l'intelletto, considerato nell'atto del conoscere, sarà vero in quanto

ha in sé l'immagine della cosa conosciuta, poiché tale immagine è la sua forma nell'atto del

conoscere. Per questo motivo la verità si definisce in base alla conformità dell'intelletto alla realtà, e

quindi conoscere tale conformità è conoscere la verità. Tale conformità invece il senso non la

conosce in alcun modo: per quanto infatti l'occhio abbia in sé l'immagine dell'oggetto visibile, pure

non afferra il rapporto che corre tra la cosa vista e ciò che esso ne coglie. L'intelletto invece può

conoscere la propria conformità con la cosa conosciuta. Tuttavia non la afferra quando percepisce la

quiddità di una cosa; ma quando giudica che la cosa in se stessa è conforme alla sua apprensione, è

allora che comincia a conoscere e a dire il vero. E fa questo nell'atto di comporre e di dividere:

infatti in ogni proposizione l'intelletto applica o esclude, in una cosa espressa dal soggetto, ma una

certa forma espressa dal predicato. Quindi è giusto affermare che il senso relativamente ad una data

cosa è vero, o che è vero l'intelletto nel conoscere la quiddità, ma non si può dire che conosca o

affermi il vero. E la stessa cosa vale per le espressioni verbali complesse o semplici. La verità,

dunque, può anche trovarsi nei sensi o nell'intelletto che conosce la quiddità come si trova in una

cosa vera, ma non quale oggetto conosciuto nel soggetto conoscente, come invece indica il termine

vero: la perfezione dell'intelletto, infatti, è il vero conosciuto. Per conseguenza, a parlare

propriamente, la verità è nell'intelletto che compone o divide (che giudica); non invece nel senso, e

neppure nell'intelletto che percepisce la quiddità.»128 Per esempio, quando adattiamo una mano per

stringere una caffettiera e l'altra per tenere una tazzina allo scopo di riempirla, non trasferiamo

forme geometriche nel cervello, ma uniamo il nostro corpo alle forme degli oggetti adattandovi le

mani per poterli manipolare. Pertanto, i significati degli oggetti crescono in conformità a quanto

abbiamo fatto e a quanto intendiamo fare con tali oggetti. Così, altri possono osservare ciò che

facciamo, imparare per imitazione a creare in tal modo significati simili ai nostri, che comunque

sono prodotti da loro e non sono trapiantati. Tommaso basa la sua nozione di unidirezionalità

sull'incompatibilità tra le forme della materia, che sono uniche e particolari, e le forme

dell'intelletto, che sono generalizzazioni e astrazioni. Questi costrutti intellettuali sono tutto ciò che

possiamo conoscere poiché ogni oggetto materiale è infinitamente complesso nei suoi dettagli. «In

un certo senso esiste un'unica verità, per la quale tutte le cose sono vere, mentre non è così in un

altro senso. Per vederlo chiaramente bisogna sapere che quando un attributo viene affermato di più

cose univocamente, si trova in ciascuna di esse secondo la sua propria nozione, come animale in

ogni specie di animali. Quando invece un attributo viene affermato di più soggetti analogicamente,

allora esso si trova secondo la sua propria nozione in uno solo, dal quale tutti gli altri vengono

denominati: p. es. sano si dice dell'animale, dell'orina e della medicina, in modo che l'attributo della

sanità non si trova nel solo animale, ma dalla sanità dell'animale è denominata sana la medicina in

quanto è causa di tale sanità, e sana l'orina in quanto ne è il segno. E sebbene la sanità non sia nella

medicina e neppure nell'orina, tuttavia nell'una e nell'altra vi è qualcosa per cui l'una produce e

l'altra significa la sanità. Ora, sopra [...] si è detto che la verità primariamente è nell'intelletto e

secondariamente nelle cose in quanto dicono ordine all'intelligenza divina. Se dunque parliamo

della verità in quanto, secondo la sua nozione propria, è nell'intelletto, allora, dato che esistono

molte intelligenze create, vi sono anche molte verità; e anche in un solo e medesimo intelletto vi

possono essere più verità, data la pluralità degli oggetti conosciuti.»129 Non esistono, ad esempio,

due tazzine identiche, neanche se provengono dallo stesso stampo; molto semplicemente, per motivi

pratici, ci figuriamo che lo siano. Le forme dipendono dalla scala: nel caso, ad esempio, delle

lamette da barba sembrano tutte uguali ad occhio nudo, tuttavia, se le si osserva al microscopio

elettronico, ognuna appare come una catena montuosa diversa. Stando così le cose, dunque,

Freeman così si esprime: «Tommaso annullò la dicotomia tra soggetto e oggetto, poiché il sé crea le

sue forme uniche rendendosi simile al mondo, non scoprendo al suo interno forme ideali, categorie

o verità eterne che si contrappongono agli oggetti del mondo. In termini contemporanei, il corpo e il

cervello sono sistemi aperti con flussi di materia, energia ed informazione, ma l'unidirezionalità

della percezione fa della trama del significato un sistema chiuso. Il mondo è infinitamente al di là

delle nostre limitate capacità di creare forme e i suoi particolari sono inaccessibili e inutili per noi.

[...] Il processo dell'intenzionalità, quando funziona bene, ci permette di cogliere proprio tutto ciò

che siamo i grado di trattare e nulla di più. [...] Il nostro sistema percettivo unidirezionale è la nostra

risorsa migliore per adeguare le nostre limitate capacità al mondo infinito.»130 Nella dottrina di

Tommaso d'Aquino, come abbiamo dinanzi mostrato, l'intenzionalità non richiede coscienza,

tuttavia ha bisogno dell'azione per creare significato. Questa impostazione, dunque, ci consente di

scavare ulteriormente all'interno della teoria dell'agente così come divisata da Kauffman. In base

alla prospettiva di Freeman or ora messa in luce, infatti, gli agenti autonomi sono si attori costruttori

che creano sempre nuovi significati attraverso la realizzazione di azioni imprevedibili (know-how),

ma tutto ciò è possibile solo perché, come appunto denota Tommaso, la vita è essenzialmente

assimilazione (adaequatio) e quindi intenzionalità: il bios, pertanto, alla fine di questa lunga

disamina, appare come il risultato di una serie trans-finita di adeguamenti che costituiscono e

modificano imprevedibilmente le parti del gioco stesso. Noi annusiamo, muoviamo gli occhi,

mettiamo la mano a coppa dietro all'orecchio e spostiamo le dita per manipolare un oggetto al fine

di ottimizzare la nostra relazione con tale oggetto per il nostro scopo immediato. Merleau-Ponty ha

chiamato questa azione dinamica «ricerca della massima presa», ovvero «ottimizzazione della

relazione del sé con il mondo realizzata disponendo i recettori sensitivi verso l'oggetto

designato».131 Questo concetto equivale, appunto, all'assimilazione di Tommaso. Da queste

considerazioni, quindi, a nostro giudizio, risulta possibile inferire che la vita non è soltanto

linguaggio (o a limite puro sistema di programmi) e cognizione (e, in generale, apprendimento),

bensì appare anche come un fenomeno coevolutivo in cui l'informazione si trasforma

continuamente dando nascita, altresì, ad un processo dialettico di creazione ed assimilazione

(adaequatio) di significati sempre nuovi: ecco, allora, che, in accordo con Kauffman e Freeman,

diviene sempre più urgente la costruzione di una nuova semantica, una semantica, vale a dire, non

più soltanto di tipo interpretativo, bensì di tipo generativo. Il grande biochimico, tuttavia, pur

avendo segnato (mediante l'applicazione delle reti booleane stocastiche alla biologia) il cammino

delle ricerche nell'ambito della complessità biologica dagli anni settanta fino ad oggi e nonostante i

numerosi ed originali sentieri esplorati nell'ultimo decennio (la teoria dell'agente autonomo, il

concetto di cicli di lavoro termodinamico, la rivisitazione del concetto di significato secondo Pierce

e la teoria dell'informazione istruttiva), a differenza di Atlan e Carsetti i quali pongono l'accento dei

loro studi sulla possibilità di costruire una teoria semantica dell'informazione, ovvero una rinnovata

teoria algoritmica dell'informazione basata su di una logica intensionale e sul riferimento a

strumenti matematici innovativi, egli, rimane, per alcuni aspetti, ancorato ad un modello

matematico (basato su una logica estensionale), che permane, a livello formale, quello presentato

con tanta cura e lungimiranza nei suoi primi articoli pubblicati negli anni settanta e a cui, ancora

oggi, si fa continuo riferimento in tanti centri di ricerca nel mondo. Per costruire a livello biologico

una teoria dell'informazione semantica, invece, occorre fare i conti sino in fondo con l'informazione

profonda, un'informazione, vale a dire, non misurabile tramite il ricorso agli strumenti offerti dalla

tradizionale teoria dell'informazione di Shannon basata, come abbiamo visto, su di una matematica

troppo semplice e quindi «incompatibile» con la complessità dei fenomeni vitali. Occorre, in altre

parole, definire, come abbiamo accennato in precedenza, i principi di una nuova teoria

dell'informazione algoritmica (cioè di una nuova teoria della complessità), non esclusivamente

ancorata ad una base proposizionale, bensì articolata al livello di una dimensione logica a carattere

predicativo e stratificato. Una tale teoria della complessità dovrebbe essere in grado, tra l'altro, di

mostrarci come sia possibile parlare, senza contraddizione alcuna, di non esistenza di algoritmi

finiti in relazione a problemi che pure risultano ben posti in termini di unicità e di esistenza (la non

esistenza è un dato di partenza ineliminabile così come, sul versante fisico, in accordo con

Prigogine, è un dato primitivo l'esistenza di una randomness che trova il suo fondamento nella

dinamica). Ebbene, tutto ciò implica anche l'elaborazione di una semantica intensionale ed iper-

intensionale per i processi ricorrenti di auto-organizzazione, nonché la costruzione di modelli di

simulazione di automi dotati di basi intensionali e di funzioni riflessive ed interpretative. In altre

parole, occorre estendere il quadro standard relativo ai modelli tradizionali booleani per costruire un

nuovo e più generale tipo di concetto teorico: «the concept of self-organizing model. The sign of

such a new kind of semantics, if successful, will necessarily conduct us, as a consequence, to

perceive the possibility of outlining a new and more powerful theory of cellular automata, of

automata in particular, that will manifest themselves as coupled models of creative and functional

processes. We shall no longer be only in the presence of classification systems or associative

memories or simple self-organizing nets. We shall be, on the contrary, faced with a possible

modeling of precise biological activities, which biochemical networks or biochemical simulation

automata capable of self-organizing, as coupled systems, their emergent behaviour including their

same simulation functions. When we consider, for instance, DNA as a complex system

characterized by the existence of a precise language articulating within the contours of a self-

organizing and intentional landscape, we are necessarily faced with a molecular semantics that

needs, in order to be understood, explanatory tools much more powerful than those provided by

Kauffman model a particular embodiment of these tools, can be actually, represented by the

outlining of simulation automata able to prime new forms of conceptual «reading» of the

information content hidden in the text provided by the molecular language.»132 Anche se le parole

ed i concetti che abbiamo or ora riportato hanno subito in lavori più recenti alcune modificazioni a

seguito dell'approfondimento realizzato da A. Carsetti in questi ultimi anni, questi, tuttavia, a nostro

giudizio, ci additano con efficacia l'ombra di quelle che potremmo definire come le «colonne

d'Ercole della biologia». Una teoria dell'informazione semantica, infatti, dovrebbe fare i conti con

una alterità radicale: in questo ipotetico dialogo tra l'osservatore e la sorgente, infatti, quest'ultima

può essere paragonata da un filosofo anche ad una significazione originaria che sfugge

costantemente ad ogni tentativo umano di oggettivazione e di rappresentazione. Si sta proponendo

qui l'ipotesi suggestiva di far dialogare il mistero dell'auto-organizzazione con una diacronia

irrappresentabile, ovvero con un'intenzionalità priva d'inizio che, trascendendo la chimica, la fisica,

la matematica, la biologia e la stessa scienza dell'informazione, si ri-vela come Vita «incarnandosi»

costantemente nel linguaggio, quindi nel codice. Un tale cammino teorico, inoltre, come abbiamo

mostrato in queste pagine, potrebbe anche far luce sull'intrigante questione relativa alla comparsa

dell'etica mostrando altresì come le pre-condizioni della capacità morale dell'uomo siano in realtà

proprietà fondamentali che caratterizzano la vita stessa. Secondo questa prospettiva, dunque, la

nozione monodiana di invarianza legata all'idea di un programma genetico fisso ed immutabile,

lascia il posto a quella di emergenza del significato, cioè apertura al possibile e alla complessità. Gli

agenti autonomi, infatti, non sono meri «spettatori» del mondo, al contrario, come appunto rileva

Kauffman, sono «attori-costruttori» che, in continuo rapporto con l'ambiente, trasformano se stessi

creando così sempre nuovi significati. Il DNA, pertanto, non è un programma fisso che dice quello

che saremo, bensì costituisce quel fascio di capacità che esprime la logica della vita fondata sul

concetto-chiave di possibilità. «At the level of complexity molecules [...] the universe has not had

time to create all possible versions. For example, the universe has not had time to create all proteins

to length 200, by about 10 to the 67th power repetitions of the history of the universe. Consider a

simple set of organic molecules and all the reactions they can collectively undergo. Call the initial

set of molecules the Actual. New among the reactions that might happen, some may lead to

molecular species that are not present in the initial actual. Call these new molecular species the

Adjacent Possible. They are the molecular species that are reachable in a single reaction step from

the current actual. It is of fundamental importance that the biosphere has been evolving into the

Adjacent Possible for 3. 8 billion years, from an initial diversity of perhaps 1000 organic molecules

to trillions. The biotic world advances into the adjacent possible in terms of molecules,

morphologies, species, behaviours, and technologically from pressure flaked stones; it lurks in

everything from the global economy to the computer, and the millions of products in the current

global economy. [...] The evolving universe and biosphere advance persistently into the adjacent

possible. This means that what comes to exist at these levels of complexity is typically unique in the

universe. Now consider a heritable variation which gives rise to a new constraint, physical biotic

information, that helps cause a sequence of events in a molecular agent. If that heritable variation is

to the selective benefit of the agent, the new constraint, the new biotic information, will be grafted

into the organism, its progeny, and the ongoing evolution of the biosphere. It is essential to note that

in the absence of heritable variation, an increase in fitness, and natural selection, this new

functionality would not come to exist in the universe: but lungs and flight have come to exist. The

mechanisms of heritable variation and natural selection comprise an assembly process by which

propagating organization is modified in normal Darwinian adaptations and pre-adaptations where

new functionalities arise, and these modifications are built into the ongoing evolution of the

biosphere.»133 Stando così le cose, dunque, a nostro giudizio, la vita appare come un fenomeno di

transazione, ovvero il risultato di una serie di trasferimenti bi-direzionali di informazione

indipendenti tra loro e nello stesso tempo interconnessi. L'indipendenza implica che ogni

trasferimento è in sé libero; in altre parole, nessun trasferimento informazionale costituisce un

prerequisito per la messa in atto dell'altro, dal momento che non vi è alcun obbligo esterno in grado

di agire sulla dinamica del processo. È una logica, quest'ultima, di reciprocità molecolare, una

logica vale a dire né condizionale né puramente incondizionale, poiché se è vero che i processi

molecolari di una cellula sono gratuiti, al tempo stesso senza la risposta di alcune macromolecole il

sistema non realizza il proprio telos interno. A queste due caratteristiche (la

condizionalità/incondizionale e la bi-direzionalità dei trasferimenti) ne va però aggiunta una terza:

la transitività. Nei sistemi altamente complessi come gli agenti autonomi, a livello molecolare si ha

che la risposta di una molecola ad un segnale di un'altra molecola può anche non essere rivolto

verso quella molecola che ha scatenato la reazione di reciprocità, ma anche verso un terzo elemento.

In altre parole, A che pone in essere un processo nei confronti di B innesca un processo di

reciprocità chimica non solo se B risponde nei suoi confronti, ma anche se agisce reciprocamente

nei confronti di C (si pensi ad esempio alla chiusura auto-catalitica dei sistemi prebiotici). È questo,

dunque, che rende la reciprocità del bios qualcosa di diverso da un egoismo incrociato,

conferendole altresì apertura. Sono queste, infatti, le dinamiche interne ai processi di auto-

organizzazione della vita. Nei sistemi viventi, a livello molecolare, la struttura di reciprocità che

viene spontaneamente ad emergere è normalmente triadica e dunque aperta, una struttura, vale a

dire, in cui è possibile rintracciare chiaramente non solo fenomeni di associazione molecolare, bensì

fenomeni di cooperazione in cui ogni parte, così come c'è soltanto mediante tutte le altre, «è anche

pensata come esistente in vista delle altre e del tutto, cioè come strumento [...] solo allora e per ciò

un tale prodotto potrà essere detto, in quanto essere organizzato e che si auto-organizza, uno scopo

naturale».134 Proprio qui infatti possiamo riconoscere con precisione i meccanismi misteriosi di

quella che Kant definisce come forza vitale etica, ovvero quel particolare intreccio di auto-

organizzazione, complessità, emergenza, assimilazione ed intenzionalità che ci permette di

«leggere» la vita come un fenomeno cognitivo, coevolutivo e relazionale, un fenomeno, vale a dire,

governato da una misteriosa logica di reciprocità molecolare.135

Copyright © 2009 Mirko Di Bernardo

Mirko Di Bernardo. «Verso una fondazione naturalistica delle pre-condizioni dell'etica: semantica

molecolare ed intenzionalità nei sistemi viventi». Dialegesthai. Rivista telematica di filosofia [in

linea], anno 11 (2009) [inserito il 5 luglio 2009], disponibile su World Wide Web:

<http://mondodomani.org/dialegesthai/>, [290 KB], ISSN 1128-5478.

Note

1. T. Pievani, La scienza della complessità incontra la storia, in Esplorazioni evolutive,

Einaudi, Torino, 2005, p. 345.

2. S. A. Kauffman, Esplorazioni evolutive, Einaudi, Torino 2005, p. 25-29.

3. Ibidem, p. 3.

4. Ibidem, p. 4.

5. E. Schrödinger, (1943), Che cos'è la vita?, Sansoni, Firenze 1947, p. 63-66.

6. Kauffman, Esplorazioni Evolutive, p. 10.

7. Schrödinger, Che cos'è la vita?, p. 87.

8. Ibidem, p. 88-89.

9. Ibidem, p. 92.

10. Kauffman, Esplorazioni Evolutive, p. 11-12

11. Ibidem, p. 7.

12. Ibidem, p. 13.

13. Ibidem, p. 44.

14. Ibidem, p. 46-47.

15. D. H. Lee, J. R. Granja, J. A. Martinez, K. Severin and M. R. Ghadiri, (1996), «A Self-

Replicating Peptide», Nature 382 (6591): 525-528.

16. D. H. Lee, K. Severin, Y. Yokobayashi and M. R. Ghadiri, (1997), «Emergence of

symbiosis in peptide self-replication through a hypercyclic network», Nature, 390:591-594.

Si veda anche: D. H. Lee, K. Severin and M. R. Ghadiri, (1997), «Autocatalytic networks:

the transition from molecular self-replication to molecular ecosystems», Curr.Opin. Chem.

Biol., 1, 4, p. 491-496.

17. Kauffman, Esplorazioni Evolutive, p. 49.

18. Ibidem, p. 64.

19. S. Carnot, Riflessioni sulla potenza motrice del fuoco, Bollati Boringhieri, Torino 1992.

20. Kauffman, Esplorazioni Evolutive, p. 76-77.

21. Ibidem, p. 78.

22. Ibidem, p. 78-79.

23. Ibidem, p. 80.

24. Ibidem, p. 82.

25. Ibidem, p. 83.

26. Ivi.

27. Ibidem, p. 84.

28. Ibidem, p. 86.

29. Ivi.

30. Ibidem, p. 87.

31. S. A. Kauffman, (2003), «Molecular Autonomous Agents», Philos. Transact a Math. Phys.

Eng. Sci., 361 , 1807, p. 1089-99.

32. Kauffman, Esplorazioni Evolutive, p. 89-90.

33. Ibidem, p. 90.

34. Ibidem, p. 91.

35. Ivi.

36. Ibidem, p. 92.

37. Ibidem, p. 92-93.

38. A. J. Daley, A. Girvin, S. A. Kauffman, P. R. Wills and D. Yamins, (2000), «Simulation of

a Chemical Autonomous Agent», Z. Phys.Chem. 216, 41.

39. Kauffman, Esplorazioni Evolutive, p. 95.

40. R. Benkirane, (2002), Teoria della Complessità, Bollati Boringhieri, Torino, 2007, p. 159-

160.

41. Kauffman, Esplorazioni Evolutive, p. 96.

42. Ibidem, p. 96-97.

43. S. A. Kauffman, (2007), «Question: Origin of Life and the Living State», Orig. Evol.

Biosph, 37:315-322, p. 319.

44. Kauffman, Esplorazioni Evolutive, p. 97.

45. Ibidem, p. 98.

46. C. E. Shannon, (1948), «A mathematical theory of comunication», Bell Syst Technical J.

27:379-423.

47. Kauffman, Esplorazioni Evolutive, p. 114.

48. Ibidem, p. 115.

49. Ibidem, p. 115-116.

50. Ibidem, p. 116-117.

51. Ibidem, p. 117-118.

52. Ibidem, p. 118-119.

53. Ibidem, p. 121.

54. Ibidem, p. 122.

55. Ibidem, p. 123.

56. Ibidem, p. 124.

57. Ibidem, p. 126.

58. Ibidem, p. 127-128.

59. Ibidem, p. 128.

60. Ibidem, p. 129.

61. Ibidem, p. 133.

62. Ibidem, p. 134.

63. Ibidem, p. 135.

64. Ivi.

65. Ibidem, p. 112.

66. P. Atkins, Four laws that drive the universe, Oxford University Press., 2007.

67. Kauffman, Esplorazioni Evolutive, p. 112.

68. Kauffman, Question: Origin of Life and the Living State, p. 320.

69. Kauffman, Esplorazioni Evolutive, p. 143.

70. Ibidem, p. 144.

71. Ibidem, p. 145.

72. Kauffman, S. A. and P., Clayton (2006) «On emergence, agency, and organization», Biol.

Philos, 21:501-521.

73. Kauffman, Esplorazioni Evolutive, p. 145.

74. Ibidem, p. 146.

75. J. Bronowski, (1970), «New concepts in the Evolution of Complexity», Zygon, 5, p. 18-35.

76. Eigen M. and R. Winkler, (1981) «Transfer-RNA, an early Gene?», Naturwissenschaften,

68, p. 282-292.

77. A. Carsetti, (1987), «Teoria algoritmica dell'informazione e sistemi biologici», La Nuova

Critica, 3-4, p. 37-38.

78. Ibidem, p. 38. Si veda anche A. Carsetti, «Natural Intelligence and Artificial Intelligence»,

in Intelligent Information Systems for the Information Society, (B. C. Brookes ad.), Elsevier,

Dordrecht, 1986.

79. Ibidem, p. 39.

80. Ibidem, p. 40.

81. A. Carsetti, (1989), «Teoria della complessità e modelli della conoscenza», La Nuova

Critica, 9-10, p. 61-62.

82. C. F. von Weizsäcker, «Evolution und Entropiewachstum, in Offene Systeme I (von

Weizsäcker ed.), Stuttgart, 1974.

83. Carsetti, «Teoria algoritmica dell'informazione e sistemi biologici», p. 43.

84. Ibidem, p. 44.

85. Ibidem, p. 45.

86. Ibidem, p. 47.

87. Kauffman, Esplorazioni Evolutive, p. 147-148.

88. C. E. Shannon (1948) «The mathematical theory of communication», Bell Syst Technical J.,

27, p. 379-423.

89. Carsetti, «Teoria algoritmica dell'informazione e sistemi biologici», p. 50-51.

90. S. A. Kauffman, R. K. Logan, R. Este, R. Goebel, G. Hobill and I. Shmulevich, (2008)

«Propagating organization: an enquiry», Biol. Philos., 23, p. 34-35.

91. Ibidem, p. 36-37.

92. Kauffman, Esplorazioni Evolutive, p. 149.

93. Kauffman, Logan, Este, Goebel, Hobill, Shmulevich, «Propagating organization: an

enquiry», p. 38.

94. Shannon, «The mathematical theory of communication, p. 380.

95. Kauffman, Logan, Este, Goebel, Hobill, Shmulevich, «Propagating organization: an

enquiry», p. 38.

96. Ibidem, p. 39.

97. Ivi, p. 39.

98. Ibidem, p. 39-40.

99. Ibidem, p. 40.

100. Ibidem, p. 42-43.

101. I. Kant (1797) Metafisica dei costumi, Bompiani, Milano 2006.

102. D. Dennet, L'idea pericolosa di Darwin, Bollati Boringhieri, 1997,p. 474-75.

103. Ibidem, p. 474.

104. Ibidem, p. 474-475.

105. Ibidem, p. 478.

106. Kauffman, Esplorazioni Evolutive, p. 151.

107. Ibidem, p. 152.

108. Ibidem, p. 153-154.

109. Ibidem, p. 154-155.

110. Kauffman, Reinventing the sacred, p. 193.

111. Kant, Metafisica dei costumi, p. 47.

112. Kauffman, Esplorazioni Evolutive, p. 154.

113. Kant, Metafisica dei costumi, p. 415.

114. Ibidem, p. 415.

115. L. Boella, Neuroetica. La morale prima della morale, Raffaello Cortina Editore,

Milano, 2008, p. 43-44.

116. W. J. Freeman, Come pensa il cervello, Einaudi, Torino 1999, p. 12-13.

117. Ibidem, p. 19.

118. Ibidem, p. 22.

119. Ibidem, p. 24.

120. Ibidem, p. 25.

121. Ibidem, p. 26.

122. Ibidem, p. 40.

123. Ibidem, p. 26-27.

124. Ibidem, p. 34-35.

125. Ibidem, p. 35.

126. Tommaso d'Aquino, (1272), La somma teologica. CD-ROM, Edizioni Studio

Domenicano, Bologna, 2002. [I-III, 12, 5a].

127. Freeman, Come pensa il cervello, p. 36.

128. Tommaso d'Aquino, La somma teologica. CD-ROM, [I, 16, 2a].

129. Ibidem. [I, 16, 6a].

130. Freeman, Come pensa il cervello, p. 37-38.

131. M. Merleau-Ponty, La struttura del comportamento, Bompiani, Milano 1970.

132. A. Carsetti, 1996, «Chaos, natural order and molecular semantics», La Nuova

Critica, 27-28, p. 99-100.

133. Kauffman, «Propagating organization: an enquiry», p. 41.

134. I. Kant, Critica della facoltà di giudizio, p. 207.

135. Questo articolo costituisce una rielaborazione di alcune tematiche sviluppate nella

mia tesi di laurea magistrale dal titolo: I sentieri evolutivi della complessità biologica alla

luce delle investigazioni scientifiche e delle esplorazioni metodologiche di S. A. Kauffman.

Ringrazio calorosamente il Dipartimento di Biologia dell'Università di Roma Tor Vergata ed

in particolare i professori Amaldi, Piacentini, Rickards e Rizzoni con i loro rispettivi

collaboratori per avermi permesso, mediante programmi mirati, di approfondire dal punto di

vista scientifico alcune delle tematiche qui affrontate. Un ringraziamento speciale va al mio

relatore e maestro, il Prof. Arturo Carsetti, per avermi dato l'opportunità di scoprire ed

approfondire, attraverso i suoi fondamentali insegnamenti, i temi affascinanti della filosofia

della biologia contemporanea, trasmettendomi altresì la passione per lo studio del

significato. Inoltre, ringrazio il Prof. Stuart Alan Kauffman per aver accettato di interloquire

con me dandomi utili suggerimenti ed interessanti spunti, nonché la possibilità di mantenere

anche un prezioso contatto a distanza. Infine, ringrazio con affetto il correlatore, il Prof.

Francesco Miano, per la competenza, la disponibilità e la profonda umanità con cui mi ha

seguito. Le immagini qui utilizzate sono di Stuart Kauffman ed in particolare sono state

riprese dal volume Esplorazioni Evolutive, Einaudi, Torino 2005.