Benvenuti su Esonet.it-Pagine scelte di Esoterismo
------| Equilibramento e sintesi degli opposti || Il Guerriero, impassibile nella gioia e nel dolore || Felicità, la negazione del dolore || Il Dolore nell’Insegnamento iniziatico || Legge di Risposta Espansiva e Legge del Quattro Inferiore || Del senso pratico della Massoneria || Il risveglio dei centri || Il Viaggio attraverso la Grande Opera /2.5 || Della qualità del consiglio |------
 HOME :: ARGOMENTI :: CATEGORIE :: GALLERIA :: LINKS :: CHI SIAMO :: CONTATTI :: CERCA  
:: ... ad Athos ::
Documento senza titolo

:: News da Esonet.com ::

:: ThePlanetarySystem ::

:: Primo Rotolo ::



Per visitare il
Primo Rotolo
clicca qui


 
: Il Re ed il Buffone
Argomento:Scienza ed Esoterismo

Scienza ed EsoterismoUn excursus attraverso la dialettica tra Ordine e Caos nella matematica e nella fisica del secolo scorso per chiederci quale sia stato il ruolo degli scienziati e se essi abbiano servito più il Re, custode dell’ordine, o il Buffone, che regna sul caos. In effetti chi si era proposto di dimostrare che l’universo è governato dal determinismo e che la matematica e la logica sono rette da un ordine assoluto, si è imbattuto nel caos e, viceversa, chi si è occupato dei fenomeni caotici vi ha introdotto l’ordine.

Documento senza titolo

Il Re ed il Buffone

di Alessandro Orlandi


Re Lear: “Mi chiami matto, ragazzo?”

Ragazzo: “Tutti gli altri tuoi titoli li hai dati via, con questo invece ci sei nato.”

(W. Shakespeare – Re Lear – I,IV)

Tutti sanno che una figura familiare nelle corti medievali era quella del Buffone, spesso descritto come compagno inseparabile del Re, suo unico confidente e consigliere, figura ambigua di giullare demente che, compiacendosi dei lazzi sciocchi ed insensati con i quali bersagliava gli astanti, celava spesso tra scherzi e doppi sensi osceni abissi di saggezza insospettabili.

Il Buffone era l’unico al quale, entro certi limiti, veniva concesso di farsi beffe del Re senza dover per questo pagare con la propria vita l’affronto. Uccidere o far del male al Buffone era inoltre considerato un segno di sicura disgrazia, e la sua immunità e libertà di parola derivavano anche da una superstizione che legava i suoi destini a quelli del Re.

Vi è, in realtà, un motivo profondo che accomuna la figura del Re a quella del Buffone di corte. Il Re è per antonomasia il simbolo vivente dell’Ordine dell’Autorità e della Legge. Si potrebbe dire che egli fosse il catalizzatore dei principi sui quali erano organizzate le società medievali.

Se dunque il Re incarnava l’Ordine, la morte del Re o la sua deposizione, la messa in discussione della sua autorità, significavano l’irruzione del Disordine e del senza-forma nel mondo chiuso della corte.

Dato che sul Re si faceva affidamento perché le Leggi fossero rispettate, perché fosse garantito il tranquillo e ciclico ripetersi degli eventi “conosciuti” della vita di ogni giorno, nella possibilità stessa della caduta e scomparsa del sovrano si nascondeva minacciosa tutta la forza dirompente e devastante del Caos.

Se il passaggio attraverso il Nulla, la perdita dei propri punti di riferimento, la distruzione dei ritmi quotidiani è quanto di più temibile un uomo possa concepire, è però anche vero che il rinnovamento, la trasformazione, i nostri stessi cicli vitali richiedono che il “vecchio ordine” venga periodicamente abbattuto per fare posto ad un “nuovo ordine” più adeguato al mutare degli eventi.

Nel Nulla, nel Caos, nelle “Acque Cosmiche” è celata la forza della rigenerazione ed il prezzo che si deve pagare per rinascere integri e pronti per un nuovo ciclo vitale è la totale perdita dell’Ordine Antico, del ricordo stesso della sua esistenza.

Ogni Re, quindi, man mano che il suo potere e la sua autorità aumentavano, consolidava fuori di sé questa possibilità a lui antitetica, di caduta e dissoluzione.

È in questo contrasto che si inserisce la figura del Buffone. Egli oppone ad un’intelligenza rigida e contingente del mondo la “demenza” di chi attinge ad una saggezza fluida e senza tempo, al linguaggio netto, preciso e consequenziale del Re, un parlare oscuro e illogico, fatto di rime, indovinelli e motti arguti e beffardi.

In ciò che è strutturato, codificato, dotato di forma, egli sa vedere “l’altro lato”. È il mediatore tra l’Ordine esistente ed il Caos che lo delimita.

Il Buffone era quindi il tramite, il mezzo mediante il quale il Re comunicava con “l’altra metà del Mondo”, con la potenza vivificante del proprio inconscio, scongiurando in tal modo un eccessivo irrigidimento del suo ruolo ed autorità, che avrebbe reso il Regno obsoleto e pericolante. In questo senso lo citiamo qui, tra le immagini del mercurio, perché questo ruolo di mediatore ne fa una figura mercuriale per eccellenza e non a caso tutte le figure di giullari e buffoni della storia e della letteratura hanno come nume tutelare proprio Hermes (basti pensare al nome che Shakespeare ha voluto dare a Mercuzio in “Giulietta e Romeo”, Mercuzio, l’amico di Romeo, racchiude in se tratti tragici, ma possiede anche l’innegabile talento dissacrante del giullare, di cui fa sfoggio anche in punto di morte.

Collegando l’Ordine ed il Caos, che scindendosi avevano dato origine al Mondo, il buffone ricompone, col suo stesso esistere, l’Unità primigenia.

È forse per questo che, se il Re avesse ucciso il suo Buffone, avrebbe con questo gesto delegittimato il proprio potere.

Nella astrologia tradizionale e, più in generale, nella Tradizione esiste una legge fondamentale che regola i rapporti tra i principi opposti, la “legge della enantiodromia” spesso citata nella psicologia junghiana.

Questa legge è la stessa che aveva ispirato la meno nota delle due scritte che erano incise sulla facciata del tempio di Apollo a Delfi. La prima, che tutti conosciamo, era l’imperativo socratico “conosci te stesso”. L’altra, a cui sto facendo ora riferimento, era “nulla di troppo”.

La legge dell’enantiodromia è la stessa che regola i rapporti tra luce ed ombra nei solstizi e negli equinozi: ogni volta che uno dei due principi tocca il suo culmine è destinato a capovolgersi nel principio opposto. Cosi al culmine del solstizio di inverno, nella giornata più corta dell’anno, la luce comincia nuovamente a manifestarsi e le giornate ad allungarsi, finché, all’equinozio di primavera, il tempo destinato alla luce è maggiore di quello governato dalle tenebre. Al solstizio di estate si produce il fenomeno opposto e analoghi cicli possono essere riferiti al percorso diurno del sole e a quello mensile della luna.

Si tratta quindi di principi inscritti nel cielo dai luminari e inscritti nell’esistenza umana: è al culmine della sua potenza e del suo vigore che comincia il declino dell’uomo e delle civiltà che egli crea.

Mi è sembrato, a proposito del ruolo del Mercurio nel rapporto tra Ordine e Caos, di dare un contributo alla riflessione sul significato del tempo in cui viviamo, soffermandomi sul tentativo dei fisici, dei filosofi, dei logici e dei matematici di creare un ordine perfetto ed onnicomprensivo per la struttura delle conoscenze in fisica, logica e matematica.

Come è noto il risultato finale è molto lontano dalle intenzioni iniziali di chi dette vita a questo processo. Ho condensato in poche pagine, in quanto segue, alcune delle principali svolte del pensiero scientifico tra ottocento e novecento, per ciò che riguarda Ordine e Caos. Ognuno di noi può chiedersi, in questo lungo processo di trasformazione, quale sia stato il ruolo del Re e quale quello del Buffone, quale regno sia tramontato e quale stia per nascere…

Ordine e caos nella fisica

Nel XVIII secolo Laplace nutriva una fiducia illimitata nel potere della matematica di descrivere e prevedere l’evoluzione nel tempo di un fenomeno fisico. I meccanicisti e i deterministi più convinti estesero questa convinzione a fenomeni di tipo biologico, economico o sociale. Si cercavano modelli meccanici dei fenomeni da spiegare (un caso estremo è rappresentato dalle equazioni di Maxwell: il fisico costruì un complicatissimo modello meccanico delle sue equazioni). La fine del XVIII secolo vide convergere le ricerche sul rapporto tra lavoro meccanico e calore in una trasformazione termodinamica.

Questo interesse fu anche determinato dall’espansione coloniale, dalla spinta a produrre sempre di più e a costi sempre più bassi, dalla fine della produzione artigianale e dal prevalere della produzione in serie, che si avvaleva di macchinari. Fisici, tecnici e ingegneri erano spinti dalla necessità di determinare con precisione il rapporto intercorrente tra perdite e profitti nel funzionamento di una macchina, cioè tra combustibile impiegato per farla funzionare e lavoro meccanico ottenuto.

Agli albori della termodinamica sono soprattutto docenti di Politecnici francesi, inglesi e tedeschi e alcuni privati che lavorano con l’ingegneria meccanica a fare le principali scoperte. (Prima macchina a vapore di T. Savery, capitano del genio, della fine del ‘600, che funziona con altissime pressioni, prima macchina impiegata su larga scala dell’inizio del ‘700, T. Newcomen).

Le prime macchine erano caratterizzate da enormi sprechi e la minima disattenzione ne determinava la rottura o l’esplosione. Si lavorava ai concetti di Potenza (lavoro nell’unità di tempo) e Rendimento (effetti utili/lavoro in ingresso). La valutazione economica della resa delle macchine divenne sempre più importante cosi come riuscire a utilizzare una stessa macchina per più “cicli”. Fu J. Watt, grazie ad alcune sue fondamentali scoperte, a mettere a fuoco i moderni concetti termodinamici (dopo il 1769). Mentre scienziati come Laplace e Lavoisier si interrogavano sulla natura del calore (il calore come fluido, il calorico…) gli studiosi di ingegneria meccanica dei politecnici facevano grandi progressi nella scienza del calore. In particolare all’inizio dell’ottocento Lazare e Sadi Carnot, ricorrendo anche ad analogie idrauliche, e successivamente Kelvin, Clausius e Joule verso la metà del secolo, formularono i principi della termodinamica cosi come li conosciamo oggi.

Il meccanicismo settecentesco era legato alla concezione di un tempo reversibile, perché i modelli che fisici e matematici avevano in mente erano modelli meccanici, ideati per descrivere eventi la cui evoluzione era caratterizzata da una informazione completa sul moto di ogni singola particella. Questo tipo di fenomeni assomiglia a un film che possa essere proiettato al contrario.

I termodinamici si occuparono invece di un altro tipo di energia, l’energia termica, che ha caratteristiche profondamente diverse.

Il secondo principio della termodinamica, constatando l’irreversibilità di molti fenomeni naturali che fino ad allora la fisica aveva ritenuto, almeno teoricamente, reversibili, sancisce la fine della visione meccanicistica del mondo e muta la visione che la Civiltà Occidentale ha del tempo. Per i termodinamici la freccia del tempo ha una sola direzione e non può essere invertita.

Così: se freno con una macchina, l’energia cinetica (ordinata) della macchina si trasforma in calore che riscalda i freni. Impossibile ritrasformare di nuovo integralmente quel calore in moto della macchina.

Una monetina che cade dall’alto di riscalda, ma riscaldandola non riesco a farla risalire.

Se buco un palloncino l’aria ne fuoriesce spontaneamente, ma è altissima l’improbabilità del fenomeno inverso.

Un essere vivente che muore è totalmente asimmetrico rispetto a un morto che torna in vita.

L’interrogarsi dei fisici sui motivi profondi di questa irreversibilità dei fenomeni nel tempo portò, con il lavoro di Boltzmann (1844 – 1906), che tentò di coniugare le scoperte dei termodinamici con il determinismo meccanicistico, a stabilire una connessione tra il calcolo delle probabilità e l’evoluzione dei fenomeni e tra la nostra percezione di “ordine” e “caos” e il secondo principio della termodinamica.

In termodinamica ci sono vari modi di concepire i concetti di ordine e caos. Nel caso della termodinamica il termine ”ordine” viene inteso come quantità di informazioni che abbiamo sulle singole parti di un sistema e sulla loro evoluzione futura (cioè per esempio possibilità di descrivere tale evoluzione con una equazione).

Come emersione di strutture complesse e differenziate all’interno del sistema.

Sappiamo intuitivamente che un sistema governato dal caso difficilmente evolve in modo spontaneo verso una maggiore complessità.

Per questo motivo riteniamo impossibile (altamente improbabile) che una scimmia, pestando a caso sui tasti di una macchina da scrivere possa compitare la Divina Commedia, o che in una caverna in cui da secoli l’acqua formi stalattiti e stalagmiti, una stalattite formi la Pietà di Michelangelo. Osserviamo, in un conduttore percorso da corrente, il moto ordinato delle cariche elettriche riscaldare una resistenza, ma riscaldando la resistenza non riteniamo possibile generare un moto ordinato di cariche nel conduttore.

Una pentola d’acqua messa sul fuoco difficilmente cristallizza in cristalli di ghiaccio, anzi, diciamo che è “impossibile” tanto bassa è la probabilità di questo evento (le molecole d’acqua dovrebbero essere “teleguidate” da un’invisibile intelligenza ed urtarsi in modo tale da diminuire la loro velocità).

Il principio d’ordine di Boltzmann fu l’ultimo e disperato tentativo di ricondurre il caos caratteristico dell’energia termica all’ordine predittivo dei modelli deterministici.

Boltzmann chiamò “macrostato” ogni stato termodinamico caratterizzato da un preciso valore di pressione, volume e temperatura (ad esmpio di un gas) e “microstato” ognuna delle disposizioni di molecole, con le loro velocità e accelerazioni, che rendevano quel macrostato possibile.

Il suo principio stabiliva che un sistema su cui non agivano influenze esterne tende sempre ad assumere come stato finale il macrostato più probabile, cioè quello che ha a disposizione più microstati per realizzarsi. Questa formulazione, pur se contestata da molti fisici, resta una delle vie più semplici per intuire il perché l’entropia tenda a crescere in un sistema chiuso.

Per meglio comprendere il principio di Boltzmann, immaginiamo una madre apprensiva che abbia un figlio che giochi a calcetto in una squadra in cui ci siano 4 giocatori con maglia nera e 4 con maglia bianca. Da lontano non distingue che il colore delle maglie e dunque la mamma potrebbe sapere dove si trova il figlio solo quando una azione ricomincia (il gioco del calcio ha delle regole che riconducono i giocatori con la maglia di uno stesso colore periodicamente nella loro metà campo). La mamma apprensiva è nella metafora il fisico che vorrebbe sapere dove si trovano le singole particelle di un gas. Sottoporre un corpo all’azione del calore equivarrebbe nella nostra metafora ad abolire ogni regola di gioco e far correre gli otto giocatori in modo totalmente casuale. Se dopo qualche tempo i corridori stanchi si fermassero trafelati come farebbe la mamma a sapere dove sta il figlio?

Bene…esiste un solo modo in cui i giocatori con la maglia nera stiano tutti da una parte e quelli con la maglia bianca dall’altra…e in quel caso la mamma sarebbe sicura della posizione del figlio.

Ci sono invece 16 modi in cui tre giocatori con la maglia bianca si fermano da una parte e tre con la maglia nera da un’altra (le 4 scelte di un giocatore bianco per le quattro scelte di un giocatore nero).

E ci sono ben 36 modi in cui i giocatori si fermano in modo che ce ne siano 2 bianchi e due neri per parte (i sei modi di sceglierne 2 dai quattro neri per i sei modi di sceglierne due dai quattro bianchi).

(In generale ci sono n.(n-1)…(n-h+1)/h!... modi di scegliere h oggetti da n dati...)

Se assumiamo una data distribuzione di colori come uno “stato termodinamico” si vede che lo stato più probabile è quello verso il quale il sistema tenderà ad evolvere spontaneamente.

Se invece di otto sparuti giocatori avessimo milioni di particelle…alcuni stati avrebbero praticamente probabilità 0, altri sarebbero vicini alla certezza.

Nel divenire che caratterizza il nostro universo questa tendenza alla crescita dell’entropia nei sistemi chiusi si traduce in una diminuzione dei dislivelli termici e in una attenuazione della differenziazione e della complessità degli stati finali. Descriviamo tutto ciò come perdita di ordine e di informazione e il secondo principio ci fa dire che l’irreversibilità dei fenomeni, la loro tendenza ad evolvere sempre verso gli stati più probabili, è destinata a condurre l’universo verso la morte termica, lo stato in cui non avvengono più trasformazioni.

Il secondo principio ha cosi modificato la nostra percezione di ciò che è “ordine”: Più probabile è uno stato, meno differenziazione c’è al suo interno, meno informazione abbiamo sulle singole trasformazioni che vi si svolgono, meno strumenti abbiamo per scorgere ordine e regolarità al suo interno.

Nel corso del XX secolo il secondo principio e il principio d’ordine sono stati estesi a tutte le situazioni in cui sia possibile attribuire una distribuzione di probabilità a un insieme finito di eventi possibili in un sistema in evoluzione. Ad esempio nella teoria della comunicazione si parla di entropia di un “messaggio” seguendo ciò che avviene nel suo passaggio dalla fonte al destinatario, ci sono state interessanti applicazioni alla applicazioni alla biologia e il tentativo di rendere conto di come mai gli esseri viventi sembrino contraddire il secondo principio, essendo caratterizzati da un enorme aumento di complessità, ha condotto Prigogine a sviluppare il concetto di “sistemi dissipativi”. Il secondo principio è stato applicato anche all’arte, all’informatica, alla chimica e alle scienze sociali.

Riassumendo, se facciamo evolvere “spontaneamente” un sistema isolato la sua entropia aumenta, dunque nel suo equilibrio finale ci sono meno differenziazioni, diminuisce la complessità della struttura del fenomeno, diminuiscono quelle simmetrie locali che ci fanno discriminare forme regolari, abbiamo meno informazioni sullo stato delle parti del sistema.

Un altro colpo all’illusione di fisici come Laplace, che un dèmone sufficientemente intelligente avrebbe potuto, conoscendo la posizione e la velocità di tutte le particelle dell’universo, predire lo svolgersi degli eventi futuri fino alla fine dei tempi, fu dato dal principio di indeterminazione di Heisenberg.

Questo principio stabilisce che non è possibile calcolare simultaneamente con assoluta precisione quali siano la velocità e la posizione di una particella elementare perché, osservandola, ne modifichiamo lo stato. Maggiore è dunque la precisione con cui ne determiniamo la velocità, maggiore sarà l’intervallo di incertezza con cui possiamo determinarne la posizione, e viceversa.

Questo principio mette in discussione la nostra concezione della realtà esterna ultima come “realtà indipendente dall’osservatore” in cui le particelle possiedano “effettivamente” una loro velocità e posizione. Dato che velocità e posizione sono impossibili da osservare simultaneamente, i fisici tendono a pensare che la realtà “ultima” sia di tipo stocastico, che si debbano immaginare i “fenomeni in se” come realtà di tipo probabilistico. In questa direzione si è evoluta la fisica quantistica e si è modificato il vecchio principio di causalità (Schroedinger ideò l’esempio di un gatto che è simultaneamente vivo o morto a seconda di come si “guardi” al prodursi di un fenomeno riguardante le particelle elementari).

Certo questo ha cambiato profondamente la nostra immagine del mondo. A queste rivoluzioni nel nostro modo di pensare la realtà si sono aggiunte quelle introdotte dalla teoria della relatività di Einstein, la relatività della simultaneità dei fenomeni per diversi osservatori, il dilatarsi e il contrarsi di spazio e tempo nel paragone tra sistemi di riferimento che siano solidali con le stelle fisse e sitemi di riferimento che accelerino e si muovano a velocità prossime a quella della luce. Nella teoria della relatività generale Einstein scoprì anche che la geometria del nostro continuum spazio – temporale non è quella euclidea, ma che la distanza più breve tra due punti può essere una linea curva, una geodetica.

Ordine e caos nella matematica

Dalla metà dell’ottocento i matematici avvertirono con sempre maggior forza la necessità di rifondare la loro disciplina su assiomi da cui fosse rigorosamente deducibile.

Questo tentativo riguardò soprattutto l’aritmetica, la geometria e la logica e molti logici e matematici dedicarono la loro vita a questo scopo. Frege, Peano, Russell, Hilbert e molti altri produssero lavori che sono pietre miliari nella storia del pensiero umano.

Tuttavia già Russell si imbattè in difficoltà che sembravano sbarrare parzialmente la strada a questo progetto: dagli assiomi derivavano paradossi, antinomie, che impedivano di considerare l’edificio logico matematico come non-contraddittorio.

La scoperta delle geometrie non euclidee da parte di Lobacewski, Bolyai, Gauss, Klein e altri aveva anche messo in luce che non esisteva necessariamente una sola scelta del sistema assiomatico da cui dedurre l’edificio della geometria e che la geometria euclidea non era l’unica possibile. Altre geometrie potevano nascere modificando o sostituendo parte degli assiomi. Un colpo mortale al progetto di creare un sistema formale completo e non contraddittorio che riguardasse la logica, l’aritmetica o la geometria fu dato negli anni 30’del novecento da Kurt Goedel. Col suo teorema stabilì che in ogni sistema formale di quel tipo nascono proposizioni antinomiche, paradossi, che possono essere risolti solo ampliando il sistema originario, e dunque creando un metalinguaggio, il quale, tuttavia, non farebbe che riproporre altre antinomie a un livello diverso di complessità. Si darebbe cosi origine ad una regressione all’infinito di “matrioske” verbali contenute una dentro l’altra, destinato a non avere mai fine. Goedel dette col suo teorema una svolta epocale al pensiero astratto e influenzò molte direttrici fondamentali della ricerca successiva. In particolare si pervenne ad una definizione rigorosa di “operazione effettivamente eseguibile”, una delle conquiste più significative della filosofia della matematica.

Un altro pensatore che ebbe un’influenza determinante sulla filosofia della matematica del ‘900 fu Wittgenstein, il quale, nel Tractatus e nelle opere successive, esplorò i confini del pensiero astratto e tentò di definire rigorosamente termini come “forma” o “struttura”, il modo in cui la forma del pensiero si lega al senso, i limiti entro i quali può operare il pensiero formale. Anche se poi Wittgenstein finì col rinnegare molte delle osservazioni del Tractatus, alcune di esse ancora delimitano le frontiere del pensiero astratto e del pensabile come paletti di confine.

Un’altra grande rivoluzione nella storia del pensiero matematico si produsse riguardo alla nozione di “modello matematico”.

Fino agli anni ’20 del novecento un modello matematico doveva ottemperare a tre condizioni fondamentali:

-

Individuare delle variabili di stato

-

Determinare una legge di evoluzione del sistema studiato che, al trascorrere del tempo, dato uno stato iniziale, ne determinasse gli stati successivi

-

Essere verificato dall’esperienza

La terza caratteristica dei modelli matematici di “vecchio tipo” si è andata sempre più indebolendo. Un modello matematico è oggi, come lo definisce il matematico Giorgio Israel “un pezzo di matematica applicato a un pezzo di realtà” e sempre più importante, agli occhi di chi crea modelli matematici, è divenuta la metafora che collega il modello a ciò che esso descrive, l’analogia e la forza descrittiva che ne derivano.

Inoltre un singolo modello può descrivere una molteplicità di situazioni reali e una situazione reale è suscettibile di essere descritta da più modelli, che aiutano a coglierne differenti “significati” nascosti, a trarne diverse “interpretazioni”.

Infine viene meno il predominio della meccanica e delle equazioni differenziali lineari nella costruzione di modelli, cioè la ricerca della regolarità e predicibilità deterministica del futuro di un fenomeno.

I modelli matematici non sono più applicati unicamente in fisica e, al più, in chimica, ma la loro massiccia applicazione si è estesa a discipline come la biologia, la sociologia, l’antropologia, la psicologia, l’economia etc. (a questo proposito, negli anni ’30 del ‘900 Morgestern e Von Neumann tentarono una matematizzazione astratta ed assiomatica dell’economia ma dovettero ammettere negli anni ’40 l’enorme difficoltà di un tentativo simile.)

Con i modelli costituiti dalle equazioni predatore – preda di Volterra Lotka e dal modello di battito del cuore di Van Der Pol cominciò a trasformarsi profondamente il concetto stesso di modello matematico.

Ancora oggi i modelli matematici oscillano tra la pura percezione di una “analogia matematica” tra il modello e il fenomeno descritto, capace di svelarne alcuni significati nascosti, come farebbe l’esegesi di un testo ermetico, e modelli meccanicistici di vecchio tipo (è il caso di molti dei modelli basati sulla costruzione di automi o riguardanti l’intelligenza artificiale).

Come spesso avviene nella storia della scienza i sistemi deterministici fondati sulle equazioni differenziali e sulla fisica-matematica vennero per lungo tempo trascurati in seguito alla formulazione della teoria della Relatività, a vantaggio di modelli di tipo geometrico. Si riscoprirono in seguito, negli anni ’60 del novecento, con le teorie del caos, alcuni studi di fisica matematica (in particolare quelli di Poincarè di inizio secolo) che si avvalevano delle equazioni differenziali non–lineari per affrontare processi di tipo non deterministico (un altro problema che sottolineava la crisi del modello deterministico e meccanicistico era stato affrontato proprio da Poincarè ed era il problema degli n corpi: se si volesse descrivere con un sistema di equazioni differenziali l’evoluzione di un sistema costituito da n corpi celesti, con n>3, la complessità del sistema sarebbe tale da non consentire la calcolabilità delle soluzioni).

Il fatto che questa matematica sia stata “riscoperta” dipende in gran parte da applicazioni a campi diversi dalla fisica (meteorologia, genetica e dinamica delle popolazioni, teoria delle epidemie, etc.)

In particolare la matematica del caos ebbe origine dagli studi di Poincarè sui sistemi deterministici. Nei casi che dettero origine alla teoria, perturbando di poco le condizioni iniziali le traiettorie seguono una legge di divergenza esponenziale producendo soluzioni radicalmente differenti. In sistemi del genere, se la conoscenza delle condizioni iniziali è incerta, la previsione appare impossibile. Tali studi vennero riprese da Lorenz negli anni ’60 a proposito delle turbolenze in meteorologia. Si constatò che una piccolissima perturbazione lontano dall’equilibrio e dalla stabilità del sistema poteva determinare conseguenze di enorme portata (il battito d’ali di una farfalla che provoca un uragano). Mentre le tendenze evolutive, le “traiettorie”, di un sistema che non si allontanano troppo dall’equilibrio finiscono col tornarvi, lontano dall’equilibrio vi sono punti di biforcazione in cui il sistema può prendere un’altra “strada evolutiva” ed evolvere rapidamente verso una morfologia radicalmente diversa.

Questi modelli e teorie si configurano come una sorta di darwinismo matematico o come una concezione neo-eraclitea del mondo: là dove le traiettorie si biforcano il sistema è “conteso” tra diverse morfologie possibili. Si tratta anche, in un certo senso, di una rivincita del determinismo laplaciano, tanto che si è parlato di “approccio deterministico alla turbolenza”, che introdurrebbe l’ordine nel caos.

Lo studio delle traiettorie dei sistemi caotici appare impossibile con i tradizionali mezzi analitici o geometrici e fin dai primi studi di Lorenz si rivela essenziale l’impiego del computer. Si abbandona inoltre ogni speranza di seguire l’evoluzione di singole traiettorie e acquista sempre maggiore importanza l’uso di metodi probabilistici (in chimica e biologia è fondamentale a questo proposito il contributo di Prigogine). Trattare i fenomeni imprevedibili in questo modo, in una struttura deterministica, significa far intervenire in qualche modo l’ordine nel caos. Fenomeni imprevedibili che avrebbero fatto “esplodere” qualsiasi modello deterministico passato possono essere ora inseriti in un quadro coerente e globale. Alcuni sostengono che tutto ciò segni una rivoluzione nella scienza moderna ancor più radicale di quella della meccanica quantistica.

L’incontro tra modelli analitici e quantitativi alla Poincarè e quelli di tipo più marcatamente geometrico (alla Enriquez), volti ad enfatizzare le trasformazioni, dette poi origine alla teoria delle catastrofi di Thom. Lo studio delle singolarità delle funzioni differenziabili a più variabili, uno studio che originariamente riguardava la sola matematica, venne utilizzato per descrivere le discontinuità di un sistema reale, la forma che assume il passaggio da una configurazione strutturalmente stabile a un’altra configurazione, anch’essa stabile. Anche al centro di questa teoria c’è l’idea di biforcazione. La teoria si propone di fornire immagini geometriche dei cambiamenti “catastrofici” e di classificarne tutti i tipi possibili. Il risultato fondamentale è il teorema che dimostra che le tipologie di catastrofe in uno spazio a quattro dimensioni (ad esempio lo spazio-tempo) sono sette. La descrizione qualitativa fornita da queste immagini geometriche è poco predittiva dal punto di vista quantitativo ma ambisce però a fornire il “significato filosofico” del fenomeno studiato, una sorta di ermeneutica della realtà. Thom intese le sue teorie come un recupero della antica filosofia naturale e come una rivalutazione dell’aristotelismo, accompagnando tutto ciò con una polemica nei confronti di una scienza intesa come mero riduzionismo e metodo sperimentale. Sostenne che la matematica fornisce modelli mentali ed immagini dei fenomeni e che, se è vero che questi modelli aiutano poco dal punto di vista quantitativo, essi sono una fonte di “comprensione ontologica”. Il pericolo di questo neoplatonismo è che, dopo aver “incollato” un pezzo di matematica su un pezzo di realtà, si utilizzino risultati matematici per trarne conclusioni ontologiche col risultato che una conoscenza del tutto soggettiva conduce a conclusioni metafisiche sull’universo.

Citiamo infine la teoria dei frattali di Mandelbrot, nella quale si fornisce un metodo per costruire modelli geometrici di oggetti alquanto irregolari (ad esempio le coste della Gran Bretagna) e una tecnica per “misurarli”, con una opportuna nozione di dimensione e misura. Questa teoria è stata applicata soprattutto alla forma dei cosiddetti “attrattori strani” della matematica del caos, a processi stocastici come i moti browniani, alla teoria degli errori, alla distribuzione delle galassie, a problemi di gerarchia e distribuzione e i modelli frattali ottenuti col computer di vari fenomeni naturali, opportunamente colorati, sono anche stati utilizzati in arte.

Il contributo a forme di determinazione quantitativa è debolissimo.

Giunti al termine di questo breve excursus attraverso la dialettica tra Ordine e Caos nella matematica e nella fisica del secolo scorso è tempo di chiederci quale sia stato il ruolo degli scienziati e se essi abbiano servito più il Re, custode dell’ordine, o il Buffone, che regna sul caos. In effetti chi si era proposto di dimostrare che l’universo è governato dal determinismo e che la matematica e la logica sono rette da un ordine assoluto, si è imbattuto nel caos e, viceversa, chi si è occupato dei fenomeni caotici vi ha introdotto l’ordine. La dialettica tra ordine e caos ci ricorda che il Buffone è il Doppio del Re e il Re è il Doppio del Buffone. Chi uccide il proprio Doppio, come avviene nel Sosia di Dostoevskij, uccide se stesso.

torna su



 Pagina Stampabile  Pagina Stampabile     Invia questo Articolo ad un Amico  Invia questo Articolo ad un Amico

 
Home :: Argomenti :: Cerca :: Galleria Immagini :: ESONET.COM English website

Esonet.it - Pagine Scelte d’Esoterismo, è un osservatorio qualificato ad analizzare i movimenti di coscienza legati alle tradizioni misteriche, mistiche e devozionali
[ Chi siamo ] - [ Disclaimer ] - [ Termini d'uso ] - [ Crediti ]

© 2005-2007 by Esonet.it Tutti i diritti riservati. La riproduzione degli articoli in www.esonet.it sarà autorizzata solo se il richiedente risulta accreditato.
Esonet non è responsabile in alcun modo per i contenuti del siti ad esso linkati. Tutti i loghi ed i marchi presenti in questo sito appartengono ai rispettivi proprietari. Immagini, loghi, contenuti e design sono © copyright by Esonet.it - Powered by
Adriano Nardi

Generazione pagina: 0.16 Secondi