3.7 Caso e  Caos

INDICE ...............................................

C: Ti volevo suggerire una riflessione riguardo alla celebre dicotomia caso-caos... Una delle più celebri definizioni di caos deterministico è: comportamento apparentemente stocastico (probabilistico) di sistemi deterministici.

S: In verità, il comportamento di tali sistemi si studia con le equazioni della fisica non lineare: per esempio con l’equazione quadratica di Verhulst o logistica.

C: Nella meccanica quantistica, così come nella teoria del caos, si fa ricorso ad invarianti statistici per la misura dell'osservatore, statistiche basata sulla probabilità, per via delle difficoltà causate da vari fattori [v. 1.3, 2.1 e ss.].

S: Nel mondo subatomico la materia o particella, localizzata, è associata ad un’onda, de-localizzata: questo spiega l’impossibilità di conoscenza esatta, secondo la quantistica, come m’insegna l’amico Paolo Manzelli.

C: In un certo senso tutti i sistemi dinamici sono indeterminati, finché non li determiniamo attraverso la misurazione, interagendo con essi.

S: Mi sembra ovvio. Per questo – cito ancora il Manzelli – che senso ha dividere cartesianamente Soggetto e Oggetto nel conoscere? Lo stesso San Tommaso, copiando Aristotele scrive: “Cognitum in Cognizione secundum Cognoscentis, con buona pace per K Popper, autore di “Conoscenza senza soggetto conoscente!”

C: E per spiegarli generiamo un mondo, che è indipendente dal loro "essere": creiamo ed usiamo concetti, grafici, disegni, rappresentazioni, forme, ecc. L'interazione soggetto-oggetto aprirebbe tutta una serie di discorsi che ora non approfondisco. Volevo restare focalizzato al concetto di "caso": anche questo è un concetto creato dall'uomo, come i concetti di scopo, causa-effetto, karma, funzione. Maturana nella sua teoria della cognizione, elaborando quindi anche l'autopoiesi come organizzazione dei sistemi viventi, sgombra completamente il campo: un sistema vivente, un sistema autopoietico, sia esso inteso come unità semplice, o come unità composita, basta a se stesso. Si autoregola, si auto-riproduce, è auto-referenziale, e non c'è bisogno di nient'altro per definirlo. Sgombra quindi il campo ponendo in un angolo il riduzionismo, le concezioni classiche, i concetti come scopo, funzione, causa-effetto. Che implicazioni ha questa cosa? Implica che anche il caso è un concetto che resta interessante a livello filosofico forse, "Uberhaupt", direbbe Kant, cioè in generale, a livello di discorsi da salotto ma credo che ai sistemi viventi, ai sistemi biologici, al corpo umano, non può interessare, non gli appartiene, non in quanto in contrapposizione con ordine, ad esempio, ma per il fatto che è un dominio concettuale che esula da essi. Non esiste proprio il problema. Usualmente si associa il termine probabilità ai termini caso, aleatorietà, fato. E' da qui che nasce la confusione concettuale. La confusione nasce perché noi misuriamo, e misuriamo con i nostri canoni, con i nostri schemi, in base alla nostra conoscenza e alle nostre rappresentazioni. La misura di probabilità è riferita ai nostri sistemi di riferimento, è un concetto relativo (vedi teoria della relatività), ed inoltre si riferisce alla misura di processi, di relazioni, di dinamiche (non è una misura atomistica). Quando si va a misurare una particella elementare, e si usa la misura di probabilità, non si mette in dubbio la sua esistenza o meno, o l'esistenza della relazione o meno: si assegna semplicemente una probabilità spazio-temporale (legate ai concetti di posizione e velocità).

S: Particella - onda, come dire che nel microcosmo localizzi la particella ma non l’altra componente. Anche nel macrocosmo, in Biologia, con il diminuire dell’Energia-Informazione (EI), (malattia) “aumenta” – mi sia permesso di dire – “la realtà locale” e abbiamo perdita di caos deterministico. Al contrario, nel sano, l’elevata EI, correlata direttamente all’Energia Vibrazionale EV (cioè ATP), spiega la presenza di realtà non-locale da me descritta per la prima volta [v.2.2 l’esperimento di Lory].

C: Quando si misura l'entropia, si fa una misura di probabilità, di incertezza, ma anche della dimensione frattalica di un sistema caotico - deterministico. La probabilità è una misura dell'incertezza, ovvero dell'informazione, perché l'entropia si può intendere come tasso di incertezza, o come tasso di informazione (qualitativa) di un sistema (informazione nulla = entropia zero = sistemi lineari).

S: Vedi sopra.

C: Ne consegue che la probabilità ha un senso qualitativo, è una proprietà che dà certezza dell'incertezza (scusa il gioco di parole). Il concetto "caso" in tutto questo non può trovare spazio. Se torniamo al caos deterministico definito come comportamento stocastico (probabilistico) di sistemi deterministici, che cosa significa quest’affermazione? Significa che si osserva un comportamento probabilistico, ma non è aleatorio (è apparentemente aleatorio, ed originato da una legge ben definita).

S: Vedi sopra.

C: Ed è dato da una legge deterministica. Non serve che ripeto cose che ben sai, le dico solo per fare mente locale, perché quel che dico e scrivo non è pronto, esce spontaneo, istantaneo, simultaneo, originale, non pre-meditato. Benché ci sia indeterminatezza, non-predicibilità, incertezza, ciò non implica che non ci sia ordine complesso, struttura, robustezza e stabilità, pur nel contesto dell'adattabilità, della flessibilità, dell'apprendimento, della sensibilità, della versatilità, ecc.

S: A ben vedere il caos deterministico è sostenuto da un Ordine Superiore a quello più noto: Nel I Vol. di Semeiotica Biofisica (3 Vol. che io non vedrò stampati) dedico un capitolo a tutti i numeri magici incontrati nelle mie ricerche [v. Appendice]

 

INDICE