domenica 31 ottobre 2010

Modello energetico cibernetico della fisica moderna


Nei primi tre decenni del secolo scorso, la concezione newtoniana del mondo cambiò per lo sviluppo della teoria della relatività e della fisica atomica.
La fisica moderna non poteva più essere basata su concetti di spazio e tempo assoluti, sul rapporto causa-effetto dei fenomeni fisici e sulla concezione ideale di descrizione oggettiva della natura.
Nel 1905 Albert Einstein pubblicò due articoli nei quali espresse due nuove linee di pensiero: la Teoria della relatività speciale e la teoria dei fenomeni atomici, in cui veniva concepita in maniera diversa la radiazione elettromagnetica.
Il concetto di armonia della natura era alla base dell’attività scientifica di Einstein che cercò, attraverso i suoi studi di fondare la fisica in modo unificato.
Egli strutturò in una teoria comune l’elettrodinamica e la meccanica, distinte nella fisica classica (Teoria della Relativita’ Speciale), modificando in maniera forte i tradizionali concetti di spazio e tempo.
Lo spazio, pertanto, non aveva più la caratteristica di tridimensionalità e non era più separato dal tempo; spazio e tempo, infatti, diventavano strettamente connessi tra loro a formare un continuum quadrimensionale, noto come “spazio-tempo”.
Lo spettatore non era più isolato dal fenomeno osservato: infatti, secondo Einstein, osservatori diversi che si muovono ognuno con velocità relative diverse, rispetto ai fenomeni osservati, li ordineranno ognuno con una differente successione temporale.
Il concetto di spazio e tempo da assoluti, quindi, diventano elementi del linguaggio utilizzati dall’osservatore per descrivere i fenomeni dal proprio punto di vista.
Modificando il carattere di assolutezza dello spazio e del tempo, agli inizi del secolo scorso, portò a cambiare tutto quanto lo schema teorico utilizzato per descrivere la natura.
La possibilità di indicare che la massa è una forma di energia, consentì di definire anche che un oggetto in quiete possiede un’energia immagazzinata nella sua massa e la relazione che esiste tra la massa e l’energia è data dall’equazione:

 

E=mc²        dove:   E= energia

                              m= massa
                              c= velocità della luce

Ogni qualvolta si considerano fenomeni fisici che comportano velocità prossime a quella della luce, ed in particolare i fenomeni elettromagnetici, si deve sempre tener conto della teoria della relatività.
Nel 1915, Einstein presentò la Teoria della Relativita’ Generale, nella quale, ampliando lo schema della teoria della relatività speciale tenne conto della gravità, cioè dell’azione che si esplica tra tutti i corpi che posseggono una massa.
La caratteristica della gravità, era, secondo Einstein, quella di “curvare” lo spazio ed il tempo; ciò significava che la geometria euclidea non era più adatta a descrivere questo spazio curvo. Tale curvatura è data dal campo gravitazionale generato dai corpi dotati di massa ed il grado di curvatura dipendeva dalla massa dell’oggetto.
Poiché, inoltre, il tempo non poteva essere separato dallo spazio, anche il tempo risultava influenzato dalla materia.
In tal modo la struttura spazio-tempo dipendeva dalla distribuzione della materia nell’universo e perdeva di significato il concetto di spazio vuoto (secondo i principi della meccanica classica, i corpi solidi si possono muovere solo nello spazio vuoto).
Se consideriamo il range delle dimensioni medie, i concetti di meccanica classica possono ancora tornare utili a motivo della difficoltà ad immaginare una realtà fisica nella quale non possano essere validi, tanto sono radicati nel nostro pensiero; ma quando superiamo le medie dimensioni, allora non ha più senso di parlare di spazio vuoto.
Nell’ambito atomico, lo studio dei fenomeni della radioattività, permise di scoprire che gli atomi delle diverse sostanze radioattive, non soltanto emettono radiazioni, ma erano anche in grado  di trasformarsi in atomi di sostanze differenti.
Considerate particelle dure e solide sin dall’antichità, gli atomi risultarono invece, attraverso gli studi di Ernest Rutherford, costituiti da una vasta regione di spazio nella quale particelle piccole come gli elettroni, si muovevano attorno al nucleo, legati ad esso da forze elettriche.
Negli studi successivi si scoprì anche che il numero degli elettroni, presenti in un atomo, ne determina le proprietà chimiche e che le interazioni tra i vari atomi danno luogo a processi chimici (vedi gli studi di Niels Bohr, Louis de Broglie, Erwin Schrödinger, Wolfang Pauli, Werner Heisenberg, Paul Dirac).
Negli studi eseguiti durante gli esperimenti atomici, interrogando la natura, questa rispondeva mostrando un paradosso: soltanto dopo molto tempo i fisici accettarono che tali paradossi fanno parte della struttura stessa della fisica atomica e compaiono ogniqualvolta si tenta di descrivere i fenomeni che interessano l’ordine di grandezza diverso da quello delle medie dimensioni.
A questo proposito si apre un altro problema che interessa la metodologia della ricerca scientifica: proprio per evitare la comparsa di questi paradossi, si pongono le questioni in modo tale che la risposta sia già conosciuta e risulti esclusa dall’ambito dei paradossi, oppure viene modificato il sistema in modo tale da rendere razionale ed accettabile quello che prima era un paradosso.
In relazione agli esperimenti di Rutherford, gli atomi si comportavano come grandi regioni di spazio nelle quali si muovevano particelle incredibilmente piccole, anziché essere gli oggetti solidi della fisica classica.
Le stesse parti subatomiche presentavano, inoltre un carattere “ambiguo”, duale e si comportavano come particelle o come onde elettromagnetiche, a seconda di come venivano osservate e come faceva la luce.
La contraddizione che un’entità, quale la particella possa essere confinata in un volume molto piccolo e l’onda che invece si estende per un ampio spazio, ha dato origine ai paradossi definiti Koan[1] nella letteratura zen e che si conclusero con la formulazione della teoria dei quanti.
I “pacchetti di energia” di Max Plank, che identificarono l’emissione della radiazione termica non in maniera continua, vennero chiamati “quanti di luce” da Einstein e in seguito accettati come particelle ed attualmente definiti ”fotoni”, particelle speciali, prive di massa e sempre in movimento alla velocità della luce.
La contraddizione tra l’aspetto corpuscolare ed ondulatorio mise in discussione il fondamento della concezione meccanicistica della realtà.
La materia, infatti, non si trova in luoghi precisi, se considerata a livello subatomico, ma mostra una “tendenza a trovarsi” in un certo luogo ed, allo stesso tempo, gli eventi mostrano una “tendenza ad avvenire”. Tali tendenze sono espresse come probabilità e sono associate a quantità matematiche che assumono la forma di onde: per questo motivo le particelle tendono ad essere allo stesso tempo “onde di probabilità”, legate all’eventualità di trovare le particelle in punti particolari dello spazio, in particolari istanti di tempo.
La certezza di prevedere un evento atomico è sostituita da quanto probabilmente l’evento possa accadere.
A livello subatomico gli oggetti solidi della fisica classica diventano non onde di probabilità di cose, ma probabilità di interconnessioni.
La meccanica quantistica mostra, pertanto, una fondamentale unità dell’Universo, in cui non esiste una parte isolata, ma ogni cosa è relazionata con le diverse parti del tutto, includendo l’osservatore come parte essenziale. [2]
Le proprietà di qualsiasi oggetto atomico, sono condizionate dalla relazione con l’osservatore; la descrizione oggettiva della natura, secondo l’ideale classico, non è più possibile, in quanto nella fisica atomica si può parlare di natura, solo parlando contemporaneamente di noi stessi.
Altra caratteristica osservata dell’atomo è la sua grande stabilità meccanica.
La configurazione elettronica di un atomo, infatti, rimane la stessa, indipendentemente dalla frequenza di collisione con altri atomi.
Quando la particella è confinata in un piccolo spazio, la sua velocità di movimento è inversamente proporzionale allo spazio che ha a disposizione: la notevole velocità fa sì che l’atomo appaia come sfera rigida e la difficoltà a comprimere ulteriormente gli atomi, conferisce alla materia l’aspetto solido che siamo abituati ad osservare.
Le orbite atomiche sono rappresentate da onde di probabilità disposte in orbite diverse, non da particelle che ruotano intorno ad un nucleo, alla stregua di un sistema planetario microscopico.
Le onde elettroniche sono disposte in modo che combacino alle estremità, tanto da formare figure dette “onde stazionarie”, onde che si configurano quando si manifestano in uno spazio confinato.
Nel caso dell’atomo, ciò sta significare che possono esistere soltanto un certo numero di orbite con determinati diametri e non in posizioni intermedie, trovandosi in condizioni normali sempre nell’orbita più bassa, detto “stato fondamentale” dell’atomo.
Se l’atomo riceve una quantità di energia sufficiente, può saltare in un’orbita più alta (“stato eccitato”): da questo stato tornerà a quello fondamentale dopo qualche istante, cedendo l’energia eccedente sotto forma di quanto di radiazione elettromagnetica o fotone.
Tutti gli atomi con lo stesso numero di elettroni sono assolutamente identici: possono trovarsi in stati eccitati differenti, ma subito dopo torneranno  all’identico stato fondamentale.
L’elettrone, inoltre, non cambia continuamente la propria rotazione, ma salta da un’orbita all’altra.
La forza che lega il nucleo atomico dotato di carica positiva e le onde elettroniche caricate negativamente, offre l’enorme varietà di strutture e fenomeni che osserviamo nella nostra realtà.
Il nucleo che assume il ruolo di centro stabile, è sorgente della forza elettrica e forma l’intelaiatura delle diverse strutture molecolari.
La comprensione della struttura del nucleo fu fatta negli anni 30, con la scoperta del neutrone, privo di carica elettrica con massa uguale a quella del protone, altra particella costituente il nucleo, avente una massa all’incirca duemila volte quella di un elettrone.
Tutta la massa dell’atomo è contenuta nel nucleo, centomila volte più piccolo dell’atomo stesso: la materia nel nucleo è estremamente densa rispetto alla materia così come normalmente è intesa. I neutroni e protoni insieme costituiscono i “nucleoni” che oltre ad essere di elevata densità, reagiscono al loro sconfinamento movendosi velocemente e, poiché sono costretti in un volume piccolo, mostrano una reazione più violenta: nel nucleo scorrono ad un velocità di circa 60.000 Km/sec.
La forza nucleare agisce solo quando diminuisce la distanza tra due nucleoni, cioè quando questo intervallo è di 2-3 volte il loro diametro: a questa distanza la forza nucleare è di tipo attrattivo, ma diminuendo tale distanza, diventa repulsiva, tanto che i nucleoni non possono avvicinarsi più di tanto. Per tale motivo la forza nucleare mantiene il nucleo in un equilibrio stabile, ma dinamico.
L’immagine della materia che ne deriva, è raffigurata da minuscole gocce separate da enormi distanze in cui si muovono velocemente gli elettroni, dando alla materia l’aspetto solido e realizzando così i legami molecolari; inoltre sono responsabili delle reazioni chimiche  e delle proprietà chimiche della materia.
Ciononostante, la materia come è conosciuta attraverso i sensi, esiste solo in condizioni particolari, quando la temperatura non è troppo alta e le molecole non oscillano tanto velocemente.
Aumentando la temperatura, aumenta l’energia termica e vengono distrutte sia le strutture molecolari, sia quelle atomiche.
Ulteriori sviluppi della fisica moderna e risalenti agli anni 30, mostrarono che la nozione di “particella elementare”, intesa come unità fondamentale della materia dovesse essere modificata, in quanto furono scoperte altre particelle, crescendo da tre a sei nel 35, fino a 18 nel 55 e a tutt’oggi se ne conoscono più di duecento, dimostrando che la specifica di “elementare” debba essere sostituita.
Una teoria fisica completa che descriva la realtà nucleare non solo deve contenere concetti quantistici, ma tenere conto anche della relatività, dato che le particelle confinate negli spazi piccoli degli elettroni si muovono a velocità vicina a quelle della luce.
Esistono numerosi modelli <quantistico-relativistici>, che descrivono gli aspetti del mondo delle particelle, ma la fusione delle due teorie in una sola è la ricerca della fisica moderna.
Se nella fisica classica l’idea di materia era legata all’indistruttibilità, la teoria della relatività ha dimostrato che la massa è una forma di energia: ciò sta a significare che la particella non può essere considerata in maniera statica, ma va interpretata come una configurazione dinamica.
Paul Dirac, indicando un’equazione relativistica in grado di interpretare il comportamento degli elettroni, non solo spiegò la fine struttura dell’atomo, ma riuscì a rivelare una simmetria tra materia ed antimateria, intuendo che esistesse un antielettrone con la stessa massa dell’elettrone, ma con carica opposta, ora chiamata positrone e scoperta dopo due anni la previsione di Dirac.
Quando l’energia a disposizione è sufficiente, si possono creare coppie di particelle ed antiparticelle, che a loro volta si trasformano in energia pura nel processo inverso di annichilazione.
Se due particelle si urtano con energie elevate, solitamente si frantumano in parti che non sono più piccole delle particelle originarie ed il problema della divisibilità della materia, viene risolto in modo inaspettato, in quanto l’unica occasione di dividere ulteriormente le particelle subatomiche è quello di farle interagire in processi d’urto ad elevata energia: dividendo sempre di più la materia, pertanto, non si ottengono pezzi più piccoli, dato che si creano particelle a spese dell’energia coinvolta nel processo (Principio di conservazione dell’energia).
Le particelle subatomiche diventano allora distruttibili ed indistruttibili contemporaneamente ed il paradosso scompare solo quando si osserva la materia da un punto di vista relativistico e dinamico.
Tutte le particelle possono essere trasformate in altre particelle, possono essere create attraverso l’energia e trasformarsi in energia, mostrando che la singola particella non può essere intesa isolandola dal suo contesto, ma risulta parte integrata del tutto.
Nella fisica moderna l’Universo risulta dinamico, sempre legato all’osservatore, ed i concetti di spazio e di tempo, di causa e di effetto non possono più essere separati tra loro.[3]
Una delle teorie che descrive l’interazione energia – materia, a livello nucleare, è la teoria della “cromodinamica quantica”, che identifica nel quark, quantuum di energia, con una dinamica di tipo rotatoria, che si muove ad una velocità di rotazione che caratterizza la frequenza elettromagnetica del nucleo, e sviluppa, a partire dal centro, un sistema di onde curvilinee, simili alla forma delle galassie; al centro di questo sistema, esiste un vacuum che determina una fluttuazione dell’energia stessa. (Vedi concetti di vuoto/pieno della Medicina Tradizionale Cinese), l’elemento costitutivo della materia.
Il legame tra i vari quark è dato dal gluone. Quark e gluoni hanno anche una caratteristica propria di colore, di tre valori diversi, “blu”, “rosso” e “verde”[4].  
I nucleoni (protoni e neutroni), inoltre, sono costituiti da tre quark ed il passaggio dall’energia alla materia, è determinato dalla loro disposizione.
Ogni quark possiede una direzione di velocità che può essere oraria ed antioraria. Questa caratteristica definisce la differenziazione tra particella ed antiparticella: due quark che hanno la stessa direzione di rotazione si respingono, mentre la presenza di due quark a direzione opposta, quark ed antiquark, si attraggono e formano una nuova struttura definita mesone.
Il mesone, caratterizzato da poca stabilità, tende a cambiare velocemente il proprio stato, e distruggendosi, forma una nuova struttura, oppure si stabilizza con l’aggiunta di un altro quark, per formare il protone ed il neutrone, che differiscono tra loro per la disposizione e la direzione di rotazione dei quark.
Protone ed elettrone, descritti meglio dalla teoria del modello non relativistico, per poter essere uniti tra loro, devono avere una struttura energetica inversa. Quindi, oltre a differenziarsi per il tipo di legame tra i tre quark che costituiscono sia il protone, sia il neutrone, si distinguono anche per una differenza di carica, positiva per il protone, neutra per il neutrone.
Ogni protone, pertanto, mostra una disposizione cromatica dei quark costituenti caratteristica: il quark blu è disposto in basso, mentre il verde ed il rosso sono posti in alto, mentre nel neutrone, il quark rosso è messo in alto e quelli blu e rossi sono localizzati in basso.
Ciascun quark è legato agli altri cinque del nucleo (positrone e neutrone), determinando una struttura esagonale, dotata di grande stabilità.
Ogni colore corrisponde ad una velocità di vibrazione (voto-pieno) diversa: quello blu si muove ad una velocità maggiore di quello rosso e, essendo la velocità di rotazione proporzionale alla forza gravitazionale, il quark blu mostra al suo centro, anche una forza di attrazione più potente.
Il quark blu riesce anche a trattenere un elettrone, determinando la carica elettrica del protone, mentre il neutrone non è in grado di trattenere l’elettrone, rimanendo, perciò, elettricamente neutro.
Protone e neutrone, a loro volta, sono tenuti insieme dalle linee di forza determinate dal centro di rotazione: la loro unione si sintetizza con la creazione del nucleo, mentre le linee di forza che nascono tra i protoni ed i neutroni (nucleoni), sono le orbite degli elettroni.
Lo stesso elettrone è un quantuum energetico spinto nell’orbita, con un movimento di rotazione autonomo (spin), determinando anch’esso delle linee di forza, considerate base della forza elettromagnetica.
L’elettrone, da un punto di vista energetico è simile al quark, con due movimenti di tipo perpendicolare tra loro, uno attorno a se stesso (spin), l’altro lungo le linee di forza generate dal movimento di rotazione dei quark nel nucleo.
L’energia allo stato puro, si trova nelle condizioni di rotazione continua e, finché è considerata nella sua individualità non è percepibile attraverso i sensi. Quando, invece, si relaziona con un’altra struttura simile, ma con una direzione di rotazione contraria, allora si verifica un abbassamento della loro frequenza di vibrazione, per effetto del fenomeno d’interferenza ed essendo uno stato poco stabile, oscilla tra la condizione energetica e quella materiale, osservabile; quando, invece, aggiungendosi una terza struttura simile, con movimento di rotazione specifico del neutrone o del protone, allora si uniranno a formare un nucleo, che con l’insieme degli elettroni sulle linee di forza del protone si determina la formazione di un atomo, elemento costitutivo della materia. 


[1] Koan, dal taoismo cinese al buddismo zen, il termine è utilizzato per indicare i rompicapo che, apparentemente privi di senso, sono scelti dai maestri Zen, per comunicare il loro insegnamento. L’impossibilità di comunicare la realtà attraverso un linguaggio è superata introducendo un linguaggio di tipo fattuale. Attraverso il Koan, il maestro punta direttamente alla verità, evidenziando i paradossi del pensiero. Il Koan tende a bloccare il processo di pensiero e rende l’allievo pronto per l’esperienza mistica, la comprensione e l’illuminazione.
[2] Capra, F.: op.cit.: pagg. 80-82.
[3] Capra, F.: op. cit.: pagg. 83-98.
[4] Butto, Nader: Il settimo senso. Un nuovo e rivoluzionario approccio terapeutico. Edizioni Mediterranee, Roma, 2001, pagg. 62-100.

sabato 30 ottobre 2010

Modello materiale meccanicistico della fisica newtoniana

La  concezione del mondo e della materia è stata di tipo organicistico fino al 1500: le persone erano inserite in comunità compatte, sperimentavano la natura in relazione alla corrispondenza tra fenomeni spirituali e materiali, le necessità dell’individuo erano correlate a quelle della comunità.
Fino ad allora due autorità avevano offerto il contesto per questa visione organica: Aristotele e la Chiesa.
Per Aristotele, infatti, l’approccio alla realtà non era soltanto di tipo quantitativo, ma di tipo qualitativo: l’intero non veniva considerato e rappresentato come la somma delle singole parti, ma tutte le cose venivano concepite in funzione di uno o più principi primi da cui derivavano.
L’aspirazione del filosofo era di “conoscere tutte le cose per quanto è possibile”, conoscere il principio primo dal quale tutte le cose dipendono, sono sorrette ed al quale tendono.
In questo contesto, filosofia e scienza, comunemente intesa, si trovano in posizioni antitetiche, dal momento che la scienza ha come oggetto di indagine solo una specifica parte della realtà.
In Metafisica IV, 1, Aristotele indica che una sola scienza considera l’essere in quanto tale e le proprietà che ad esso sono competenti; nessun’altra scienza particolare si può identificare con la metafisica perché nessuna di esse si occupa dell’essere in quanto universale, ma solo dopo averne circoscritto una parte, ne studia le caratteristiche.
La contemplazione di tutto il tempo, di tutto l’essere” veniva suggerita da Platone nel testo Repubblica VI, 486 A.
Quando ci si occupa della della definizione di realtà, bisogna quindi definire anche l’ambito della <metafisica>, dal momento che esiste la necessità di definire ciò che si intende per realtà: essa può essere riferita non solo a ciò che pensiamo la realtà delle cose  in sé, oggettiva, ma può riferirsi anche ad una realtà soggettiva, di come le cose vengono osservate dal soggetto, ma realtà possono essere anche gli enti che non appartengono al soggetto o all’oggetto, ma li trascendono, sono concetti universali che appartengono all’ambito trascendentale.
<Metafisica> termine inteso in riferimento al titolo dell’opera più famosa di Aristotele, indicava i libri di filosofia che venivano dopo quelli di fisica.
In realtà il significato del termine dipende da come si intende <meta>, che in greco sta a significare sia dopo, sia oltre, al di sopra.
Intendendo il significato dopo, metafisica indica la scienza che a causa della debolezza dello spirito umano, in base al nostro modo di conoscere, viene dopo la fisica, poiché prima conosciamo le realtà fisiche, conoscibili attraverso i sensi e dopo, le realtà prime, quelle perfette per definizione.
Se si assume il secondo significato, quello di oltre, allora la metafisica indica la conoscenza di tutte le cose che sono oltre le realtà fisiche, conoscibili attraverso i sensi e, pertanto, trascendenti.
Tra l’essere esisente  perché conoscibile attraverso i sensi, Platone riuscì ad arricchire questo concetto di essere, tipico del pensiero di Parmenide che negava al non-essere qualsiasi possibilità di essere concepito ed espresso, intendendolo come “diverso”.
Con l’introduzione del concetto di “diverso”, Platone concepisce la struttura della pluralità che dall’Uno fa derivare l’essere, concetto ripreso poi dal pensiero cristiano, mentre per Aristotele l’essere era originario e l’Uno deriva dall’essere.
Platone, infatti, passando dal <sensibile> al <soprasensibile>, riuscì a superare la contraddizione che nasce quando il sé conoscibile attraverso i sensi e fisico non è in grado di spiegare il sé medesimo: le cause fisiche, meccaniche diventano, allora delle concause, e le vere cause diventano allora di tipo sovrasensibile ed intelligibile.
Rifiutare il non-essere, ciò che esiste al di là di quel che viene conosciuto attraverso i sensi, in questo contesto, porta ad essere costretti a giustificare la non accettazione ed essere condizionati dialetticamente in maniera determinata. [1]
San Tommaso, riuscì nel XIII secolo a combinare il sistema della natura di Aristotele, la teologia e l’etica cristiana, attraverso concetti rimasti  indiscussi per tutto il Medioevo: la ragione e la fede avevano come obiettivo quello di capire e descrivere il significato delle cose, piuttosto che studiare i sistemi di previsione e controllo che fanno parte della fisica moderna.
Nel 1500 e nel 1600, la concezione dell’Universo da organico e spirituale, venne sostituita da quella del mondo inteso come macchina, per le scoperte ed i cambiamenti di paradigmi sia nella fisica che nell’astronomia e culminate con le teorie pubblicate da Copernico, Galileo e Newton.
Il nuovo metodo di ricerca, introdotto e sostenuto da Bacone, implicò anche la descrizione matematica della natura e la sua visione analitica venne ripresa ed arricchita  da Descartes.
Copernico, dal canto suo, riuscì a rivoluzionare la concezione tolemaica, geocentrica della natura, promossa dalla Chiesa e ritenuta valida per più di un millennio: l’uomo si trovò a perdere la sua posizione centrale all’interno della creazione divina.
 Per evitare turbamenti nelle coscienze religiose, egli ritardò la pubblicazione della sua opera nel 1543, anno della sua morte, presentando la visione eliocentrica soltanto come un’ipotesi.
Keplero, scienziato e mistico, attraverso la ricerca delle armonie nelle sfere e tramite le sue leggi, sostenne il sistema copernicano, ma spettò a Galileo, la dimostrazione dell’ipotesi copernicana come teoria scientifica valida, attraverso i suoi studi dei corpi in caduta libera e l’osservazione del cielo attraverso i suoi telescopi.
Galileo, infatti, fu  il primo a collegare sperimentazione scientifica e calcoli matematici, con lo scopo di formulare le leggi della natura.
La filosofia è scritta in un grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l’universo), ma non si può intendere se prima non s’impara a intender la lingua, e conoscer i caratteri, né quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, ed altre figure geometriche”.[2]
Se da un lato Galileo escludendo le proiezioni mentali soggettive riuscì a quantificare e misurare le proprietà dei corpi materiali, limitando l’osservazione sulle proprietà quantificabili della materia, quali colore, suono, sapore, odore, fece, però, sparire tutti i parametri che riguardano l’esperienza (soggettiva) della conoscenza della natura.
Bacone, introducendo il metodo empirico – compiere esperimenti, trarre le conclusioni e verificarle in altri esperimenti -, influenzò enormemente il mondo scientifico soprattutto attraverso l’energica difesa delle sue osservazioni: la conoscenza della scienza doveva pertanto essere utilizzata per dominare e controllare la natura.
La sua concezione di natura come donna, alla quale debbano essere strappati i segreti attraverso dispositivi meccanici, metteva in evidenza le sue conoscenze delle metafore usate nei tribunali (in quanto ministro della Giustizia durante il regno di Giacomo I) e la diffusione dei sistemi di tortura alle donne accusate nei processi per stregoneria nel ‘600.
La scienza di Bacone e l’ulteriore cambiamento nel modo di vedere ed interpretare la natura subirono un ulteriore cambiamento attraverso il pensiero di Descartes e di Newton.
Il pensiero di Cartesio fu costruito su un nuovo sistema che teneva conto della fiducia, promossa dal progresso scientifico, che l’uomo aveva trovato in se stesso.
A ventitré anni egli concepì un metodo che gli consentiva di costruire una “scienza completa della natura su cui fosse possibile avere una certezza assoluta; una scienza fondata, come la matematica, su primi principi di per sé evidenti”.[3]
La sua certezza era basata sulla convinzione che fosse stato Dio ad indicargli la missione nella vita, suffragata da un sogno straordinario, la notte seguente a questa illuminazione.
Descartes intendeva cercare la verità in tutti i campi del sapere: “Tutta la scienza è conoscenza certa, evidente. (…) Noi rifiutiamo ogni conoscenza che sia soltanto probabile e giudichiamo che si dovrebbero credere solo quelle cose che sono perfettamente note e sulle quali non può sussistere alcun dubbio”.[4]
La certezza della conoscenza assoluta proposta da Descartes, si è dimostrata non possibile ed attuabile attraverso le conoscenze della fisica nel XX secolo.
Pensare che il metodo scientifico sia l’unico modo per conoscere il mondo che ci circonda, significa fare scientismo e non scienza intesa come conoscenza.
Pensare che la matematica offra il sistema per conoscere la natura, ha consentito a Cartesio di introdurre i concetti di geometria analitica, attraverso la relazione tra rapporti numerici e figure geometriche e gli ha permesso di giungere alla scienza partendo dalla filosofia.
La ricerca della verità appariva già dai titoli della sua opera: Discorso sul metodo per ben condurre la propria ragione e cercare la verità nelle scienze (Discours de la méthode puor bien conduire sa raion et chercher la vérité dans les sciences).
La constatazione del poter dubitare su tutto tranne che sulla propria esistenza come pensatore (Cogito, ergo sum), lo portò a dedurre che l’essenza della natura umana risiede nel pensiero e che tutte le cose, perchè concepite in maniera chiara sono vere.
La stessa intuizione, ritenuta come “concezione della mente pura e attenta”, e la deduzione necessaria, sono le vie per giungere alla conoscenza certa.
Intuizione e deduzione erano gli strumenti utilizzati per conoscere la verità nella natura.
Il metodo analitico dello scomporre pensieri e problemi in frammenti ricomposti poi in ordine logico, è un grande contributo offerto alla scienza. La stessa frammentazione, però, nel corso dei secoli è stata responsabile del riduzionismo nel pensiero scientifico, con il ritenere che ogni fenomeno complesso possa essere scomposto semplicemente nelle parti che lo costituiscono
L’analisi così condotta portò Descartes a separare la mente dalla materia, sostenendo che “nel concetto di corpo non è incluso nulla che appartenga all’anima; e nulla in quello di anima che appartenga al corpo”.[5]
Separando il concetto di anima da quello di materia Cartesio ha allontanato la medicina dalle considerazioni psicologiche della malattia, ha scollegato la mente dal cervello e l’unico punto di contatto tra la res cogitans e la res extensa era, per lui rappresentato dalla ghiandola pineale, dove collocava l’anima razionale.
Per Cartesio, materia e spirito avevano Dio come solo riferimento comune, essendo “la fonte dell’ordine naturale esatto e della luce della ragione che consentiva alla mente umana di riconoscere tale ordine[6]; era essenziale l’esistenza di Dio, ma l’universo era considerato soltanto una macchina: nella materia non c’era né vita, né spiritualità.
Nei secoli successivi nel contesto delle scoperte scientifiche, ogni riferimento esplicito a Dio venne tralasciato e, mentre la res cogitans divenne oggetto delle discipline umanistiche, la res extensa fu oggetto di studio della scienza.
La natura venne poi capita e spiegata attraverso le leggi meccaniche e tutta la materia studiata e descritta nelle sue parti.

Per tutto il periodo successivo a Cartesio, fino al XX sec., il pensiero scientifico venne influenzato dal paradigma rappresentato dalla concezione meccanicistica della natura.

Attraverso la meccanicizzazione del pensiero scientifico, tutti i valori etici e culturali cambiarono: essendo l’universo un sistema meccanico, tutta la Natura poteva essere manipolata e sfruttata. Riprendendo il pensiero di Bacone, la conoscenza scientifica poteva essere utilizzata per “rendere noi stessi padroni e possessori della natura”.[7]
Biologi, fisici, psicologi negli ultimi trecento anni hanno condotto i propri studi derivandoli dalla descrizione cartesiana dei meccanismi che sono alla base di tutti gli organismi viventi, limitando, così, la direzione della ricerca scientifica.
Se gli organismi sono considerati come macchine, vengono anche utilizzati come tali: la conseguenza di questo riduzionismo si è manifestata anche nella medicina, la quale ha considerato e considera tuttora la malattia come difettoso funzionamento di una parte dell’uomo.
Non si può negare, d’altro canto, l’importanza del pensiero cartesiano per l’aver definito un metodo che, a livello razionale, mostra una notevole chiarezza.
Cartesio stesso delineò la teoria sui fenomeni naturali, ma il completamento della Rivoluzione scientifica fu completato da Newton.
La concezione classica del mondo, trasformata poi dalla fisica moderna, fu costruita infatti, sul modello meccanicistico newtoniano dell’Universo. Tali principi riuscirono a sostenere in maniera eccezionale tutta la scienza e per circa tre secoli diede le basi alla filosofia naturale.
Lo spazio in cui avvenivano tutti i fenomeni fisici, era lo spazio tridimensionale della geometria euclidea, caratterizzato dall’essere assoluto, immobile, immutabile. Tutti i cambiamenti che si verificavano nel mondo fisico, erano descritti in relazione ad una dimensione separata, il tempo, anch’essa assoluta, che non aveva legami con il mondo materiale e fluiva in maniera uniforme dal passato al futuro, attraverso il presente.
Gli elementi che si muovevano in questo spazio, trattati nelle equazioni matematiche come “punti materiali” erano, da Newton, considerati oggetti piccoli, solidi e indistruttibili, simili, come modello a quello degli atomisti greci.
Esisteva una distinzione tra pieno e vuoto, tra materia e spazio, ma in entrambi i modelli le particelle erano sempre identiche a se stesse in massa e forma.
La materia era sempre considerata conservata ed era definita inerte. Il modello di Newton si distingueva da quello di Democrito, perché il primo conteneva la descrizione della forza che agisce tra le particelle materiali, che era posta in relazione alla massa ed alla distanza reciproca tra le particelle. [8]
Questa forza (forza di gravità) era connessa ai corpi sui quali agiva e la sua azione si manifestava istantaneamente, a qualsiasi distanza.
Inoltre, poiché queste particelle e le forze che si esplicavano erano create da Dio, non potevano, per Newton, essere indagate ulteriormente.
Mi sembra probabile che Dio al principio abbia creato la materia sotto forma di particelle solide, compatte, dure, impermeabili e mobili, dotate di tali dimensioni e forme, di tali proprietà e di tali proporzioni rispetto allo spazio, da essere le più adatte per il fine per il quale egli le aveva create; e che queste particelle originarie, essendo solide, siano incomparabilmente più dure di qualsiasi corpo poroso da esse composto; anzi tanto perfettamente dure, da non poter mai consumarsi o infrangersi: nessuna forza comune essendo in grado di dividere ciò che Dio, al momento della creazione, ha fatto uno”.[9]
Per esprimere in forma matematica i concetti riguardanti l’effetto della forza gravitazionale, Newton fu costretto ad inventare concetti e tecniche matematiche nuove (concetti e tecniche del calcolo differenziale).
Le equazioni relative al moto dei corpi, poste alla base della Meccanica Classica, sono considerate leggi immutabili e capaci di spiegare tutti i mutamenti osservabili nel mondo fisico.
Dio, quindi, secondo Newton creò le particelle materiali, le forze che agiscono tra loro e le leggi fondamentali del moto: in tal modo l’Universo, supposto in movimento e regolato da leggi immutabili, ha continuato e continua a funzionare.[10] 
Il concepire la natura in relazione ad un determinismo rigoroso era basato sulla distinzione, introdotta da Cartesio, tra l’Io ed il mondo; conseguentemente, il mondo poteva essere descritto oggettivamente, senza considerare l’osservatore umano. La descrizione oggettiva, così presentata, fu considerata l’ideale della scienza.
Applicando le sue teorie al moto dei pianeti, Newton riuscì a spiegare le caratteristiche del sistema solare. Nonostante la semplificazione del modello, per spiegare alcuni problemi, sosteneva che Dio fosse sempre presente per risolvere tali irregolarità.
Nei periodi successivi la meccanica newtoniana fu applicata al moto continuo dei fluidi, alla vibrazione dei corpi elastici, alla teoria del calore, considerato energia associata al moto di “agitazione” delle molecole (trasformazione dell’acqua da uno stato all’altro, attraverso il calore, direttamente proporzionale all’accelerazione del movimento delle particelle – liquido, vapore, ghiaccio).

All’inizio dell’Ottocento, l’universo era, quindi, considerato come un sistema meccanico funzionante in base alle leggi del moto di Newton.

Ma all’inizio del secolo scorso, nel campo d’indagine della fisica si cominciò a cambiare sia il modo di osservare la natura, sia il modo di formulare le teorie scientifiche.

La nuova fisica, mise in luce i limiti del modello newtoniano, mostrando come la validità assoluta era impossibile per tutti i suoi aspetti.
Lo studio dei fenomeni elettrici e magnetici, infatti, non poteva essere descritto attraverso le leggi di Newton, in quanto necessitavano dell’introduzione di un nuovo tipo di forza.
Michael Faraday, attraverso la produzione di una corrente elettrica, ottenuta movendo una calamita vicino ad una bobina di rame, riuscì a trasformare il lavoro meccanico necessario per muovere la calamita in energia elettrica; questo esperimento ed i successivi studi  teorici  realizzati insieme a Clerk Maxwell, consentirono di spingersi oltre la fisica newtoniana sostituendo il concetto di forza con quello di campo di forze.
In contrapposizione al concetto di attrazione tre due cariche di segno opposto, come avviene tra due masse nella meccanica newtoniana, Faraday e Maxwell introdussero il principio che ogni carica crea, nello spazio circostante, una “perturbazione” tale che un’altra carica, se presente, ne avverte la forza.
Lo spazio in grado di produrre una forza, venne definito campo, generato da una singola carica ed è esistente indipendentemente dalla presenza o assenza di un’altra carica che ne avverte l’effetto.
La forza newtoniana era legata in maniera rigida al corpo sul quale agiva; il campo, invece, aveva una propria realtà e poteva essere studiato senza riferimenti ai corpi materiali.
L’acme di questa teoria elettrodinamica, fu la possibilità di spiegare che la luce era un campo magnetico rapidamente alternante che si muove nello spazio sotto forma di onda.
Cambiando la frequenza di oscillazione, cambia l’aspetto del campo e si tratta di onde elettromagnetiche le onde radio, i raggi X, le onde luminose.
Lo stesso Maxwell cercò di spiegare i campi come stati di tensione meccanica in un mezzo leggero, definito etere, che riempiva lo spazio; le onde elettromagnetiche erano onde elastiche che si muovevano in questo etere.
All’inizio del secolo scorso i fisici potevano spiegare fenomeni diversi attraverso la meccanica di Newton e l’introduzione dei concetti di elettrodinamica da parte Maxwell, rendevano il modello newtoniano non più base di tutta la fisica.[11]





[1] Reale, G.: Filosofia antica, Ed. Jaca Book, 1996, pagg. 11-27.
[2] Galilei, G.: Il Saggiatore, a cura di Libero Sosio, Feltrinelli, Milano, 1965, nuova ed. 1979, pag. 38; Ed. Naz. delle Opere di Galileo, vol. VI, pag. 261.
[3] Capra, F.: Il punto di svolta. Scienza, società e cultura emergente. Universale Economica Feltrinelli, G. Feltrinelli Editore, Milano, 1996, pag. 50.
[4] Cit. in Garber, Daniel: Science and Certainty in Descartes, in Descartes. A cura di Michael Hooker, Johns Hopkins University Press, Baltimore, 1978.
[5] Cit. in Sommers, Fred: Dualism in Descartes: The logical Ground, in Descartes. A cura di Michael Hooker, Johns Hopkins University press, Baltimore, 1978.
[6] Capra, F.: op cit., pag. 53.
[7]Randall, John Herman: The Making of Modern Mind, Columbia University Press, New York, 1976, pag. 263.
[8] Capra, F.: Il Tao della fisica. Ed. gli Adelphi, Milano, marzo 1993, pagg. 64-65.
[9] Newton, I.: Scritti di ottica, a cura di A. Pala, libro 3, parte I, questione 31, UTET, Torino 1978, pag. 600.
[10] Capra, F.: op.cit., pagg. 66-67.
[11] Capra, F.: op.cit., pagg. 71-73.

venerdì 29 ottobre 2010

Epistemologia della Omeopatia Elettronica



L’Omeopatia elettronica, realizzabile attraverso l’utilizzo di apparecchiature biomedicali, quali il MORA-Super+ consente, quindi, di poter metter in pratica i concetti diagnostici e terapeutici della medicina di biorisonanza.
Questa metodica ha già una storia più che ventennale e la sua efficacia è dimostrabile a condizioni che ne venga fatto un uso adeguato.
L’utilizzo di questo tipo di apparecchiature non rende necessario, se non in casi specifici(portatori di pace-maker, di grandi protesi metalliche, donne in gravidanza o preparazione solo in fiala), l’utilizzo di fiale test, presenti nel software del computer come informazione elettromagnetica, specificamente micromagnetica.
Per comprendere come può funzionare una tale metodologia occorre fare delle premesse non solo di carattere tecnico, ma soprattutto di tipo filosofico e scientifico: può apparire non chiaro il meccanismo attraverso cui una macchina possa interferire con lo stato di salute/malattia del paziente.
Purtroppo ancora oggi, e sempre con maggiore enfasi, prevale il concetto di corpo considerato come una sorta di macchina biochimica, in funzionamento soltanto perché si verificano  reazioni biochimiche.
In realtà, già negli anni 30 Gustav, nel suo libro “The soul of the Universe” avanzava una tesi in cui la struttura e lo sviluppo degli organismi si basano su “sistemi di onde immateriali” o “living field”, rappresentati da forze che si suppone abbiano la capacità di arrangiare e formare strutture molecolari, che successivamente a loro volta, possono diventare esseri viventi.
Prima di tutto occorre rispondere ad una serie di domande: cos’è e chi è un organismo vivente, e, nel caso specifico, l’uomo; bisogna distinguere ciò che percepiamo attraverso i sensi (mondo materiale) e ciò che attraverso questi non possiamo definire; bisogna comprendere e superare il concetto che tutto ciò che è esistente è reale, soltanto perchè lo possiamo percepire attraverso i sensi.
Nel corso degli anni, ed in maniera più rapida nel corso dell’ultimo secolo, l’utilizzo di strumenti sempre più sofisticati, ci ha consentito di prendere atto e di verificare l’esistenza di realtà un tempo impensabili, perché non registrabili attraverso i sensi.
Esiste, quindi ciò che rappresenta il corpo visibile, registrabile attraverso i sensi, costituito da muscoli, ossa, organi, sistemi collegati tra loro attraverso vasi sanguigni e nervosi. Man mano che ci addentriamo nelle parti costitutive di questo corpo visibile e non più percepibili attraverso i sensi, ma osservabili attraverso le apparecchiature (estensioni dei sensi), troveremo strutture quali proteine, enzimi, DNA, RNA, etc., a loro volta costituiti da materiale sempre più piccolo, fino ad arrivare a particelle elementari, quali protoni, elettroni, neutroni, e così via, passando, così dal corpo visibile a quello non più percepibile con le attuali metodologie d’indagine.
Già soltanto facendo questa iniziale distinzione, bisogna definire ed interpretare il mondo e la vita attraverso due modelli filosofici diversi:
  1. MODELLO MATERIALE MECCANICISTICO, tipico del mondo occidentale e della fisica e medicina classica.
  2. MODELLO ENERGETICO CIBERNETICO, della fisica moderna, relativistica, già esistente da millenni nel mondo orientale. 

giovedì 28 ottobre 2010

Omeopatia elettronica


Il Dr. Kramer[1], riprendendo gli studi sul Test dei Medicamenti, fatta dal Dr.Voll, riuscì ad evidenziare come l’irradiazione del medicinale omeopatico potesse essere valutata in termini di radiazione elettromagnetica, simile alle onde radio, trasmessa a distanza da metalli particolari che hanno funzione di antenna.
Il Dr. Morell[2], nel corso dei propri studi, eseguì un test di medicamenti omeopatici su pazienti ai quali era stato inoculato un medicamento omeopatico sottocute: prelevando un campione di sangue del paziente subito dopo l’inoculazione, mise in evidenza che si era modificato il valore della V.E.S., precedentemente registrato. Ciò significava che, poichè un rimedio iniettato sottocute impiega almeno venti minuti prima di diffondersi nell’organismo ed iniziare la sua azione, doveva essere presa in considerazione un’altra spiegazione al fenomeno.
Le riflessioni su queste osservazioni portarono Morell a ritenere che le radiazioni dei medicinali omeopatici si comportino come onde radio e, come tali possano essere rilevate, modulate, trasmesse ed inserite in un circuito elettromagnetico di cui facesse parte il paziente.
Nel 1974 l’Ing. Rasche, amico e collaboratore di Morell, riuscì a costruire una ricetrasmittente per i medicinali, la Test Sender-Empfänger o T.S.E., che trasmetteva le oscillazioni elettromagnetiche dei medicinali da testare ad un apparecchio ricevente MORA ed otteneva come risposta il cambiamento dei valori energetici del paziente, precedentemente registrati.
La differenza principale che esiste tra il farmaco preparato omeopaticamente e quello allopatico è che mentre il primo, in diluizione superiore alla D23 agisce solo attraverso le sue frequenze elettromagnetiche, il medicinale allopatico agisce chimicamente ed in minima parte elettromagneticamente.
Il rimedio omeopatico determina, per queste caratteristiche, reazioni biochimiche che dipendono dalle risposte cellulari alle frequenze somministrate dalle apparecchiature e recepite attraverso il fenomeno di risonanza.
Ogni rimedio agisce in un determinato ambito di frequenze e potenze identiche di rimedi diversi si trovano nel medesimo ambito di frequenze.
Una diluizione del rimedio pari a D6 lavora in un campo di frequenze di circa 300Hz; una diluizione D12 lavora in un campo di frequenze intorno a 1.000Hz, una diluizione D200 si trova in un range intorno a 10.000 Hz.


[1] Meletani S.: Mora terapia. Teoria e pratica. Guna Editore, Milano, 1990, pagg. 1-6.  
[2] Morell F.:  Terapia Mora. Le oscillazioni dei colori e del paziente. Ipsa Editore, Palermo, 1990.

martedì 26 ottobre 2010

Elettroagopuntura e Medicina di Biorisonanza



Lo studio dell’uomo sotto l’aspetto biofisico, dei suoi campi elettromagnetici, mediante la bioelettronica e la biorisonanza, ci permette una conoscenza di esso dove non possono arrivare le altre tecniche o discipline. La bioelettronica e la biorisonanza possono essere utilizzate sia nella ricerca sullo stato funzionale dell’organismo in esame che nella individuazione degli eventuali e vari elementi che possono averlo destabilizzato.

Dall’integrazione di tali tecniche con quelle attuali possiamo formulare una diagnostica altrimenti non raggiungibile, una vera <Clinica Ontologica> ed instaurare la migliore terapia adatta al caso in esame”.[1]
L’Elettroagopuntura[2] e la Medicina di Biorisonanza, sono metodiche diagnostiche elettroniche che consentono di misurare le differenze di potenziale e la resistività elettrica cutanea con test ripetibili ed affidabili.
Tali discipline hanno basi teoriche mutuate sia dalla Medicina Tradizionale Cinese, sia dalle conoscenze sperimentali effettuate negli anni 50 dal Dr. Voll, attraverso l’utilizzo di rimedi in preparazione omeopatica ed omotossicologica.
L’Elettroagopuntura secondo Voll rappresenta una metodologia attraverso cui si possono rilevare le condizioni attuali del paziente, analizzare ed interpretare la catena causale che ha determinato la sua patologia specifica.
Il sistema operativo consiste nel misurare, attraverso un puntale metallico,  il valore della resistenza elettrica cutanea su alcuni punti di Agopuntura Cinese, distribuiti lungo i Meridiani e sui punti trovati dal Dr. Voll lungo i Vasi, funzionalmente analoghi ai meridiani stessi.
Nel test generale di E.A.V., si crea un circuito macchina-paziente, attraverso un manipolo di metallo, mentre l’operatore misura, con un puntale applicato sul punto di ago/elettroagopuntura, lo stato energetico del paziente stesso.
Il valore trovato appare su un quadrante di riferimento ed indica il valore elettrico misurato; questo riflette le condizioni energetiche del meridiano e del vaso e del/degli organi associati al meridiano o al vaso, corrispondenti a quel punto.
Il valore standard 50 indica una situazione corrispondente a condizioni generali di normalità, segnala uno stato di equilibrio; valori superiori a 50, indicano la presenza di un processo reattivo, infiammatorio in atto; valori inferiori a 50, significano la presenza di una condizione di diminuzione energetica, di degenerazione, tanto più seria quanto più basso è il valore.
Inoltre, misurando il punto, se il valore registrato può rimanere costante o tendere a diminuire: in questo caso si tratta della “caduta dell’indice” che sta ad indicare che il meridiano, l’organo o gli organi associati al punto si trovano in una condizione energetica di deficit, in quanto non riescono a mantenere la stimolazione elettrica che avviene con la misurazione.
La capacità di un meridiano e di un vaso di assorbire una carica elettrica fornita dal puntale nel corso della misurazione, è in funzione della cronicità di una patologia: i pazienti con patologie lievi mostrano una “caduta dell’indice” più lenta, mentre persone con patologie ad andamento cronico mostrano una velocità di caduta maggiore, in relazione alla capacità di adattamento e quindi di reattività dell’organismo.
Il test effettuato attraverso la metodologia dell’Elettroagopuntura secondo Voll consente non solo di individuare le cause che determinano la disfunzione energetica,  ma anche quelli che possono essere i rimedi possibili.
Il principio di risonanza è alla base del funzionamento di tali apparecchiature: le molecole e gli atomi che costituiscono un organismo hanno precise frequenze di risonanza e sono eccitati solo da energie con particolari caratteristiche vibratorie. 
Risonanza è ciò che accade quando due oscillazioni di frequenza simile interferiscono ed il risultato dell’oscillazione è maggiore dell’ampiezza di ciascuna delle frequenze originali.
Interferenza è ciò che accade quando due oscillazioni di frequenza diversa interferiscono, creando una frequenza di oscillazione più bassa.
La risonanza biologica è un fenomeno ubiquitario in natura e si manifesta in forme diverse ogni volta che “un sistema fisico, di qualunque natura sia, è caratterizzato da una grandezza capace di oscillare liberamente con una frequenza propria e viene sottoposto dall’esterno a una causa che tende a far variare quella grandezza con la stessa frequenza”.[3]
Per poter passare da un’orbita a quella successiva, l’elettrone appartenente ad un atomo deve ricevere un certo quantitativo di energia con caratteristiche precise di frequenza; nel percorso inverso, di rientro, l’elettrone emetterà lo stesso quantitativo di energia. Questo tipo di frequenza è ciò che viene definito come frequenza di risonanza, principio alla base del funzionamento di tutte le apparecchiature di Risonanza Magnetica ed Elettromagnetica.
Le frequenze specifiche di risonanza eccitano solo atomi e molecole con frequenze specifiche.
Tutti gli esseri viventi sono e rappresentano un scambio di energia permanente con l’ambiente esterno; essi si trovano in continua presenza di campi elettromagnetici, che non sempre risultano essere dannosi per lo sviluppo e la crescita dell’organismo stesso.
La malattia nella accezione energetica, è vista come uno squilibrio dell’unità  dell’organismo ed il corpo risuona con la frequenza elettromagnetica dominante. Lo stato di malattia è rappresentato da “uno squilibrio energetico con presenza di frequenze anomale da rapportare alle influenze delle noxe e fattori vari che hanno determinato la rottura dell’equilibrio armonico frequenziale dello stato di salute[4]
Nonostante il livello energetico dell’organismo cambi in continuazione, in realtà la frequenza totale riscontrabile, è data dall’espressione delle frequenze elettromagnetiche dell’uomo in toto, costituito da corpo, mente e spirito, comprendente sia le frequenze espresse dall’attività metabolica cellulare, sia dalle correnti elettromagnetiche che si distribuiscono lungo il percorso dei meridiani e dei vasi.
Lo stato di salute, pertanto, sarà dato dall’armonia tra le funzioni degli organi, dei tessuti, della persona nella sua globalità e mantenuta da frequenze elettromagnetiche ordinate e coerenti.[5]
La malattia, allora, è la manifestazione dell’interazione tra i fattori interni di difesa ed i fattori esterni, sia nocivi e non; per mantenere uno stato di equilibrio permanente, l’organismo, nella sua totalità, deve comportarsi come un sistema aperto.[6]
Il test e la terapia di biorisonanza, effettuati con apparecchiature tipo MORA devono essere considerati in un contesto biocibernetico, in cui l’organismo necessita di frequenze elettromagnetiche per poter recuperare una condizione di salute, espressione di armonia.
La frequenza somministrata diventa, allora, uno strumento terapeutico attraverso il quale il paziente si trova a cambiare istante per istante, le sue condizioni. Per tale motivo occorre sempre un’attenta anamnesi, sia fisica, sia psicologica del paziente, per poter valutare fino a che punto ci si può spingere nella ricerca delle concause che hanno determinato la situazione attuale.


[1] Grieco U.: L’uomo Bioelettromagnetico. Clinica Ontologica e Farmacoelettrodinamica. La medicina del terzo millennio. Guna Editore, 2003, Milano, pag. 16.
[2] Lencioni R.: Compendio di Elettroagopuntura secondo Voll. Guna Editore, Milano,1994.
Bechtloff F.: EAV Elettroagopuntura secondo Voll. Rappresentazione per argomenti. Guna Editore, Milano, 1996.
[3] Grieco U.: op. cit., pag. 18.
[4] Grieco U.: op. cit., pag. 20.
[5] Gallo M.L.: op.cit., pag. 36.
[6] Gerber R.: Medicina Vibrazionale. Nuove scelte di Cura e di Guarigione. Edizioni Lampis, Lampis Research Institute, Zogno (BG), Italy, 1998, pagg. 151- 168.