PROPRIETA’ DELL’ACQUA PER LA VITA E TEORIA QUANTISTICA: alcune conferenze del fisico teorico E. Del Giudice e trasferimento da internet della premessa tradotta in italiano (1 pag. su 12) dell’art. “ILLUMINATING WATER AND LIFE: E. DEL GIUDICE”; della ricercatrice Mae-Wan Ho, Institute Science in Society, London, UK (che pubblica on line nel 2015); a cura di Piero Pistoia

Post in via di costruzione…
 
QUALCHE RIFLESSIONE INCERTA E PROVVISORIA A BRACCIO di Piero Pistoia
 
Suggerito dalla Meccanica Quantistica che, a differenza della Meccanica Classica, vede la materia non inerte, ma attiva, sembra che l’acqua abbia infinite possibilità di coerenza, anche grazie ai suoi clusters in se stessi coerenti, con frequenze diverse da un aggregato all’altro, da una macromolecola all’altra, per cui l’acqua potrebbe risuonare con infiniti eventi. In quest’ottica, Emilio, in momenti di più alta tensione del suo uditorio durante le conferenze, riesce a distendere gli animi degli ascoltatori talora con batture e storielle piacevoli, davvero indovinate: ebbe a dire, in uno di questi frangenti, che per sua natura l’acqua per vita è di certo definibile “di facili costumi” permettendo di risuonare con tutti! Poi tali frequenze stabilizzate in acqua, raggruppate opportunamente e attivate tramite un campo elettromagnetico di background che fa da gabina di regia, mantenuto all’interno della massa vivente da particolari proprietà dell’acqua, potrebbero essere in grado, in qualche modo nel corso del tempo (tutto da proprietà precisare), di “costruire e far funzionare”, fra l’altro, i famosi cicli della microbiologia attivi nei corpuscoli cellulari dei viventi (es. per tutti gli altri, i mitocondri),  come il ciclo di Calvin, Lynen, il ciclo di Krebs…la fotosintesi clorofilliana…. Sembra di capire che molecole risonanti in ogni ambiente biologico si attirano ed ogni processo biochimico della microbiologia all’interno della masse viventi sarebbe provocato dai “facili costumi” dell’acqua per la  vita, che ‘giocherebbe’ ruoli incredibili in seno ai viventi. Sembra infine che in ambiente dominato dalla frequenza (mondo della fase), ogni cambiamento si trasmetterebbe fuori dal tempo pr cui questi eventi verrebbero ricreati in un processo istantaneo.
Nel fervido lavoro della ricercatrice Mae-wand Ho, condotto nel suo articolo nominato (vedere di seguito la pagina della sua premessa),  cerca, determinata, di agganciare, con più forza,  i concetti divulgativi di medio-alto livello di Emilio Del Giudice espressi nelle sue conferenze sull’acqua per la vita, ad  una trama di dati duri misurati con strumenti e processi strumentali sofisticati da una miriadi di esperimenti condotti in svariate parti del mondo descritti e sostenuti da centinaia di pubblicazione scientifiche. In particolare vengono riportati dati da misure di energia (meV) su salti da livelli energetici, misure di distanze e lunghezze (nm)… su superfici di macromolecole vibranti,  di aggregati di molecole di diversa taratura, su bulk water ecc. 
L’idea mi pare alla fine che si debbano aprire incastri su una tela, tessuta prima da Del Giudice e ora da Mae-Wan Ho (due grandi menti del cambiamento purtroppo recentemente scomparsi), inizio-principio per l’espansione di questa ricerca nuova, mai vista, alla frontiera delle accademie dello statu quo. Mae Ho infatti afferma: “Emilio has given a uniphying basis for a new science of water for life. In the rest of this paper I shall give an overview of how I see the subject in the light of his controbution, and how it  could be  taken forward.”
 
 
IL CONCETTO DI RISONANZA SECONDO EMILIO DEL GIUDICE
Altrogiornale.org.html
 
Per leggere lo scritto in pdf cliccare su:
 
 
N.B.
Si ringraziano i responsabili di ALTROGIORNALE ed i responsabili del sito “INFORMAhealthcare.com/ebm, se ci permetteranno di mantenere su questo blog l’art. di Emilio Del Giudice e la premessa all’articolo della Mae-Wan Ho;  in caso contrario, avvertìti alla E-mail “ao123456789vz@libero.it”, provvederemo immediatamente alla loro cancellazione.
 

ILLUMINANDO L’ACQUA E LA VITA: EMILIO DEL GIUDICE

di Mae-Wan Ho

Institute of Science in Society, London, UK


Abstract
La teoria dell’elettrodinamica quantistica dell’acqua, premessa da Del Giudice e colleghi, fornisce un utile fondamento per una nuova scienza dell’acqua per la vita. L’interazione di luce con l’acqua genera domini quantici coerenti in cui le molecole dell’acqua oscillano tra uno stato di base e uno stato eccitato vicino al potenziale di ionizzazione dell’acqua. Questo produce un plasma di elettroni liberi tali da favorire almeno le reazioni di ossido riduzione, base dell’energia metabolica negli organismi viventi. I domini coerenti stabilizzati dalle superfici, come membrane e molecole, forniscono una interfaccia d’acqua eccitata che attiva la fotosintesi, da cui dipende la maggior parte della vita sulla terra. L’acqua eccitata è la sorgente di protoni superconduttori per una intercomunicazione rapida all’interno del corpo. I domini coerenti possono anche catturare frequenze elettromagnetiche dall’ambiente per orchestrare e attivare reazioni biochimiche specifiche attraverso la risonanza, un meccanismo per la più precisa regolazione della funzione genetica.

Il Prometeo della nuova scienza

Emilio mi ha ispirato fra molti altri. Egli era gentile, molto generoso, divertente, saggio e brillante. L’ho atteso a lungo per discutere le mie ultime idee con lui su matematica, arte, bellezza, sulla coscienza e sull’universo (Ho,2014). Ma non doveva succedere. Egli era all’improvviso occupato lontano e senza preavviso.
Qui riporto quello che egli disse in un breve video per i nostri Colori dell’Acqua, arte/scienza/festival della musica in marzo 2013 (Del Giudice,2013):


“Sono totalmente discorde con il paradigma della scienza convenzionale che vede la materia come una entità inerte sollecitata da forze esterne. Il paradigma del campo fisico quantistico non separa la materi dal movimento, poiché la materia è intrinsecamente fluttuante. Vi è una possibilità di accordare le fluttuazioni quantistiche di un gran numero di corpi e creare coerenza della materia attraverso la musica. Gli organismi umani possono essere un frammento di tale coerenza. Le esperienze artistiche sono risonanze nella struttura del nostro paradigma del campo quantistico. La loro rilevanza, riguardo alla auto-organizzazione della materia è stata riconosciuta dagli artisti e umanisti molto prima degli scienziati. La scienza convenzionale è molto lontana dai drammi, bisogni e desideri del popolo. Non c’è posto per lo spontaneo movimento di organismi né dell’amore fra organismi. Il nostro compito oggi è mostrare che il paradigma del moderno campo quantistico è capace di innalzare la verità fisica allo stesso livello della verità della poesia”

Emilio ha acceso il fuoco per una scienza dell’organismo, come Prometeo l’ha fatto per la scienza classica del meccanicismo. Egli realmente vide se stesso in quel ruolo in un bel saggio (Del Giudice, 2014) dove onorava Herbert Frohlich (1905-1991), la cui idea di conservazione di energia ed eccitazioni coerenti per sistemi viventi fornì un’idea di partenza per mio interessamento alla fisica degli organismi nel tardo 1980. Mi conto fra i molti portatori di fiaccole di Emilio che vagheranno per il mondo a spargere il fuoco per disperdere le tenebre con la loro abbagliante luce.
Emilio fu uno scienziato prolifico ed originale, un gigante la cui eredità intellettuale dovrà essere valutata nel suo insieme nelle decadi a venire, essendo stato così avanti per il suo tempo. Egli è per lo più conosciuto per essere il pioniere per la teoria del campo quantistico riguardo alla materia soft condensata (Ho,2011). Confesso di avere iniziato ad apprezzare interamente il suo lavoro dopo aver esaminato la letteratura più convenzionale che mostrava l’acqua essere quantisticamente coerente anche sotto condizioni ambientali (Ho,2011). L’acqua coerente quantistica soggiace alla coerenza quantistica degli organismi (Ho, 2008a). Essa è il mezzo con cui la vita costringe il meccanismo macromolecolare quantistico (proteine e acidi nucleici) a lavorare con quasi il 100% di efficienza e con precisa coordinazione anche sotto ai livelli molecolari e sub-molecolari. Io chiamo questo “jazz quantistico”. Ispirato da Emilio ho iniziato a vedere chiaramente come l’acqua coerente quantistica alimenta di carburante la biosfera e fornisce l’elettricità che  anima la vita e rende possibile il jazz quantistico (Ho, 2012a). L’acqua coerente quantistica rappresenta veramente gli strumenti, medium e message, della vita (Ho,2014b). Emilio ci ha dato, una base unificante di una nuova scienza dell’acqua per la vita. Nel resto di questo articolo fornirò una supervisione di come vedo il soggetto alla luce del suo contributo e come esso potrebbe essere ampliato.

 
Post in via di costruzione…
Annunci

BREVE RIFLESSIONE PERSONALE SU REALTA’ E SCIENZA del dott. Piero Pistoia; post aperto ad altri interventi

Per prendere visione di un breve curriculum dell’autore  andare al termine dell’articolo

realta-da-vicino-e-da-lontano in pdf; da aggiornare…non corrisponde ancora allo scritto successivo

BREVE RIFLESSIONE PERSONALE SU REALTA’ E SCIENZA 

a cura del dott. Piero Pistoia docente di ruolo di Fisica

PREMESSA

CENNI SU LEGGI SCIENTIFICHE, ALGORITMI, PROGRAMMI E ‘CELLULAR AUTOMATA’

Esempio di automa cellularesnowcristal0001Figura  ripresa a pag. 371 del testo di riferimento “A new kind of Science”, Publischer:  Wolfram media inc. di Stephen Wolfram

  • Il comportamento dei sistemi viene studiato con le leggi della scienza che forniscono opportuni algoritmi, o procedure opportune, in un programma, che gira su un computer, che è un veicolo tramite il quale gli algoritmi possono essere esplicitati ed applicati.
  • Gli oggetti fisici e le strutture matematiche vengono trasformati in numeri e simboli da elaborare in un programma (scritto ad hoc), che gira in conformità con gli algoritmi.
  • Il programma, nel girare, modifica quei numeri e simboli e in output otteniamo le conseguenze di quelle leggi.
  • Eseguire un programma in un computer assomiglia ad effettuare un esperimento. Però gli oggetti fisici di un esperimento in laboratorio sono soggetti alle leggi di natura, mentre quelli in un esperimento al computer non lo sono; essi obbediscono alle leggi espresse nel programma, la cui forma, può essere arbitraria, purché coerente.
  • In sintesi si ha così un’espansione dei confini della scienza sperimentale, consentendo di effettuare esperimenti in un universo ipotetico.
  • Il successo delle leggi scientifiche tradizionali, formulate in particolari funzioni e enti matematici, spesso deriva sia dalla loro semplicità matematica, sia dal porsi come modello di aspetti essenziali di un fenomeno.
  • Se invece una legge scientifica è ‘tradotta’ in un algoritmo, può acquistare forma arbitraria, purché coerente. Ne deriva che “la simulazione al computer ha reso possibile impiegare molti generi nuovi di modelli per i fenomeni naturali”; per es., un programma di calcolo di un modello chiamato “automa cellulare” ha reso possibile la formazione di un fiocco di neve. Allora molti sistemi complessi, non razionalizzabili con i metodi tradizionali della matematica, possono diventarlo in esperimenti e modelli al computer. E’ facile introdurre le leggi scientifiche la cui natura è algoritmica in un programma al computer.
  • Ma anche in processi dove non esistono formule matematiche semplici che li descrivono, è possibile inserire in un programma un algoritmo che lo faccia e l’esito di tale processo può essere dedotto dal programma stesso; l’algoritmo allora verrà considerato la legge fondamentale per la descrizione del processo.
  • Sorge spontanea la domanda cruciale: dividendo in due zone l’ Universo, l’una descrivibile con formule matematiche semplici e l’altra ‘costruibile’ con processi complessi, quale zona sarà predominante? 
  • Le equazioni differenziali sono gli strumenti per costruire la maggior parte dei modelli tradizionali dei fenomeni naturali. In alcuni casi è possibile trovare la soluzione completa dell’equazione in termini di funzioni matematiche ordinarie (soluzione esatta), negli altri casi, che si incontrano in un’ampia gamma di discipline, , si fa ricorso a soluzioni approssimate usando metodi numerici;  in certi casi queste soluzioni si perdono in comportamenti complessi, per cui si deve fare ricorso alla matematica sperimentale. Comunque le equazioni differenziali forniscono modelli adeguati per le  proprietà globali di molti processi fisici (reazioni chimiche, passeggiate aleatorie ecc).
  • Si incontrano moltissimi sistemi, in partenza con equazioni differenziali anche semplici,  le cui soluzioni si perdono in vortici e turbolenze, come appunto, per es.,  è il caso della turbolenza dei fluidi che si osserva quando l’acqua urta velocemente un ostacolo. Lo studio di questi sistemi sono riassunti in una nuova disciplina, “teoria dei sistemi complessi’, dove i percorsi si sviluppano in una successione di eventi deterministici, ma imprevedibili. Wolfram  tenta di dare soluzioni positive alle teorie della complessità per non rassegnarci all’inconoscibile con la computazione con particolari algoritmi (inventati da lui) più efficaci e vicini alla Natura di quelli della scienza tradizionale. Si pensa che esista un insieme di semplici  meccanismi matematici comuni a molti sistemi che danno origine ad un comportamento complicato (per es., la costruzione dei fiochi di neve): gli automi cellulari. “Anche un sistema di equazioni differenziali è in grado di descrivere lo sviluppo dei fiocchi di neve, ma il modello molto più semplice fornito dall’automa cellulare pare conservi l’essenza del processo con cui vengono create queste configurazioni complesse. Sembra che modelli analoghi funzionino bene anche per i sistemi biologici“, così afferma S. Wolfram nel suo articolo “Software nella Scienza e nella Matematica“, da  Le Scienze,  che ha guidato questa PREMESSA e il lettore interessato può trovare in esso chiarimenti e approfondimenti sui vari argomenti qui appena toccati; in particolare nell’ultima parte dell’articolo nominato si chiarisce e approfondisce con esempi e relative illustrazioni di computer grafica,  il significato e l’utilizzo del gruppo di algoritmi riferibili al ‘cellular automata’, in confronto con quelli della tradizione. Sempre dello stesso autore   il testo di riferimento “A new kind of Science”, Publischer:  Wolfram media inc., è consigliato per un più tecnico approfondimento. A prescindere dai nostri percorsi di conoscenza da sempre usati , allora l’Universo ‘costruisce se stesso’ come un elaboratore elettronico ‘simulando’ con specifici algoritmi? Esso ‘costruisce‘ nelle zone limitate coperte in qualche modo dalla scienza tradizionale anche la più avanzata, ma specialmente nelle altre, molto più diffuse, che resterebbero inconoscibili.
  • Secondo la mia ipotesi  di interpretazione, il limite della scienza degli umani riflette la limitatezza, argomentativa e creativa, della co-evoluzione,  attiva durante la loro esistenza sulla terra (almeno per 2 milioni di anni), subita dai centri cerebrali in particolare nella grande evoluzione darwiniana; riuscire a individuare algoritmi specifici propri del ‘Cosmo nel suo complesso’ è forse un nuovo modo di vedere il mondo e quindi di fare scienza, ‘A new kind of Science’, appunto!
  • Secondo il mio modesto parere rimarrebbe da precisare che cos’è che di fatto attiva ed accompagna nella sua esecuzione la ‘regola’ riassunta dagli algoritmi: è il background chimico-fisico-pulviscolare (attivazione) e la scelta di percorsi di minore energia (accompagnamento) od altro?

DA CONTINUARE…

UNA  RAPIDA RIFLESSIONE SULL’UNIVERSO: CHE COS’ E’ IL “REALE” PER I FISICI TEORICI

Da una parte, c’è, appunto,  Stephen Wolfram,  che a soli vent’anni al California Institute of Tecnology ottenne il PHD (dottorato) in Fisica Teorica, senza dare esami! presentando solo alcuni suoi lavori già pubblicati, con i suoi algoritmi trasferibili dal suo potente programma MATHEMATICA al Cosmo, che propone una nuova rivoluzione di idee attiva all’esterno della bottiglia col collo rovesciato di Wittgenstein. Sembra che la Natura non funzioni secondo matematica, geometria e fisica come affermava Galileo e tutti i fisici successivi; l’Universo non può ridursi ad astrazioni concettuali controllate dalla matematica, ma cresce (ontogenesi), evolve (filogenesi)  come un programma su un computer, che produce una successione di eventi. Wolfram scrive nel 2002 il grosso libro della sua vita (mille pagine con altrettanti outputs di computer grafica con relativi programmi scritti a partire dalla vers. quarta del MATHEMATICA), dal titolo “A new kind of Science”, Publischer:  Wolfram media inc., dove si precisa come il Cosmo nel suo complesso, compresa la vita, non è spiegabile secondo la scienza tradizionale, ma è un programma su algoritmi molto semplici che descrive e mette in atto un procedimento (es. il suo cellular automata, automa cellulare) che ‘costruisce’ foglie, alberi, nubi, le coste di isole, le forme degli animali e delle galassie… e quant’altro e non partendo da algoritmi basati su equazioni. E’ possibile individuare alcune regole semplici alla base di questo programma, ma il loro sviluppo matematico fisico di queste regole non permette di prevedere a lungo, ciò che poi è l’idea alla base della fisica della complessità (vedere i posts di questo blog relativi ai FRATTALI). In sintesi mi sembra di aver capito che Wolfram pensi di aver individuato all’interno di questo ‘programma universale’, non ancora risolvibile dal punto di vista computazionale se considerato nella sua totalità, gruppi di algoritmi che invece lo sono (per es., il suo cellular automata), che come tali (una serie ordinata di istruzioni in sequenza al di là di qualsiasi equazione matematica) un computer potrebbe elaborarli molto più velocemente di quello che farebbe la Natura, aprendo possibilità di ‘schiarire’ orizzonti futuri in anticipo, anche lontani, prima che si realizzino. Le Accademie, chiuse nella trappola di Wittgenstein, mi sembra abbiano ignorato questo evento culturale, che avrebbe potuto diventare forse anche grande (molti fisici teorici, almeno in Italia, neppure sanno chi è Wolfram  e inoltre non mi risulta che  il suo libro sia stato tradotto in italiano!), proprio come accadde a Galileo con la sua  Natura ‘risolvibile’ in geometria, rischiando il rogo (interpretazione tout-court). Un modo di screditare l’evento mi sembra sia stato anche quello di averlo paragonato alla ‘formula universale per tutte le scoperte’ che propose Moebius, il fisico teorico della commedia grottesca ‘I FISICI’ scritta nel 1961 e rivisitata nel 1981, il cui contenuto ruotava intorno ad un manicomio. DA PRECISARE E…..CONTINUARE

Dall’altra, c’è il mondo dei fisici teorici che cerca di guardare il ‘reale’ da due importanti punti di vista:

  • l’uno che cerca di razionalizzare il Tutto, il Caos, il mondo dei Frattali, tanto da ridefinirlo Caos Deterministico (Ilya Prigogine Nobel nel 1977) nel senso che sembra controllabile da equazioni anche se non lineari, le cui soluzioni lasciano però zone d’ombra piene di vortici, rimanendo così poco efficiente nelle previsioni del futuro, come già accennato;
  • l’altro punto di vista rivolge l’attenzione ai ‘mattoni’ che compongono la struttura portante del Cosmo, cioè le particelle elementari in espansione (ciascuna con una propria onda analoga a quella di Shroredinger) oggi controllabili anche dalle equazioni della Meccanica Quantistica Relativistica, riempiendo l’Universo di un ‘groviglio collettivo ‘(ENTANGLEMENT) di infiniti ‘oggetti quantistici’ interdipendenti che trovano la loro consistenza in una miriade di onde di probabilità in interazione che variano, in ogni punto, nel tempo e, ad ogni istante, nello spazio. Questo oceano in tempesta di onde di probabilità sarebbe la ‘realtà’ nel senso che, viste da lontano, (come le percepiscono l’uomo e gli animali) apparirebbero come nubi, boschi, animali, compreso l’uomo,oppure stelle o pianeti o tramonti o soli ….o il grosso leccio annoso che vedo dalla finestra o le erbacce, per es., la bonariensis (vedere i posts su un percorso floristico in questo blog), lungo un percorso di periferia (realtà apparente); mentre da vicino (lette attraverso il modello matematico offerto dalla Meccanica Quantistica Relativistica) riacquistano la loro essenza primigenia (la realtà vera) di oceano tempestoso di onde di probabilità interagenti comprensibile solo attraverso sistemi di equazioni matematiche della MQR.

Per chiarire questo ambiguo e duplice modo di guardare all’Universo proposto dalla fisica teorica alla ricerca della sua primigenia struttura, troviamo, nel quadro impressionista con le sue pennellate di colore individuali, un esempio analogico, ripreso come concetto dal testo “Il Bosone di Higgs”, RBA, 2015. Da qualche metro di distanza la pittura appare con le macchie di colore che sfumano costruendo la figura riportata nel quadro. Però se ci avviciniamo, la figura sembra scomparire e più guardiamo da vicino, percepiamo sempre più le macchie colorate separate. Se poi, immaginando anche che più ci si avvicina più le macchie fluttuino modificando colore e posizione (per cui in ogni punto si potrebbe trovare un qualsiasi colore, anche se con più probabilità quello corrispondente al disegno), ci si perderebbe in un caos di colori. Concludendo, anche se è vero che in un punto può apparirci anche ora un bianco ora un nero e così via, in effetti a circa qualche metro rivedo la pittura originale. Che cosa è più vero l’insieme delle macchie di colore separate o la pittura? Che cos’è allora la Realtà? Quella che vedono e con la quale interagiscono gli animali o quella che ‘vede’ il sistema di equazioni della MQR? E le emozioni, i sentimenti … che, densi, anche loro veicolano energia?

Prima della scoperta del Bosone di Higgs le particelle elementari non avevano ancora una massa! 

Boh!

Leggere e confrontare anche  il post provocatorio dello stesso autore “La teoria e la realtà”.

CHI E’ L’AUTORE (traccia): Curriculum di Piero Pistoia

Piero Pistoia, diplomato negli anni ’50 presso il Liceo Classico Galileo Galilei di Pisa, è dottore in Scienze Geologiche con lode e, da borsista, ha lavorato e pubblicato presso l’Istituto di Geologia Nucleare di Pisa, misurando le età degli “strani” graniti associati alle ofioliti (1) e studiando i serbatoi di gas e vapori della zona di Larderello. Successivamente ha scritto una cinquantina di articoli pubblicati a stampa, a taglio didattico-epistemologico, di cui circa la metà retribuiti secondo legge,  dagli editori Loescher, Torino, (rivista “La Ricerca”), La Scuola di Brescia (“Didattica delle Scienze”), a controllo accademico ed altri, affrontando svariati problemi su temi scientifici: dall’astrofisica all’informatica, dall’antropologia culturale all’evoluzione dell’uomo, dalla fisica alla matematica applicata e alla statistica, dalla geologia applicata al Neoautoctono toscano, dall’origine dell’Appennino alla storia delle ofioliti, alle mineralizzazioni delle antiche cave in Val di Cecina (in particolare su calcedonio, opale e magnesite) ecc..  En passant, ha scritto qualcosa anche sul rapporto Scienza e Poesia, sul perché la Poesia ‘vera’ ha vita infinita (per mere ragioni logiche o perché coglie l’archetipo evolutivo profondo dell’umanità?); ha scritto alcuni commenti a poesie riprese da antologie scolastiche e,  infine decine di ‘tentativi’ poetici senza pretese. Molti di tali lavori sono stati riportati su questo blog. (2)

(1) L’età dei graniti delle Argille Scagliose, associati alle ofioliti, al tempo alla base della falda in movimento, corroborò sia l’ipotesi che esse fossero ‘strappate’ dal basamento ercinico durante i complessi  eventi che costruirono la catena appenninica, sia, indirettamente, rafforzò la teoria a falde si ricoprimento nell’orogenesi appenninica. Fu escluso così che il granito associato alle ofioliti derivasse, almeno non in tutti i casi, da una cristallizzazione frazionata (serie di Bowen) da un magma basico od ultrabasico.

(2) Piero Pistoia ha superato concorsi abilitativi nazionali, al tempo fortemente selettivi (cioè non frequentò mai i famigerati Corsi Abilitanti, fortemente voluti dai sindacati dei docenti!), per l’insegnamento, in particolare, nella Scuola Superiore per le seguenti discipline: Scienze Naturali, Chimica, Geografia, Merceologia, Agraria, FISICA e MATEMATICA. Le due ultime materie sono maiuscole per indicare che Piero Pistoia in esse, in tempi diversi, fu nominato in ruolo, scegliendo poi la FISICA, che insegnò praticamente per tutta la sua vita operativa.

Pochi anni prima che l’ITIS di Pomarance fosse aggregato al Commerciale di Volterra il dott. prof. Piero Pistoia fu nominato Preside Incaricato presso questo istituto dal Provveditorato agli Studi di Pisa, ottenendo il massimo dei voti.

*

MECCANICA QUANTISTICA: appunti per una lezione; a cura del dott. prof. Giorgio Cellai; post aperto

Testo rivisitato da il ‘Sillabario’ n. 2 1999

FONDAMENTI DELLA MECCANICA QUANTISTICA 

(del Dott. Prof Giorgio Cellai)

Da rivedere!

Parte 1°

Le parole “Meccanica Quantistica” non fanno parte dell’insieme delle nozioni indispensabili pur nell’attuale società tecnologica; acquistano significato per chi studia Chimica alle superiori, anche se è difficile andare al di là di una conoscenza superficiale; in realtà la Meccanica Quantistica costituisce il vero fondamento di quella disciplina, e questo può bene giustificare il senso di frustrazione in preda al quale si trovano (con 2/3 ore settimanali di lezione ed allievi senza le adeguate basi matematiche….) tutti i colleghi insegnanti di Chimica che conosco. Le cose migliorano, ma solo un pochino, se l’insegnante, di Fisica stavolta, riesce a ritagliare per l’argomento uno spazio consistente all’ultimo anno di Liceo; ciò è difficile, perché occorre fornire una buona conoscenza preventiva di elettromagnetismo per poter descrivere la crisi attraverso la quale è passata la Fisica prima di giungere ai risultati di cui ci vogliamo occupare.

Per una conoscenza soddisfacente sembra ormai chiaro che ci vuole l’Università, e anche un corso di Laurea a carattere scientifico sufficientemente specialistico; vorrei affrontare ugualmente l’argomento cercando di fornire, in questa prima parte del mio lavoro, delle idee generali sul significato della parola “Meccanica” e sull’evoluzione che questa ha avuto negli ultimi cento anni, culminata appunto nella Teoria Quantistica.

Alla fine del ‘600 Isaac Newton aveva definitivamente messo a punto l’impianto di una nuova meccanica che superasse quella di Aristotele risalente a parecchi secoli prima, concludendo il lavoro teorico e sperimentale di altri scienziati suoi predecessori (su tutti senz’altro il nostro genio pisano Galileo Galilei). La Meccanica è lo studio dei moti dei corpi materiali: per tale studio occorre descrivere il moto con appropriati strumenti, sia di misura (per trovare risultati numerici dall’esperienza) che matematici (per interpretare tali dati alla luce di leggi generali più semplici ed eleganti possibile). Tutti i moti su cui Newton aveva misure a disposizione furono da lui interpretati alla luce di un numero ristretto di principi: le famose tre leggi che prendono appunto il nome di Meccanica Newtoniana, o Classica, come si dice oggi. Tutti i corpi macroscopici di cui si conoscono le modalità di interazione (dai pianeti alle palle di biliardo agli zampilli di una fontana) obbediscono alle leggi di Newton; tali leggi hanno la veste matematica di relazioni tra grandezze fisiche vettoriali, cioè quantità dotate (come la posizione, la velocità, l’accelerazione) di una direzione, un verso e un valore numerico positivo o al minimo nullo che si chiama intensità o modulo. Con la seconda legge in particolare:

F = m*a             (1) 

la teoria di Newton fornisce, in funzione delle diverse possibili modalità (forze F) di interazione, l’accelerazione a del corpo in questione; dalla conoscenza di questa si può ricavare in funzione del tempo il vettore posizione del corpo, cioè predire istante per istante dove esso si trova con la cosiddetta Legge Oraria del Moto. Il calcolo della Legge Oraria si traduce nella risoluzione di quella che tecnicamente è chiamata un’equazione differenziale, quale è per l’appunto la seconda legge che fornisce una relazione tra posizione, velocità, accelerazione e tempo; il fatto è che la velocità e accelerazione sono grandezze legate alla posizione essendone le derivate (prima e seconda) rispetto alla variabile tempo. Cosa sia esattamente la derivata di una funzione è tipicamente oggetto di studio dell’ultimo anno delle superiori, nella parte dedicata all’Analisi Matematica: non mi posso addentrare nell’argomento ora, ma risulta chiaro che il problema fisico diventa un problema di calcolo e dopo Newton (che aveva fatto nel suo sforzo di fisico teorico delle scoperte fantastiche di Analisi Matematica!) molti matematici hanno lavorato a questo settore facendolo evolvere adeguatamente alla risoluzione di complicati problemi di moto, il tutto in perfetto accordo con le leggi di Newton. Tra i risultati fondamentali della Teoria delle equazioni differenziali ce ne è uno intuitivamente evidente e di grande importanza nel problema del moto: in un’equazione contenente al massimo derivate seconde rispetto alla variabile indipendente (per fissare le idee il tempo t)la soluzione, cioè la funzione che soddisfa identicamente l’equazione, esiste ed è unica se si fissano ad un dato istante t0 il valore della funzione e della sua derivata prima. Questo è proprio il caso della seconda legge: il vettore accelerazione infatti è la derivata seconda rispetto al tempo del vettore posizione, che è la nostra funzione vettoriale incognita. Insomma, se conosco posizione e velocità ad un certo istante t0 il moto ad ogni istante successivo è univocamente determinato; la teoria di Newton è una teoria deterministica.

I giochi ormai sembrano fatti; problemi fisici concettuali proprio non ci sono, può capitare semmai di sbattere la testa in un problema di moto con un tipo di forza complicato da trattare matematicamente. Ci penseranno i matematici, ci sono apposta: Einstein per esempio aveva il proprio “matematico personale” (pare che ne avesse cambiati diversi….). Perché allora la meccanica quantistica? Perché qualcosa cominciò a non funzionare con l’avvento della teoria atomica e con le sempre maggiori evidenze sperimentali a suo favore. Non è possibile qui dilungarsi (anche se sarebbe molto interessante!) in un’esposizione storica dei problemi che si ponevano ai fisici teorici nell’applicare le leggi di Newton ai sistemi atomici; evidentemente la Meccanica Newtoniana avrebbe dovuto funzionare anche su scala microscopica per essere veramente generale, ma vi erano difficoltà teoriche sia per conciliare di per se’ la seconda legge di Newton con le leggi dell’Elettromagnetismo (equazioni di Maxwell) che nell’applicarla anche al più semplice modello atomico (atomo di idrogeno): un nucleo (protone) carico positivamente e un elettrone carico negativamente in interazione elettromagnetica tra di loro. Il risultato drammatico era infatti che l’elettrone non avrebbe potuto orbitare intorno al protone per più di qualche centesimo di miliardesimo di secondo, essendo costretto a perdere energia irraggiando onde elettromagnetiche e a cadere sul nucleo facendo “collassare” il sistema.

Ai primi del secolo, definitivamente accertata la natura corpuscolare (atomica) della materia, Niels Bohr tentò di costruire un modello teorico dell’atomo di idrogeno (dopo quelli completamente “newtoniani” di Thomson e Rutherford) che superasse la difficoltà del collasso per irraggiamento e inoltre interpretasse correttamente il comportamento assai singolare dell’interazione tra la luce e le sostanze gassose (spettri dei gas). Ma questo modello, la cosiddetta Prima Meccanica Quantistica (1913), ammetteva ancora come valida la meccanica Newtoniana pur aggiungendovi delle ipotesi ad hoc logicamente incoerenti con essa…. era tutto fuorché una teoria elegante!

Per convincerci dell’infondatezza della teoria di Newton e anche di quella di Bohr nello spiegare il comportamento dei costituenti microscopici della materia, immaginiamo di voler fare una misura della posizione di un corpo microscopico per poterne descrivere il moto. La cosa più naturale è “fotografarlo”, cioè raccogliere attraverso un apparato sperimentale adatto alle circostanze (macchina fotografica, cinepresa, occhio …) la luce proveniente da esso nell’istante prescelto per la misura. Vogliamo fare ciò per un elettrone, un corpo microscopico estremamente abbondante in natura: lo irraggiamo con un fascio luminoso e raccogliamo con un sistema ottico (oculare) la luce diffusa dall’elettrone, deducendo da ciò la sua posizione all’istante in cui è investito dal fascio; questo vuol dire in realtà “vedere” l’elettrone. Ma è a questo punto indispensabile un’osservazione sulla natura della luce, altro capitolo affascinante della fisica: in realtà anche la luce ha una natura corpuscolare, cioè è composta da particelle elementari dette fotoni. Il nostro problema diventa lo studio dell’interazione tra il nostro elettrone e un fotone che si “urtano”: il fotone incidente viene deviato nell’urto con l’elettrone, un po’ come per due palle da biliardo, raccolto dal sistema di lenti dell’oculare e osservato (diciamo con una lastra fotografica o simile). Ovviamente però anche l’elettrone subisce una variazione del suo vettore velocità, che non può essere nulla; c’è una legge generale della Fisica che si chiama conservazione della quantità di moto e che ci può informare su tale variazione. Brevemente, la quantità di moto p è definita come il prodotto della massa m di un corpo per il suo vettore velocità: in un sistema di corpi che interagiscono solo tra loro (detto isolato) come il sistema elettrone-fotone la somma delle singole quantità di moto delle particelle è costante nel tempo, cioè non cambia anche se durante l’interazione ognuna delle p cambia. Consideriamo il nostro fotone, che viene rivelato dopo aver attraversato l’oculare: questo ha un proprio asse e un’apertura angolare che consente di ricevere fotoni di direzione non parallela al proprio asse e di “focalizzarli” sullo schermo rivelatore. Il fotone che arriva potrebbe allora avere una componente della velocità ortogonale all’asse che noi non possiamo controllare con il nostro sistema di misura. Ciò comporta per la definizione precedente un’indeterminazione della componente ortogonale della quantità di moto che può essere stimata con le formule della Teoria della Relatività valida per i fotoni. Il suo ordine di grandezza vale:

px = h/ . sen (chiamando x la direzione ortogonale all’asse dell’oculare)

Qui è l’angolo di apertura, la lunghezza d’onda della radiazione associata al fotone e h una costante fondamentale (detta di Planck e introdotta agli inizi del secolo con la prima Meccanica Quantistica) che vale h=6.6×10-27 erg. sec.. Tale valore di px è lo stesso anche per la px dell’elettrone: la loro somma è infatti costante e quindi le loro indeterminazioni devono essere opposte, cioè uguali in valore assoluto, che è ciò che stiamo qui valutando.

Si può rendere arbitrariamente piccolo px prendendo grande (corrispondente a fotoni molto poco energetici) e piccolo. Nasce però un problema inatteso: da tempo i fisici sapevano che ogni sistema ottico di rivelazione, come il nostro oculare, comporta un limite intrinseco di risoluzione dovuto a un fenomeno fisico fondamentale che si chiama diffrazione della luce. Secondo la teoria della diffrazione, la luce proveniente da un punto si vede in realtà sullo schermo come una macchiolina, per cui due punti molto vicini appaiono indistinguibili sullo schermo di osservazione quando le due macchie si sovrappongono. L’ordine di grandezza dell’indeterminazione “di principio” per la posizione lungo la direzione x del nostro elettrone vale, secondo la teoria della diffrazione:

 x = /sen

 Qui, come si vede per rendere piccolo a piacere x dovremmo invece diminuire o aumentare !….infatti si verifica facilmente, moltiplicando le due indeterminazioni, che

 px . x = h         (2)        (relazione di indeterminazione)

Questa è una relazione tra ordini di grandezza che è alla base della Meccanica Quantistica. La nuova teoria formulerà tale relazione in modo matematicamente più rigoroso, ma il suo significato fisico è già chiaro nella nostra versione approssimata.

Attenzione: l’ordine di grandezza del prodotto delle due indeterminazioni non è mai minore di h qualunque siano le procedure sperimentali adottate per la misura di posizione; se cerco di migliorare la precisione di p peggiora quella di x in obbedienza alla (2) e viceversa. Questo è letale per la teoria di Newton, che postulava la possibilità di misurare contemporaneamente x e vx (e quindi px)! Qualcuno può pensare che questo sia solo un problema tecnico dei fisici sperimentali: nella teoria io posso “immaginare di poter misurare” x e vx a un dato istante e poi far partire il sistema veramente bene… Nulla di più sbagliato concettualmente perché la Fisica è una scienza che si basa sul concetto operativo di misura; quando tale concetto non si può fondare oggettivamente, non si può far finta di nulla….E’ una situazione un po’ simile a quella del concetto di tempo (vd. precedenti articoli sul Paradosso dei Gemelli): era intuitivo e ragionevole pensare che il tempo t non dipendesse dal sistema di riferimento inerziale scelto, ma questo non è vero per velocità abbastanza grandi, sperimentalmente irraggiungibili ai tempi di Newton; diciamo che l’assunzione, corretta in prima approssimazione e coerente con i dati sperimentali di un tempo, si è rivelata in genere falsa. Così la relazione di indeterminazione, che la Meccanica Quantistica porrà alle sue basi, boccia la Meccanica Newtoniana, pur “elegante” e comunque funzionale per i moti dei corpi macroscopici. Ma perché allora lì funziona così bene? Perché il valore numerico piccolissimo di h rende le due indeterminazioni x e px inosservabili a livello di corpi macroscopici. Si pensi ad un pur piccolo pallino da caccia; posso misurarne la posizione iniziale con un apparato sperimentale molto preciso e otterrò comunque un piccolo errore strumentale “fisiologico” x; dell’indeterminazione px = h/x non mi accorgo assolutamente in una misura di velocità, essendo assolutamente trascurabile rispetto all’errore strumentale.

Povero Newton! Non si poteva accorgere certo né del principio di indeterminazione, né della relatività del tempo. Lo possiamo ben giustificare: ci sono voluti più di due secoli di lavoro teorico, sperimentale e di crescita tecnologica del pianeta per poter svelare questi fatti di natura.

L’esposizione finora svolta mi sembrava indispensabile per mettere a fuoco il problema; siamo a questo punto in condizioni di esporre i postulati della nuova teoria e cercherò di farlo nella seconda parte di questo lavoro.

 Parte 2°

Nella chiacchierata del numero precedente de ” Il Sillabario ” ho cercato di discutere i motivi della crisi della Meccanica Newtoniana. Questo insieme di ipotesi fisiche, tradotte in leggi matematiche semplici ed eleganti, è stato verificato sperimentalmente fin dai tempi di Newton con risultati eccellenti per quanto riguarda il comportamento dei corpi macroscopici. La sua crisi è nata con le scoperte di vari fatti sperimentali riguardanti fenomeni atomici, ai quali veniva spontaneo applicare lo schema teorico di Newton ( che chiameremo da ora ” fisica classica “), con risultati però in aperta contraddizione con l’esperienza. Le considerazioni che seguono non tengono conto dell’altro versante su cui si abbatte la crisi, cioè quello delle ” alte velocità “: in sostanza la fisica classica, oltre che essere inadeguata se applicata al moto dei corpi microscopici, lo è anche se applicata al moto dei corpi, anche eventualmente macroscopici, in moto con velocità v dell’ordine della velocità della luce c; abbiamo già trattato l’argomento alcuni numeri fa parlando di Relatività e paradosso dei gemelli. La meccanica quantistica “ordinaria” di cui cercherò di dire qualcosa ora è quella non relativistica, cioè si applica a velocità piccole rispette a c, come per esempio quelle degli elettroni negli atomi, e fornisce predizioni teoriche estremamente ben verificate nella maggior parte dei fatti di natura che cadono sotto i nostri sensi. Ricordo (vd. numeri precedenti) che l’apparato matematico della fisica classica è imperniato nel calcolo del vettore posizione r(t) di un corpo in moto nello spazio ordinario (euclideo) tridimensionale in funzione del tempo t. Lo stato di un sistema costituito da un punto materiale di massa m in eventuale interazione con altri corpi (chiamiamo punto materiale un corpo “elementare”,di cui si trascura l’eventuale stato interno, per esempio di rotazione intorno a un proprio asse) è allora completamente specificato se se ne conoscono i vettori posizione e velocità a un dato istante e le forze di interazione con l’esterno; le leggi di forza danno luogo ad equazioni che, risolte, forniscono posizione e velocità agli istanti successivi. Punto e basta. Come già discusso nel numero precedente però, posizione e velocità di un corpo non si possono misurare, e quindi definire, contemporaneamente, e quindi lo schema logico appena descritto è destituito di senso. Bisognava ripartire con principi completamente nuovi, e questo fu fatto da vari fisici teorici ( W. Heisenberg, E. Schrodinger e P.A.M. Dirac sono forse i nomi più importanti) negli anni venti dopo il primo tentativo di N. Bohr nel 1913 a cui avevo già fatto cenno nel numero precedente; proviamo ad affrontare l’argomento.

Se l’ambiente matematico della fisica classica era lo spazio vettoriale tridimensionale della geometria euclidea, quello della meccanica quantistica è ancora uno spazio vettoriale, ma di natura completamente diversa, e molto più difficile da descrivere!

A questo scopo è indispensabile dire qualcosa su cosa i matematici intendono esattamente per spazio vettoriale: è un insieme di oggetti (i vettori) su cui si definisce un’operazione di prodotto per un altro oggetto (detto scalare) che tipicamente è un numero reale o complesso, da cui si genera un nuovo vettore. Se il numero è reale l’operazione corrisponde nello spazio ordinario dei punti euclidei all’allungamento o accorciamento del vettore senza cambiarne l’orientazione, con eventuale ribaltamento rispetto al punto di riferimento se il numero è negativo. Se il numero è complesso tutto peggiora; intanto bisognerebbe dire per bene cosa è un numero complesso, e l’argomento non è banale; purtroppo nel nostro spazio vettoriale quantistico gli scalari sono proprio numeri complessi. Le conseguenze fisiche di ciò sono abbastanza rilevanti ma contentiamoci di dire che questo tipo di insieme numerico (che per esempio chi ha studiato Elettrotecnica conosce bene) contiene gli ordinari numeri reali come sottoinsieme quindi si può ancora immaginare il prodotto in molti casi come allungamento o accorciamento. L’altro fatto rilevante è che due vettori si possono sommare tra loro ottenendo un terzo vettore (nello spazio ordinario euclideo con la famosa regola del parallelogramma); la somma e il prodotto per uno scalare si possono combinare (e si parla appunto di combinazioni lineari tra vettori) ottenendo, a partire dalla scelta di un certo numero di vettori detti di base, tutti i vettori dello spazio moltiplicando ogni vettore di base per coefficienti scalari arbitrari e sommando tra loro tutti i vettori ottenuti. Ad esempio nello spazio ordinario euclideo il minimo numero di vettori combinando i quali si può ottenere un qualsiasi (cioè ogni…) vettore dello spazio è tre; così in generale si definisce una base in uno spazio e si dice che questo ha dimensione n se ha n vettori di base. Sempre nello spazio euclideo si può scegliere una terna di base (utile anche se non obbligatorio) costituita di vettori giacenti in direzioni ortogonali tra loro: si pensi agli spigoli di un cubo che fanno capo ad un dato vertice; questo dell’ortogonalità tra vettori è un altro ingrediente fondamentale della nostra ricetta e occorre per esso l’altra piccola digressione seguente. In geometria “ortogonale” ha come sinonimo la parola “perpendicolare”, è cioè collegata all’idea di coppia di direzioni “ad angolo retto”. Senza entrare nel merito sui modi di definire questo concetto in geometria elementare, è importante qui collegarlo a quello di prodotto scalare tra vettori. Quest’ultima è un’operazione che a due vettori dello spazio associa uno scalare (da cui il nome) che come già detto nel nostro spazio quantistico è un numero complesso; due vettori si diranno poi ortogonali quando il loro prodotto scalare è nullo. In fisica classica, quindi per i vari vettori tridimensionali che la popolano, (posizione, velocità, quantità di moto, accelerazione, momento angolare etc.) il prodotto scalare è un ingrediente fondamentale, nel definire per esempio il lavoro di una forza o anche il flusso di una grandezza vettoriale attraverso una superficie; in meccanica quantistica lo è forse ancora di più, essendo moltissime grandezze fisiche rilevanti della teoria riconducibili a prodotti scalari tra vettori quantistici. Ho parlato per un bel po’ di matematica; ora forse ce la facciamo a parlare un po’ di fisica come vorremmo.

Gli stati fisici di un sistema che obbedisce alla meccanica quantistica sono rappresentati dai vettori di un particolare spazio (appartenente alla categoria dei cosiddetti spazi di Hilbert), detto appunto dei vettori di stato; se due vettori rappresentano entrambi uno stato possibile per un sistema, così è per una loro arbitraria combinazione lineare a coefficienti complessi, e questo è un postulato fondamentale dalle conseguenze pesanti. Il nostro spazio ha tipicamente dimensione infinita, cioè non ci si fa ad esprimere un arbitrario vettore di stato come combinazione lineare di un numero finito di vettori di base; in molte situazioni questa circostanza non è comunque drammatica perché la base scelta della base, pur essendo questa costituita da infiniti vettori, consente comunque di lavorare con combinazioni lineari finite; esiste poi anche il modo, seppure non banale, di sommare infiniti vettori…Quello che può restare ancora, e giustamente, oscuro a chi legge è di che tipo di vettori si tratti. La risposta a questa domanda è proprio legata alla scelta della base, che, pur dipendendo dal tipo di problema, è legata agli assiomi fisici e all’apparato matematico della teoria nel modo a cui cercherò ora brevemente di accennare.

Se si misura una certa grandezza fisica in un sistema in cui vale la nostra nuova meccanica (per esempio l’energia, o la posizione, di una particella) si ottengono vari possibili risultati numerici; il fatto completamente nuovo è che ci sono dei risultati proibiti, e proibiti anche in un modo bizzarro del tutto estraneo alla fisica classica. Un esempio celebre, e già evocato nel numero precedente, è quello dell’atomo di idrogeno, costituito da un solo elettrone vincolato elettricamente da un protone carico di segno opposto a costituire un unico sistema; si può supporre immobile il protone, molto più pesante, e studiare gli stati di moto dell’elettrone nel campo elettrico generato dal protone. Ebbene, risulta che le energie dell’elettrone nei suoi stati legati (i corrispondenti delle orbite ellittiche), che sono negative in base alla scelta dell’energia potenziale universalmente accettata dai fisici, non possono avere arbitrari valori negativi come ammesso dalla fisica classica, ma un insieme discreto (quantizzato) dato dalla formula

(1)          En = -R/(n2)

con R costante (detta di Rydberg) e n arbitrario numero intero positivo, detto numero quantico principale. I valori nella (1) sono i cosiddetti livelli energetici dell’atomo di idrogeno; sono responsabili degli spettri di emissione e di assorbimento dell’idrogeno, cioè della successione di frequenze della radiazione elettromagnetica emessa o assorbita da un campione di atomi di quella specie. Questa sorta di ” carta di identità “, diversa per ogni specie atomica, è per l’appunto associata al tipo di dipendenza dell’energia, che è in generale più complicata di quella della (1) ma che è collegata comunque a ” numeri quantici “, del tipo di n, che compaiono in modo naturale nella teoria.

Per cercare di capirci qualcosa di più, accettiamo il fatto sperimentale che le energie degli elettroni degli atomi sono quantizzate e supponiamo che in generale le grandezze fisiche osservabili possano assumere valori discreti come l’energia della (1), accanto ad un eventuale insieme continuo, ad esempio tutti i possibili valori contenuti in un intervallo, limitato o illimitato. Chiameremo autovalori tali possibili risultati di una misura della grandezza fisica data; l’apparato della teoria consente di associare ad ogni grandezza fisica “seria” ( in buona parte le stesse della fisica classica più altre puramente quantistiche come ad esempio lo spin) un operatore che agisce su ogni vettore dello spazio per ottenere un nuovo vettore. Il fatto fondamentale è che con l’operatore associato ad ogni osservabile (termine quantistico che sta per grandezza fisica) possiamo calcolare di essa gli autovalori risolvendo un’equazione così costruita: se chiamo H l’operatore e un vettore di stato, l’equazione è

H=           (2)

con vettore opportuno e numero reale da determinare. Il simbolo a membro sinistro è il vettore ottenuto applicando l’operatore H al vettore . In genere assumerà infiniti valori, discreti o continui, che sono proprio gli autovalori dell’osservabile H, mentre il vettore associato ad ogni singolo si chiama autovettore ( e lo stato associato autostato) di H relativo all’autovalore ; la (2) si chiama equazione agli autovalori associata all’operatore H.

Questa terminologia è stata ereditata dai matematici, che avevano da tempo costruito la teoria degli operatori lineari negli spazi vettoriali “astratti”; con l’avvento della meccanica quantistica questi sono divenuti molto più “concreti” e hanno ulteriormente arricchito di motivazioni la collaborazione tra fisici e matematici! A questo punto, a cosa servono gli autovettori di un’osservabile? Supponiamo di avere un autovalore dato, per fare un esempio il nostro sia una delle energie En nella (1); supponiamo poi che n sia un autovettore (può comunque non essere il solo…) dell’osservabile relativo all’autovalore En . H rappresenta nel nostro esempio l’energia dell’elettrone, inoltre la scelta della lettera H non è casuale: in meccanica quantistica, per motivi profondi su cui non posso divagare, l’operatore energia si chiama operatore hamiltoniano (o hamiltoniana) e si indica proprio con H. Un altro dei postulati della teoria è il seguente: se il nostro sistema fisico in esame è in uno stato rappresentato dal vettore , il quadrato del modulo del prodotto scalare tra e n ( indichiamo il prodotto scalare con (,n) ) è proporzionale alla probabilità di ottenere, con una misura dell’osservabile H, proprio l’autovalore En; immediatamente dopo la misura, il sistema si porta in uno stato descritto dall’autovettore n. Si otterrà esattamente tale probabilità ( cioè la costante di proporzionalità vale 1) se tutti i vettori di stato in gioco sono normalizzati, cioè (,)=1. Ho supposto qui implicitamente che n sia l’unico autovettore con autovalore En; molto spesso ciò non avviene (si parla di autovalori degeneri) e il postulato appena enunciato andrebbe corretto, ma non mi pare il caso di complicare ancora di più le cose.

E’ d’obbligo un commento a quanto abbiamo enunciato: la meccanica quantistica è, in modo clamorosamente evidente, fondata su concetti probabilistici; essa è in grado di fornire soltanto predizioni sulla probabilità di ottenere certi risultati e non è per sua natura una teoria deterministica come quelle di Newton o Einstein; per esse le equazioni del moto conducono a predizioni non ambigue sugli stati di moto futuri per un sistema, pur di conoscere lo stato di moto ad un istante dato. Nemmeno la nuova meccanica è “ambigua”: è il modo stesso di definire uno stato che comporta indeterminazioni di principio. In alcuni casi magari la succitata probabilità vale 1 (per esempio se =n..), cioè c’è la certezza che le misure forniscano risultati predeterminati, ma in generale il potere predittivo della teoria è di principio limitato. Il fisico non può che accettare questo dato, anche se molti (primo tra tutti proprio Einstein), pur avendo magari dato contributi fondamentali allo sviluppo della teoria, non hanno mai abbandonato l’idea di una teoria deterministica futura che superasse l’attuale.

Ora sarebbe il momento degli sviluppi di ciò che è stato enunciato: occorrerebbe molto spazio e molta pazienza, e si comincerebbe ad entrare nell’ottica del trattato, il che non rientra né negli scopi di una chiacchierata come questa nè nelle possibilità di chi la sta producendo. Non posso fare a meno di fornire ancora qualche suggestione su dove “va a parare” la teoria: avevo accennato alla convenienza di scegliere una base opportuna di vettori di stato per studiare un sistema quantistico e la scelta cade tipicamente su una base di autovettori di qualche osservabile. Se questa è l’hamiltoniana, si parla di rappresentazione di Heisenberg e per gli stati discreti i vettori sono normali vettori complessi anche se hanno infinite componenti, così come gli operatori sono matrici con infinite righe e infinite colonne… Un’altra rappresentazione, forse la più celebre, è quella di Schrodinger, in cui ad esempio per una particella si scelgono gli autovettori dell’osservabile posizione r. Tale osservabile è particolare perchè ha solo autovalori continui e il generico vettore di stato diventa una funzione complessa (r,t) detta funzione d’onda. La sua interpretazione fisica diventa la seguente: il quadrato del suo modulo * (l’asterisco indica il complesso coniugato) diventa la densità volumica di probabilità di misurare la posizione della particella all’istante t. Appare così un po’ più chiara quella relazione di indeterminazione trovata nel numero precedente: la posizione x di un corpo a un dato istante (riferiamoci per semplicità a una situazione unidimensionale) è una variabile aleatoria continua con una distribuzione di densità *; calcolandone la deviazione standard x e facendo analoghi calcoli per l’osservabile quantità di moto, definita anch’essa quantisticamente in modo opportuno in rappresentazione di Schrodinger, si ottiene la relazione esatta

          Dp.Dx >= h/4p

Ultimo dato informativo: l’equazione agli autovalori (2) per l’hamiltoniana nella rappresentazione di Schrodinger diventa un’equazione differenziale alle derivate parziali rispetto a x,y,z e t ed è la celebre equazione di Schrodinger, che, risolta, fornisce autovalori ed autovettori (chiamati qui autofunzioni)dell’osservabile energia.

Ho tralasciato in questa breve esposizione molti elementi fondamentali della teoria, come ad esempio il legame con la fisica classica, che è assolutamente non banale e di grande interesse per capire fino in fondo i principi della nuova meccanica; mi sembra però di avere fornito un numero sufficiente di elementi e mi fermo senz’altro qui, rimandando ad alcuni testi fondamentali indicati qui di seguito per eventuali approfondimenti.

DOTT. PROF. GIORGIO CELLAI 
Docente di ruolo Liceo Scientifico di Volterra

W. Heisenberg: “I principi fisici della teoria dei quanti”; ed. Boringhieri.

P.A.M. Dirac: ” Iprincipi della meccanica quantistica”; ed. Boringhieri.

M. Born: “Fisica atomica”; ed.Boringhieri.

L. Landau, E. Lifsits: “Fisica teorica 3:Meccanica quantistica”; Editori riuniti.