domingo, 29 de enero de 2012

La realidad cuántica

"Procura, pues, desviar tu corazón de lo visible y traspasarlo a lo invisible..."
Tomás de Kempis (siglo XV)

En la serie de posts "Entendiendo la mecánica cuántica" (partes I, II, III y IV) hemos repasado los hechos básicos de la teoría cuántica. En este post pretendo tratar, brevemente, las implicaciones filosóficas de la teoría, fundamentalmente respecto a la noción científica de realidad.

Realismo físico y objetividad
La postura respecto a la realidad de la mayoría de científicos consiste en postular que la naturaleza posee una realidad objetiva independiente de nuestras percepciones o de nuestros instrumentos, de modo que el objeto de la ciencia es describir esa realidad objetiva. Por otra parte las teorías platónicas sostienen que la realidad nunca podrá entenderse por ninguna teoría basada en la experiencia.

La postura científica expuesta usa el concepto de objetividad: es objetiva toda afirmación que sea válida para cualquier observador. Esta definición tiene alguna ambigüedad, ya que recurre a un observador, en principio un ser humano, para poder definir la realidad objetiva; esto pone al observador en una posición privilegiada como el validador de la realidad, y además obliga a distinguir entre observadores válidos y no válidos, por ejemplo exigiendo que tengan sentido común para entender lo observado. Por ello llamaremos objetividad débil a esta definición.

El principio de objetividad fuerte postula que toda afirmación respecto a la naturaleza debería ser independiente de los observadores, en el sentido de que no hará ninguna referencia a ellos, no los necesita. Ésta es la postura mayoritaria en la ciencia: las leyes de la ciencia describen la naturaleza en términos de objetividad fuerte.

La realidad fragmentada de la ciencia clásica
Es también habitual en la ciencia tener la visión analítica del Universo en la cual éste se descompone en un número inmenso de elementos simples, que pueden estudiarse por separado. Cada elemento ocupa en cada instante de tiempo un lugar definido en el espacio, y puede interactuar con los otros elementos de forma predecible. Es una visión atomista que llamaré postulado de la fragmentabilidad. Por ejemplo la teoría de campos electromagnéticos de Maxwell postula que un campo tiene unos valores en el tiempo y en el espacio que pueden cambiarse "aquí y ahora" sin afectar a los valores del campo en posiciones suficientemente lejanas, y por tanto sostiene la fragmentabilidad de la realidad.

Es interesante señalar que la fragmentación que propone la ciencia analítica probablemente esté relacionada con el funcionamiento básico de nuestra mente, que trabaja fundamentalmente así, descomponiendo la realidad en objetos independientes. Escribí sobre esto en un post anterior: ¿La mente está orientada a objetos?

Entonces, podríamos aventurar que la ciencia ha sido como es, con una visión fragmentada de la realidad, debido a que nuestra mente trabaja de forma natural de esa forma; esto es importante, pues la realidad en sí no tiene porqué ser fragmentable, con lo cual la ciencia nos estaría ofreciendo una visión distorsionada de la realidad. Probablemente es esto lo que sucedió hasta el descubrimiento de la Física cuántica, que nos forzó a revisar nuestro concepto, firmemente establecido hasta ese momento, de un Universo compuesto por fragmentos relativamente independientes.

Los límites de la fragmentación de la materia: Leibniz y Kant
El razonamiento filosófico ya hace milenios que trabajaba con el concepto de fragmentación de la realidad, de sus posibilidades y límites. Por razonamientos puramente filosóficos, Demócrito ya postuló los atomos, que consideró indivisibles e indestructibles, como componentes básicos de la materia, y desde el siglo XIX que sabemos que estuvo acertado en general, ¡2300 años más tarde! El proceso por el que llegó a tal conclusión en parte seguro que fue empírico, en el sentido de que observó las incesantes transformaciones de la materia, y como se formaban nuevas sustancias a partir de combinaciones de otras, en un proceso contínuo. Una forma eficaz de explicarlo era postulando los átomos como constituyentes de todo, y toda materia estaría formada por las virtualmente infinitas combinaciones posibles de esos átomos.

Claro que, con los átomos, también persistía un problema filosófico: ¿qué los hacía indestructibles? ¿Por qué tenían que serlo? ¿De qué estaban constituidos para ser eternos e indestructibles?

En la teoría filosófica conocida por la monadología de Leibniz (para ver el razonamiento completo teneis por ejemplo el post substancias simples y compuestas) se postula que todo es compuesto o simple (indivisible), y por un razonamiento lógico se infiere que "toda substancia simple ha de se inmaterial y por tanto espiritual". En cambio Kant usando el mismo postulado  concluye que incluso las partes simples también deben ocupar un espacio, y siendo el espacio siempre divisible,  lo simple será divisible, y por reducción al absurdo, concluye que no existen las sustancias simples indivisibles.

La función de onda cuántica, ¿podría ser la "substancia simple" filosófica?
A principios de siglo XX lo indivisible creíamos que era el átomo, pero posteriormente los aceleradores de partículas han sido capaces de romper cualquier elemento constituyente de la materia, átomos, núcleos, partículas, todo. Así que parecía que era Kant quien tenía razón: no hay substancias simples indivisibles.  ¿Queda algo indivisible? Lo que nos queda como indivisible es algo sutil, como no  podía ser de otra manera: las funciones de onda cuánticas (ver si es necesario Entendiendo la mecánica cuántica III), que son a mi parecer los candidatos actuales a "substancias" simples, no materiales, indivisibles, espirituales según Leibnitz. Por combinación de funciones de onda  se forman estados compuestos, los cuales a su vez se combinan infinidad de veces para formar los objetos de nuestro mundo macroscópico habitual.

Además, las funciones de onda invalidan  la argumentación de Kant, según el cual las partes simples deben ocupar un espacio y por tanto serán divisibles, pero con las funciones de onda cuánticas es justamente al contrario: su caracter es no-local, ocupa todo el espacio, y por ello no puede ser dividido.  En cambio los estados compuestos por superposición de ondas, como más complejos son, más localizados en el espacio están; en el límite macroscópico estan muy localizados.

Se puede objetar que la función de onda es meramente un instrumento matemático sin existencia real y por tanto no puede ser considerada como el componente básico de la materia. Ésta es una confusión típica: la función de onda efectivamente tiene una expresión matemática que usamos para los cálculos, pero a la vez es la conceptualización de algo real que está allí, con lo que se puede interactuar en el laboratorio, y de hecho el nacimiento de toda la teoría cuántica fue experimental, no teórico ni filosófico. Se encontró que la naturaleza del mundo subatómico era no fragmentada.


Los límites de nuestro conocimiento de la realidad
Tenemos que toda la ciencia, excepto la Física cuántica, usa el postulado de la fragmentabilidad, y supone tambien cierto el principio de objetividad fuerte. El mundo cuántico no respeta ninguno de estos postulados: la no localidad implica la no fragmentabilidad, y además pierde sentido la noción de observador independiente de lo observado, pues la función de onda cuántica del objeto se superpone con la del observador, son no separables. Es por estas razones que se suele decir que no podemos entender realmente la Física cuántica. La forma "estándar" de afrontar esta "extrañeza" del mundo subatómico es la conocida por interpretación de Copenhague que nos dice que renunciemos a tener más conocimiento de la realidad más allá de la probabilidades que permite calcular la matemática de la mecánica cuántica. Han habido numerosas objeciones y contrapropuestas a esta concepción, entre las cuales destacaré la de David Bohm (en este blog he tratado de su teoría en diversas ocasiones).


Realismo no físico y teoría cuántica de campos
Recapitulando, tenemos que la ciencia ha conseguido analizar y dividir la materia hasta un grado impresionante (recordemos que un átomo tiene un tamaño típico de 10⁻⁸ cm, y que su núcleo es 10.000 veces menor), pero en ese proceso de división y análisis de los fragmentos resultantes, ¡ha llegado a perder los fragmentos! En efecto, las partículas muestran propiedades ondulatorias, lo cual implica que estan dispersadas por el espacio, ilocalizables, y lo que es peor, con posibilidad de interactuar instantáneamente desde lugares arbitrariamente alejados, algo más bien inconcebible según la ciencia clásica.

En un campo cuántico localmente se producen partículas, más o menos estables, que interactúan con la radiación y con elpropio campo.¿Qué son estas partículas realmente? Recordemos que son los constituyentes de toda la materia que nos rodea (y que nos forma). Pero por otro lado tenemos que, cuando estan aisladas, se deslocalizan, y sólo adquieren una posición cuando interactuamos con ellas en el proceso llamado medición. Dicho sea de paso, también hay teorías que relacionan este proceso de localización con la conciencia del sujeto que realiza la medición. La medición proporciona magnitudes, pero debido al principio de indeterminación, no podemos obtener el conocimiento simultáneo de ciertos pares de magnitudes, como la posición y la velocidad. Entonces cuando interactuamos con la partícula, sólo podemos obtener un conocimiento limitado de ella, de forma que para el experimentador tal partícula se reduce a algunas magnitudes denominadas observables, que estan relacionadas con propiedades, pero ¿propiedades de qué?

Campo cuántico: partículas = modos locales
En los anteriores posts hemos hablado de la mecánica cuántica a un nivel básico; modernamente se ha desarrollado la teoría, y se han formulado variantes especializadas. La más general es la teoría cuántica de campos. En esta teoría, bien fundamentada en la actualidad, una partícula no es más que una propiedad de una realidad inmaterial, un modo de vibración de un "algo" subyacente, informe e ilimitado, que matemáticamente representamos con un campo: una regla de correspondencia que asigna unos valores a cada punto del espacio-tiempo. Vemos así que la investigación, lejos de resolver la pérdida de la objetividad y la localidad, al contrario, disuelve aún más los componentes de la materia considerándolos meramente propiedades observables de una realidad inmaterial que se extiende por todo el espacio. El gran reto de la Física del siglo XXI consiste en conseguir que esta teoría abarque a la gravedad y la relatividad general; es opinión generalizada que la gravedad debe ser cuantizada, y por tanto también el espacio-tiempo.


Ser
Recreación artística del ser ocupando todo
La física a partir del siglo XX nos ha mostrado que el objeto no es el ser. Ya se había filosofado sobre este tema ampliamente en la antigüedad; lo que no podían prever los filosófos es que finalmente se solucionaría la cuestión (metafísica) del ser y su materialidad o inmaterialidad de la mano de una ciencia experimental. Por esta razón creo (siguiendo a Bernard d'Espagnat) que hoy en día no se puede pensar sobre el mundo y su realidad para formarse una idea no superficial sin un conocimiento de la Física. Además el ser es no-separable y ocupa todo el espacio. Es curioso constatar en este punto la semejanza con ciertas concepciones místicas y de las filosofías orientales, que desde la antigüedad postulan que sólo hay un único ser; alguna cosa al respecto he escrito en el post Mística y ciencia. Quizá estas conclusiones no sean del agrado de ciertas mentes analíticas, en las que está instalado el materialismo, pero es lo que hay, o quizá mejor será decir es lo que és.



Bibliografía

  • Bernard d'Espagnat: En busca de lo real. Alianza Universidad.
  • Henry Margenau: La naturaleza de la realidad física. Tecnos.

sábado, 21 de enero de 2012

Entendiendo la mecánica cuántica (IV)

"Su teoría es disparatada, pero no lo suficientemente disparatada para ser verdad."
Niels Bohr

En los tres post anteriores de este monográfico de mecánica cuántica vimos la dualidad onda-partícula, la cuantización de la energía, el principio de incertidumbre y el colapso de la función de onda. Ahora trataremos sobre cuando tenemos que aplicar la mecánica cuántica y cuando la clásica, veremos el principio de exclusión y sus consecuencias, y la misteriosa propiedad de "no localidad" que presenta el mundo cuántico. Con todo este material podremos discutir las profundas implicaciones que tiene la teoría cuántica en la comprensión de la realidad física.

El mundo clásico como límite del cuántico
De lo dicho hasta ahora, ondas de probabilidad, cuantización, principio de incertidumbre, parece seguirse que el mundo de lo muy pequeño sigue unas leyes diferentes de nuestro mundo habitual, pero no es así. De la misma forma que la teoría de la relatividad tiene efectos despreciables a velocidades muy inferiores a la de la luz, pero va cobrando importancia cuando consideramos velocidades mayores, también ocurre lo mismo con la mecánica cuántica, que tendrá efectos progresivamente más importantes a medida que los objetos que consideramos se reducen en masa y tamaño.

Por ejemplo, consideremos el principio de incertidumbre de Heisenberg que mencionamos en la parte III, que como decíamos prohíbe el conocimiento simultáneo de ciertos pares de magnitudes, como la posición y la velocidad. Matemáticamente podemos expresarlo en la forma

donde x es la posición, p es la cantidad de movimiento (que es igual al producto de la masa m por la velocidad v) y \hbar es la constante de Planck h dividida por 2π, que en el sistema internacional de unidades tiene un valor de 6,6·10⁻³⁴ J·s .  Observemos que la fórmula relaciona las incertidumbres de las magnitudes, de ahí los símbolos en forma de triángulo Δ. La constante h tiene un valor realmente pequeño: pensemos en un grano de arena fina, de diámetro 0,06 mm y 0,67 mg de peso, y con una indeterminación (error de medición) del 1%;  con estos valores la fórmula nos dice que la indeterminación en la velocidad  del grano de arena es de 7·10⁻²³ metros por segundo, o sea 0,00000000000000000000007 m/s,  un error absolutamente despreciable. Dicho de otro modo, podemos determinar la velocidad del grano de arena con una precisión prácticamente del 100% (del 99,99999999999999999999993%). También podemos visualizar lo pequeño de este error en la determinación de la velocidad pensando que un objeto que se moviese a 7·10⁻²³ m/s tardaría en avanzar un milímetro... ¡unos 5.000 millones de años!

Por otra parte si consideramos un electrón, moviéndose en una órbita de diámetro de dimensiones 10⁻⁸ cm, con una masa 9·10⁻²⁸ gramos, nos resulta una incertidumbre en la velocidad de unos 10⁶ metros por segundo, esto es ¡1000 kilómetros por segundo! Dicho de otra manera: si determinamos la posición no podemos tener ni idea de la velocidad del electrón.

Paquetes de ondas, estados cuánticos puros y compuestos

Paquete de ondas: hay oscilación apreciable
sólo en una región Δx, fuera de ella es
despreciable.
La relación de incertidumbre puede expresarse gráficamente imaginando que una partícula cuántica es una superposición de ondas tal que produce un paquete de ondas, una onda que tiene amplitud distinta de cero solo en cierta región pequeña del espacio; esta región se mueve con el tiempo, y podemos imaginar que se corresponde con la posición de la partícula, de hecho la partícula es el paquete de ondas. La indeterminación en la posición se corresponde con la anchura del paquete. En la figura la línea de puntos roja delimita la envolvente del paquete,  que se desplaza por el espacio con la denominada velocidad de grupo del paquete.

Superposición de ondas

Matemáticamente los paquetes de onda se forman por superposición de ondas distintas que interfieren entre sí.  Físicamente se denominan estados puros a las ondas componentes que al combinarse forman los estados compuestos, representados por paquetes de ondas. Cada estado puro tiene asociada una función de onda cuántica, y el estado compuesto es la suma de funciones de onda.
Hay una relación entre estos estados y el proceso de medición: si en un sistema en estado puro se efectúa una medición, el sistema pasa a estar en un estado compuesto: la medición destruye el estado puro. Por ejemplo  un electrón libre, antes de efectuar mediciones,  está en un estado puro, con una función de onda "simple" que se extiende por todo el espacio; en el momento de medirlo le forzamos a comportarse como partícula, con lo cual se convierte en un paquete de ondas localizado que es una mezcla de estados puros.


De la mecánica clásica de Newton a la mecánica cuántica
La ecuación fundamental de la mecánica de Newton relaciona la masa m  y la aceleración a de una partícula con la fuerza F que la impulsa, variable según la posición x:

F(x) = m·a(x) = m·d²x/dt² ,

donde hemos expresado la aceleración como la segunda derivada de la posición. Por otro lado la dinámica cuántica está determinada por la ecuación de Schrödinger que es

Hφ = i·h·dφ/dt,

donde φ es la función de onda de la partícula, relacionada con la probabilidad de encontrarla en una cierta posición,  H es el operador de Hamilton, relacionado con la energía de la partícula, y dφ/dt es la variación de φ con el tiempo. Con un poco de matemáticas que no detallaremos, esta ecuación se transforma en

F(X) = m·A(X) = m·d²X/dt²,

idéntica a la de Newton pero con los parámetros X, A que representan los valores medios de la posición x y la aceleración a. Esto tiene sentido pues trabajamos con probabilidades. Cuando lo aplicamos a un objeto grande, la onda tiene una posición definida y una probabilidad cercana al 100% de estar en esa posición, así que el valor medio coincide con el valor observado. De esta forma la mecánica clásica trabaja con valores medios muy estables y definidos, mientras que en la cuántica los valores oscilan según marcan las probabilidades dadas por la función de onda.

Evolución del paquete de ondas con el tiempo
Decíamos que el operador H está relacionado con la energía; supongamos que ésta sea constante, o sea independiente del tiempo. Entonces la ecuación de Schrödinger  que describe la evolución con el tiempo de la onda φ(x,t) al resolverla nos dice que, si el paquete de ondas está libre (no confinado), se irá expandiendo hasta ocupar todo el espacio, dejando de ser un paquete de ondas para convertirse en una onda libre. A este fenómeno se le llama difusión del paquete de ondas. En la práctica significa que, después de haber localizado una partícula con una medición, al pasar el tiempo la partícula vuelve a exhibir un comportamiento ondulatorio y le perdemos la pista: ya no podemos predecir su posición en el futuro, sólo la probabilidad de que esté en una posición.


Expansión de una función de onda libre con el tiempo t: inicialmente la probabilidad de
encontrar la partícula está confinada a una región estrecha, pero la evolución con
el tiempo predicha por la ecuación de Schrödinger va ampliando la región y finalmente
ocupará todo el espacio.


El principio de exclusión
Números cuánticos
El principio de exclusión fue descubierto por Pauli en 1925, resolviendo muchos problemas técnicos importantes de la época como por ejemplo  los detalles de la estructura atómica o de la valencia química. Pauli descubrió el principio en relación a los electrones, enunciando que no más de dos electrones de un átomo no pueden tener el mismo estado de movimiento. Este “estado” se definía en esa época con tres números, los números cuánticos: la distancia al núcleo (n), la medida de su momento angular (l) y un número que mide la orientación de la órbita del electrón en el espacio(m). En la figura se ilustra como afectan a la órbita los números l y m para un n fijado.

Así, en el Helio sus dos electrones tienen el estado (n,l,m)=(1,0,0), mientras que en el Litio, con tres electrones, no podemos tener el tercer electrón en el mismo estado (1,0,0), ha de ocupar el siguiente estado libre.

Posteriormente se añadió un cuarto número cuántico para describir la rotación del electrón alrededor de su propio eje, el denominado espín (s), con lo que el estado quedó definido por (n,l,m,s). De este modo, el principio de exclusión adoptó una forma más precisa: dos electrones de un átomo no pueden tener el mismo  conjunto de números cuánticos (n,l,m,s). En esta formulación, el principio permitió avanzar en el conocimiento de la estructura electrónica de los átomos, en el fundamento de la valencia química y en la espectroscopia y el magnetismo.

¿Pero porqué solo afecta a los electrones de un núcleo? Imaginemos que dos átomos están “cerca” (como sucede cuando forman una molécula), ¿como sabe un electrón que ha de obedecer al principio de “su” átomo y no al del vecino? Lo que sucede en realidad es que en este caso de proximidad de dos átomos se formulan números cuánticos relativos al conjunto de átomos, que son diferentes al de un átomo aislado, y el principio de exclusión se aplica entonces a todos los electrones en conjunto.

Otra generalización posterior estableció que la exclusión afecta a todas las partículas elementales que pertenecen a la clase denominada fermiones, los cuales son los constituyentes básicos de la materia; no se aplica en cambio a la otra clase existente de partículas, los bosones, que actúan como portadoras de fuerzas (por ejemplo es un bosón el fotón, el componente cuántico de la luz).

Cuasifuerzas y antisimetria
El principio de exclusión junto con la repulsión eléctrica impide que los átomos se interpreneten, ya que cunado los números cuánticos están ocupados por electrones ya no podemos añadir ninguno más. Esto sugiere que está en juego alguna fuerza repulsiva.

Usando funciones de onda y probabilidades, sean dos partículas materiales A y B con funciones de onda u(A) y v(B) . Las probabilidades de encontrar A y B  en las posiciones x(A) y x(B)  vienen dadas por u²(A) y v²(B) respectivamente. Según las reglas usuales de las probabilidades, la probabilidad de encontrar A en x(A) y B en x(B) simultáneamente es el producto de probabilidades u²(A)·v²(B) siempre que A y B sean independientes. Entonces si consideramos A y B como un sistema único de dos partículas, su función de onda sería

w(A, B) = u(A)·v(B)

Pero esta función conjunta de A y B no satisface el principio de exclusión, o sea que la naturaleza no se comporta así con las partículas materiales; hay que modificar la función para que adopte esta otra forma:

w(A,B) = u(A)·v(B) - u(B)·v(A)

Si las partículas A y B fueran idénticas en el sentido de tener el mismo estado  u(A) = v(B), es fácil ver que w(A,B) = 0 y por tanto la probabilidad de encontrar el sistema en cualquier posición sería cero. Esta es otra forma de enunciar el principio de exclusión. La función w(A,B) se dice que es antisimétrica debido a que si intercambiamos A y B obtenemos w(B,A) = - w(A,B).

Probabilidades de los estados de un sistema
de dos partículas que obedece al principio de
exclusión: en la diagonal estan los estados
idénticos con probabilidad nula, y en los
extremos los estados totalmente distintos con
mayor probabilidad.
Fijémonos en el detalle de que en la ecuación las partículas A y B se intercambian sus funciones u y v. Además, en cuanto a probabilidades, la fórmula implica que A y B no son independientes, hay una interacción entre A y B. Además, usando las expresiones de las funciones de onda en w(A,B) y realizando operaciones se llega a que es imposible (probabilidad = 0) que las partículas lleguen a juntarse, y tampoco pueden tener la misma velocidad. Así, dos partículas en principio libres se "evitan" entre sí, y el efecto parece que sea una fuerza de repulsión. Pero hay un detalle sutil: no podemos incorporar esa fuerza a la función de onda de la partícula, surge de la antisimetría impuesta por el principio de exclusión.
Podemos comparar el concepto con el de la fuerza de la gravedad en la teoría de la relatividad general: surge como consecuencia de la geometría del espacio-tiempo. Por esto las llamamos "cuasifuerzas". Tanto la cuántica como la gravedad, ¡se deducen de propiedades matemáticas!

 La "no localidad"
Podríamos pensar que los efectos del principio de exclusión son locales, en el sentido de que tiene efecto sólo cuando las partículas están cercanas; han habido intentos de explicar este principio cuántico y los demás acudiendo a teorías de variables locales "ocultas", que explicarían todo en términos de interacción local (cercana) pero que no hemos podido detectar aún (ocultas).

Pero no es así: el físico John S. Bell enunció y demostró su teorema que viene a decir:

"Ninguna teoría física de variables ocultas locales puede reproducir todas las predicciones de la mecánica cuántica"

El teorema implica que debemos aceptar que hayan interacciones a distancias arbitrarias entre partículas cuánticas, y estas interacciones han de ser instantáneas. Para entender la implicación de esta afirmación, supongamos que dos partículas que forman un sistema con función de onda w(A,B) (técnicamente diremos que tienen entrelazamiento cuántico) empiezan a separarse una de otra a toda velocidad, y eventualmente llegan a estar separadas por kilómetros de distancia; a pesar de ello, siguen formando un sistema entrelazado, de tal manera que ciertas mediciones efectuadas en una de las partículas, ¡afectaran instantáneamente a la otra! Esto será así independientemente de la distancia que las separa. Este hecho fue confirmado por Alain Aspect en una serie de experimentos.

Conclusiones
En los cuatro posts de esta serie dedicada a entender la mecánica cuántica hemos expuesto con un mínimo de matemáticas los fundamentos de la teoría. El próximo post será "menos físico" y más "filośofico", en el sentido de intentar mostrar las implicaciones de toda la teoría de cara a nuestro conocimiento de la realidad física.

sábado, 14 de enero de 2012

Entendiendo la mecánica cuántica (III)

"Dios no juega a los dados con el universo"
"Einstein, deje de decirle a Dios lo que tiene que hacer"
Niels Bohr, respondiendo a Einstein.



En la primera parte vimos los experimentos que llevaron a la idea de la dualidad onda-partícula, y en la segunda parte vimos porqué necesitamos la cuantización de la energía para entender la estabilidad de los átomos y el equilibrio entre materia y energia. Estas dos teorías, dualidad  y cuantización, parecen independientes, pero podemos relacionarlas, con lo cual obtendremos mayor comprensión.

Ondas libres y ondas estacionarias
Onda material libre (fuente: Wikipedia)
Una onda material, como por ejemplo las ondas en la superfície del agua, transmite un movimiento oscilatorio a las partículas a la que afecta, determinando la amplitud y la frecuencia de la oscilación. En la figura vemos una onda "cortada" en la dirección de propagación; la partícula se representa por el punto azul. Estamos suponiendo que la onda no encuentra ningún obstáculo para propagarse y que además no se atenúa.

Onda estacionaria (fuente:http://electron9.phys.utk.edu
Cuando la onda está confinada en un recipiente (pensemos en una piedra que dejamos caer en una balsa de agua) no puede propagarse libremente sino que rebota contra las paredes y retrocede; entonces los frentes de onda que retroceden interfieren con los que avanzan. Dependiendo de los parámetros en juego (dimensiones del recipiente, longitud de onda=distancia entre crestas) puede darse el caso de que la interferencia produzca oscilaciones estacionarias, en las que cada punto oscila siempre con una amplitud que va desde cero hasta un máximo.

A diferencia de las ondas libres, en las que todos los puntos oscilan con la misma amplitud, en la onda estacionaria hay puntos, denominados nodos, en los cuales la amplitud es cero, esto es, quedan inmóviles. El número de nodos también depende de los parámetros del sistema oscilante. Es un fenómeno bien conocido (y aprovechado) en acústica y en los instrumentos musicales, tanto de cuerda como de viento; en los instrumentos de viento las vibraciones son del aire, dentro de los tubos del instrumento, que hacen el papel de recipiente.

Las ondas estacionarias también pueden producirse con campos electromagnéticos; en este caso ya no podemos visualizar partículas oscilando, son los propios campos eléctrico y magnético los que oscilan, podiendo confinarlos en un recipiente aislante (dieléctrico). Una aplicación técnica son las guías de onda que mediante ondas estacionarias confinadas en una estructura  permiten transmitir señales electromagnéticas con una baja disipación.

Ondas estacionarias de probabilidad
Volvamos a la mecánica cuántica: recordemos que la dualidad onda-partícula se resolvió matemáticamente postulando que cada partícula tiene asociada una onda que nos permite calcular la probabilidad de que la partícula se encuentre en una posición en cada instante, esto es, una onda de probabilidad. La evolución temporal de esta onda viene dada por la ecuación de Schrödinger.

Para una partícula confinada en un recipiente, la solución de la ecuación produce probabilidades nulas para ciertas posiciones; podemos comparar la situación con las ondas estacionarias: es como si la onda de probabilidad "rebotara" en las paredes e interfiriera consigo misma, creando nodos estacionarios con amplitud de onda nula, que equivale a decir con probabilidad nula de que la partícula se sitúe en los nodos.

Si consideramos que el átomo es una forma de confinamiento de los electrones que contiene, tenemos que el electrón no podrá ocupar cualquier posición (órbita) sino sólo las permitidas por las ondas estacionarias de probabilidad que se generan al confinarlos. Es una explicación de porqué sólo se permiten ciertas órbitas electrónicas (y las energías asociadas) en los átomos. Esto nos permite relacionar las ondas de probabilidad que modelan las ondas-partículas con la cuantificación de la energía del átomo. Claro que en el caso de las ondas de probabilidad todo es más abstracto, como veremos a continuación.

Función de onda y su colapso en la medición
Pero, ¿qué es una onda de probabilidad? Es un ente matemático abstracto, que se denomina función de onda \psi(x,t)\,,  un vector pero no de números reales sino de funciones definidas en un espacio de Hilbert H que representa los posibles estados físicos de la partícula o del sistema de partículas en consideración. La probabilidad de encontrar la partícula en un estado (posición, velocidad, energía, ...) se encuentra calculando el módulo del vector \psi(x,t)\,. El aparato matemático puede asustar un poco al no especialista, pero el concepto sí podemos tenerlo claro: se trata de reflejar matemáticamente la realidad experimental, que hemos visto que es extraña, con partículas sin trayectoria definida interfiriendo consigo mismas como si fueran ondas distribuidas por el espacio.



Colapso de la función de onda: al efectuar
una medición, por ejemplo de la posición,
la función de onda reduce su extensión al
punto resultado de la medición, "forzando"
a la partícula a tomar ese estado definido.
Un aspecto importante de la función de onda es que, como decíamos, nos da la probabilidad de encontrar al sistema en un cierto estado; pero para "encontrar" algo debemos buscarlo, y en este contexto esto equivale a realizar una medida sobre el sistema, para saber su posición, velocidad, energía, etc. Pues bien, al medir forzamos al sistema, que hasta ese momento estaba indefinido, pues sólo sabíamos de él por su función de onda, o sea por probabilidades, lo forzamos a definirse; ya no hay probabilidades, sino valores resultado de la medición. Si no tenemos probabilidades, no tenemos función de onda, se colapsa.
Por ejemplo, si medimos la posición de la partícula, la función de onda dispersa por todo el espacio colapsa para producir un valor de la posición. Por ejemplo, en el experimento de la doble rendija que consideramos en la primera parte para presentar la dualidad onda-partícula, la función de onda colapsa cuando la onda llega a la pantalla, ya que la obligamos a definir la posición en que la partícula choca con la pantalla.

El colapso de la función de onda ha traído numerosas interpretaciones y consecuencias que repasamos a continuación.

El principio de incertidumbre
Una consecuencia de la medición y su efecto en la función de onda es que las propiedades que estamos acostumbrados a medir en nuestro mundo macroscópico no existen realmente, en el sentido de que no están definidas hasta que las medimos. Pero al medir colapsamos la función de onda, lo cual implica que nos quedamos sin la información que nos daba del estado del sistema, de hecho solo nos queda la magnitud medida. Por ejemplo, si medimos la posición de una partícula, perdemos todos los restantes parámetros como velocidad o energía; si medimos la velocidad, entonces sólo tendremos la velocidad, etc. Este principio, enunciado originalmente de una forma distinta, se debe a Heisenberg. Implica por tanto que nuestra capacidad de conocer el estado físico de un sistema está seriamente limitado. Más específicamente, prohíbe el conocimiento simultáneo de ciertos pares de magnitudes, como la posición y la velocidad.


La paradoja del gato de Schrödinger
Paradoja del gato de Schrödinger (Wikipedia)
Esta famosa paradoja surge cuando intentamos relacionar la función de onda, aplicable al microcosmos, con nuestro macrocosmos, y tiene que ver con los límites de aplicabilidad de la mecánica cuántica y el colapso de la función de onda. Imaginemos una habitación cerrada dentro de la cual situamos material radioactivo, un detector de radiactividad, un poderoso gas venenoso, y un gato.
El detector se activa cuando el material radioactivo emite radiación, cosa que puede suceder inmediatamente o después de un cierto tiempo, no podemos predecirlo pues es un fenómeno cuántico regido por su función de onda. El detector está conectado con una válvula que se abre cuando detecta radiación, dejando salir el gas venenoso y matando al pobre gato. No podemos ver el interior de la habitación pues está cerrada y no tiene ventanas.

En un momento dado, el que el gato esté vivo o muerto nos es desconocido, y depende enteramente de la función de onda del material radioactivo: si el detector mide radiación, se produce el colapso de la función, hay un estado definido, y el gato muere. Lo paradójico es que mientras esto no suceda, la función de onda está indefinida, y de hecho es una mezcla de estados posibles, algunos de los cuales implican que el gato está vivo, y otros implican que está muerto. De hecho según la mecánica cuántica el estado del gato está indefinido, como una "onda de probabilidad de estar vivo". Este hecho matemático se uso por los detractores de la mecánica cuántica como un argumento a favor de que la teoría está incompleta, pues produce paradojas.

Algunas interpretaciones del colapso de la función de onda
¿Qué más implica el colapso de la función de onda? Hay varias interpretaciones. La más pragmática seria decir que la función es un objeto matemático que nos da información en forma de probabilidades, de forma que cuando realmente medimos y conocemos el valor exacto, la función ha de desvanecerse pues ya no tenemos la información exacta; esta forma de verlo renuncia a dar un significado físico a la función de onda, sólo es una construcción matemática, y se la conoce como interpretación de Copenhague.

Desde otro punto de vista, la función de onda tiene un significado físico, pues puede causar interferencias, ondas estacionarias, etc., que afectan al estado real del sistema, produciendo las figuras de interferencia del experimento de la doble rendija o los niveles de energía cuánticos. Sería como el campo electromagnético, que no consideramos un objeto abstracto sino algo real con lo que se puede interactuar. Entonces ese ente físico que es la función de onda, que evoluciona según una ley física modelada por la ecuación de Schrödinger, colapsa por nuestro acto de medir: nuestra decisión de medir la posición produce una posición, si lo que decidimos es medir una velocidad entonces producimos una velocidad. De ahí que hayan interpretaciones  (Von Neumann, Wigner) que defienden la importancia de la conciencia en el acto de medir y colapsar la función de onda.

Interpretación de los muchos universos
de la paradoja de gato de Schrödinger:
el gato vive en unos universos y muere
en los otros (Wikipedia)
Aún otro modo de verlo es la interpretación de los muchos mundos, que sostiene que realmente la función de onda no se colapsa realmente, sino que en nuestro universo produce un resultado de la medida pero sigue existiendo en infinitos universos paralelos en los que no se ha realizado esa medida. Puede parecer una interpretación demasiada fantástica, pero de hecho está bien argumentada y es coherente.


Conclusiones
En esta tercera entrega hemos relacionado los hechos empíricos de la dualidad onda-partícula y los niveles energéticos de los átomos usando las funciones de onda, pero nos quedan abiertos numerosos interrogantes acerca del verdadero significado de la función de onda (que es lo mismo que decir de la mecánica cuántica). En la cuarta y última entrega veremos otro misterioso aspecto de la teoría, el entrelazamiento cuántico, y intentaremos sintetizar cómo todo lo expuesto afecta a la naturaleza de la realidad física.

sábado, 7 de enero de 2012

Entendiendo la mecánica cuántica (II)

"Todo son átomos, los objetos, el aire entre ellos, nosotros mismos. Están ahí en cantidades inconcebibles"
Richard Feynman

En la primera parte veíamos uno de los hechos experimentales que condujo al establecimiento de la mecánica cuántica: la dualidad onda-partícula. En este artículo veremos otro hecho: los niveles de energía.

La materia emite y absorbe energía
Fig. 1. Lava emitiendo radiación
en la frecuencia visible
rojo-amarillo debido a la
alta temperatura del fluido
Todo objeto material que tenga una temperatura superior al cero absoluto emite energía en la forma de radiación electromagnética, y también la absorbe del medio; cuando la cantidad de energía radiada es igual a la absorbida, el objeto está en equilibrio térmico con su entorno. Una de las características de la radiación electromagnética es su longitud de onda, que es menor cuanta más energía transmiten. A temperatura ambiente la mayor parte de la radiación emitida es de gran longitud de onda (equivalentemente de baja frecuencia) y es invisible, pero a medida que calentamos el cuerpo aumenta la cantidad de radiación de frecuencia  visible; es el caso del fuego, del metal calentado al rojo, de la lava de volcanes, ...

Fig.2. Intensidad de radiación emitida (eje vertical)
para cada longitud de onda (eje horizontal) y
diferentes temperaturas. Se observa que hay un
máximo de intensidad a longitudes más cortas
conforme aumenta la temperatura (From Wikipedia).
Experimentalmente se observa que, para cada temperatura, se emiten radiaciones en un amplio rango de longitudes de onda, con un máximo de intensidad en una longitud característica. La intensidad emitida es más o menos la misma para todos los materiales, y tampoco depende de la forma del cuerpo. 

¿Porqué se emite esta radiación? La materia está formada por partículas cargadas, protones y electrones; además, el hecho de tener una temperatura mayor que cero significa que a nivel microscópico todo está vibrando, oscilando con mas amplitud y velocidad a medida que el cuerpo se calienta. Por otro lado tenemos que las leyes de la electrodinámica clásica  predicen que un sistema de cargas eléctricas dotado de aceleración radiará ondas electromagnéticas (y viceversa: un campo electromagnético acelerará partículas cargadas que lo atraviesen); es el principio usado, por ejemplo, en los aceleradores de partículas. Entonces dado que un movimiento vibratorio tiene un aceleración, ya sabemos porqué la materia radia energía.

Equilibrio térmico de la radiación según la Física clásica
Supongamos que tenemos una partícula cargada oscilando (y por tanto emitiendo energía) encerrada en una caja, de modo que la energía emitida se queda en la caja; al principio la partícula irá perdiendo energía (la emitida) y la caja se irá llenando con esa energía. Al cabo de cierto tiempo hay una gran cantidad de energía electromagnética rebotando en las paredes de la caja (podemos imaginar que hay espejos en las pardes), y sobre el oscilador, de forma que la partícula empezará eventualmente a absorber energía, y llegará un momento en que se igualará la energía emitida con la absorbida. En ese momento tenemos equilibrio térmico.

Usando las ecuaciones de la electrodinámica clásica, que relacionan las cargas en movimiento con los campos electromagnéticos, se puede calcular exactamente la intensidad de radiación que debe haber en la caja para equilibrarse con un oscilador cargado de frecuencia w, y resulta ser la denominada ley de Rayleigh:

I(w) = w²kT/π²c² ,

Fig. 3. Un horno es una buena
aproximación a un cuerpo
negro, mantiene gran parte
de la radiación en su interior.
donde k es una constante de la naturaleza, la constante de Boltzmann, T es la temperatura en la caja y c es la velocidad de la luz; para los interesados en los detalles técnicos de esta fórmula podéis consultar esta página. En una buena aproximación, ésta es la energía en equilibrio dentro de un horno muy caliente, y se le llama radiación del cuerpo negro; pensemos que cuando el horno está apagado si miramos desde fuera dentro se ve negro, pues la luz no escapa del interior, de ahí lo de "cuerpo negro".

Fig. 4. Intensidad de radiación de cuerpo negro según la Física clásica
El problema que tenemos es que según esta fórmula la intensidad crece contínuamente con la frecuencia, como muestra la figura 4, si la comparamos con las curvas experimentales de la figura 2 vemos que no coinciden para nada. Fijémonos en que para frecuencias w altas deberíamos tener intensidad distinta de cero incluso a temperatura T bajas; esto implica que si abrimos nuestro horno cuando está digamos a sólo 100 grados, ¡emitiría una cantidad no nula de rayos X de alta frecuencia! Esto es absurdo. Así que la ley de Rayleigh, a pesar de que "suena" bien, y los cálculos son correctos, ¡es falsa!. ¿Dónde está el error?

Max Planck sugirió que la energía radiada sólo podría ser un múltiplo de una unidad elemental, E = hf, donde h es la constante de Planck y f la frecuencia de la radiación. Con esta idea, pudo deducir la ley correcta  de radiación del calor, denominada Ley de Planck, que explica el espectro de emisión de un cuerpo negro. Así pues, la energía radiada no es una variable continua, sino discreta; hay valores permitidos y valores prohibidos.

El tamaño de los átomos
A principios del siglo XX se creía que los átomos eran esferas sólidas, con carga positiva y los electrones incrustados dentro del átomo (modelo de Thomson). En 1910 un experimento dirigido por Ernest Ruherford mostró que realmente los átomos estaban vacíos, con un minúsculo núcleo muy denso en su centro.

Los átomos son realmente diminutos: consideremos un milímetro, que viene a ser una línea así de larga: - .  Si la dividimos por 1000 obtendremos segmentos de una micra de longitud; estamos en el reino de las bacterias. Volvamos a dividir por 1000 cada segmento de una micra (equivale a dividir por un millón un milímetro), obtendremos segmentos de un nanómetro; el tamaño típico de la mayoría de virus está entre 10 y 100 nanómetros. Dividamos por 10 cada nanómetro, obtenemos diez millones de segmentos del milímetro, ésta es la escala del átomo. Para hacernos una idea, si el átomo midiera un milímetro, entonces el segmento - mediría... ¡10 kilómetros!

Si el átomo ya es diminuto, cuando consideramos su núcleo ya se nos escapa totalmente de la imaginación, pues es ¡100.000 veces menor! Si el átomo fuera del tamaño de la torre Eiffel, su núcleo mediría unos ridículos 3 centímetros, como una mosca, más o menos. Y no se terminan aquí los números enormes: el núcleo contiene prácticamente toda la masa del átomo; al tener un tamaño tan pequeño, su densidad es enorme: del orden de 10¹⁸ gramos por centímetro cúbico, esto es, un trillón de veces la densidad del agua.

Entonces vemos que un átomo es en un 99,9999999999% espacio vacío, y que la solidez que vemos a nuestro alrededor es una ilusión. Cuando tocamos algo sólido realmente no llegamos nunca a contactar nada, nos quedamos a una cienmillonésima de milímetro, pues nuestros átomos y los del sólido se repelen.

Es curioso ver que a gran escala pasa algo parecido: una galaxia vista a gran distancia parece un objeto compacto, pero realmente las estrellas que la componen están separadas por enormes distancias; si ampliamos la zona de nuestra galaxia dónde está el sistema solar, vemos que también los planetas están separados por distancias mucho mayores que sus tamaños.











La estabilidad de los átomos
Una vez establecido por Rutherford que el átomo tiene la carga positiva confinada en un núcleo minúsculo y la carga negativa, los electrones, orbitando alrededor, se plantean dos problemas: ¿cómo es que la repulsión eléctrica de los protones, las cargas positivas del núcleo, no lo rompen?, y ¿cómo es que los electrones, que son cargas eléctricas en movimiento acelerado, no radian energía electromagnética? 

En el caso de los protones, la fuerza de repulsión viene dada por la ley de Coulomb F= ke²/r² , donde e es la carga del protón y r la distancia entre protones, que hemos visto que es muy pequeña; debido a ésto, la fuerza que tiende a separar los neutrones del núcleo es millones de veces superior a las fuerzas que mantienen unidos a los átomos para formar moléculas.

En el caso de los electrones, deberían radiar energía, con lo cual la energía perdida les haría perder velocidad y acercarse al núcleo, hasta que chocarían con él... con consecuencias desastrosas para el mundo que conocemos.

Pero muy al contrario los átomos son tremendamente estables y duraderos; es más que probable que los átomos que constituyen nuestro cuerpo hayan pertenecido a millares de seres vivos anteriormente, y retrocediendo más atrás en el tiempo, habrán pasado por quizás varias estrellas.


Niveles de energía cuánticos
Otro rompecabezas de la misma época era el denominado espectro de emisión del hidrógeno: las frecuencias de la radiación electromagnética emitida cuando se calienta el gas. Los hechos eran que ciertas frecuencias estaban "prohibidas", simplemente nunca había emisión de energía en esas frecuencias.
Fig. 5. Espectro de emisión del hidrógeno:
las líneas negras señalan las
únicas frecuencias en las que se
emite la energía.

Fig.6. Transición entre dos niveles
de energía, se emite un fotón con
energía igual a la diferencia
de los niveles.
En 1913, cavilando sobre este problema y sobre la estructura del átomo, al joven investigador Niels Bohr se le ocurrió la solución: los electrones solo pueden ocupar algunas órbitas, cada una con una cierta energía; cuando un electrón emite energía, salta de una órbita a la inmediatamente inferior. Este salto es cuántico: el electrón no pasa por el espacio intermedio entre órbitas, sino que simplemente desaparece de una órbita para aparecer en otra. Por tanto sólo veremos las emisiones de energía correspondientes a los saltos entre órbitas permitidas, que son las líneas que vemos en el espectro de emisión. Además, los electrones ya no radiaran energía y caerán al núcleo, simplemente no pueden hacerlo. De alguna forma podemos ver la relación entre ésta hipótesis y la de Planck: ambas postulan que la naturaleza no permite tomar cualquier valor a la energía. 

Conclusiones
Hemos visto que la teoría cuántica explicó el comportamiento de la radiación en equilibrio con la materia, y también la estabilidad de los electrones en el átomo, recurriendo a la cuantización de la energía: sólo se permiten ciertos valores. El problema de la estabilidad del núcleo se explicó posteriormente, como veremos. También nos queda pendiente ver el porqué de esta cuantización de la energía, y qué relación tiene con la dualidad onda-partícula.



jueves, 5 de enero de 2012

Entendiendo la mecánica cuántica

"Si usted piensa que entiende a la mecánica cuántica... entonces usted no entiende la mecánica cuántica."
"No te pongas a repetir, si puedes evitarlo '¿pero cómo puede ser así?' porque te irás hacia un callejón sin salida del que nadie ha escapado. Nadie sabe cómo puede ser así.


¿Realmente es así? ¿La mecańica cuántica es imposible de entender? Paradójicamente, es la teoría física más precisa que haya creado jamás el hombre, y sus aplicaciones en la técnica son multitud: en la electrónica, en la seguridad de los datos (criptografía cuántica), la diagnosis por resonancia magnética nuclear, la química cuántica, y próximamente tendremos ordenadores cuánticos, por citar sólo algunos ejemplos. Así que podríamos decir que desconocer totalmente sus fundamentos nos lleva a un cierto analfabetismo científico. Vamos a intentar ver lo más fundamental y básico de esta teoría, y de paso ver dónde estás los problemas de comprensión (y ya se sabe que en los problemas es donde hay más oportunidades de aprender). Como el camino es largo, lo haremos por etapas: en esta primera entrega vemos la dualidad onda-partícula y sus consecuencias, en las siguientes trataremos los niveles de energía y la estabilidad del átomo, las paradojas de la mecánica cuántica, y algunas de sus aplicaciones. Empecemos.

Propagación clásica: ondas o trayectorias
Ondas en un fluido. La energía del
impacto se propaga en todas direcciones.
Una onda es un modo de propagación de una entidad física que se caracteriza por distribuirse por todo el espacio; por contra, una trayectoria es aquella propagación de un objeto en la cual en cada momento el objeto tiene una posición determinada. 
Son ejemplos ondulatorios la propagación del impacto de una piedra en la superficie de un lago, el sonido (ondas de presión en el aire), o las ondas de radio; en todos ellos a medida que transcurre el tiempo el área ocupada por la onda crece, y eventualmente podría llegar a ocupar todo el espacio. 
Trayectorias de una pelota
Son ejemplos de trayectorias la seguida por una bala que se dispara horizontalmente o una pelota de fútbol. El objeto describe una curva (una parábola en este caso, debido al campo gravitatorio), en cada instante el objeto tiene una posición, velocidad y aceleración definidas.

Las definiciones anteriores son "clásicas" en el sentido de que son excluyentes: o bien tenemos una propagación por ondas o bien por trayectorias.

Propagación dual: ondas y trayectorias
Interferencia de ondas. Una onda
se divide en dos e interfiere consigo
misma en una pantalla. Si en vez de una
onda usamos un haz de partículas, se
observa también un patrón de
interferencias ondulatorio.
Hacia 1923 se sabía que la luz, en ciertos experimentos, se comportaba como un haz de partículas, los fotones, que seguían trayectorias, mientras que en otros experimentos se comportaba claramente como una onda; había por tanto la controversia (antigua, ya que empezó con Newton y Huygens en el siglo XVII) de si la naturaleza de la luz era ondulatoria o corpuscular. En ese año se empezó a experimentar con electrones, que en principio se creía que eran partículas fundamentales. En algunos de esos experimentos se descubrió que también el electrón se comportaba de forma deslocalizada, esto es, como una onda. Este es el caso de la interferencia de ondas.

Entonces empezó a surgir la idea de que la dualidad onda-trayectoria no se limitaba a la luz, sino que podía ser una característica de las partículas muy pequeñas. En efecto, experimentos posteriores confirmaron las propiedades de propagación por ondas para otras partículas materiales, como el neutrón;  incluso objetos no tan pequeños, como átomos y moléculas enteros, ¡mostraban propagación ondulatoria!. 

Entendiendo qué es la dualidad
Interferencia de electrones. Un haz de
electrones se dirige a la pared con dos
orificios; variando la distancia entre ellos
se obtienen diferentes patrones de
interferencia ondulatorios.
Así, tenemos que en ciertas condiciones una partícula se comporta tal como nos imaginamos a una partícula, con una trayectoria definida, pero si montamos un experimento en el que un haz de partículas se divide, no obtenemos dos haces, los cuales producirían  en la pantalla dos puntos separados donde impactaría cada uno, sino que los haces interfieren entre sí, y las partículas van impactando en diversos lugares de la pantalla, de forma que finalmente se forma un patrón de impactos idéntico al que obtendríamos en un experimento con ondas. 
Formación de un patrón de interferencia
de partículas cuánticas: conforme van llegando
a la pantalla se van descubriendo las zonas
con diferentes frecuencias de impacto
Además, esta interferencia no depende del tiempo: si lanzamos las partículas una a una, y observamos donde impactan en la pantalla, obtenemos el mismo patrón: unas zonas con alta densidad de impactos separadas por otras de menor densidad. Incluso si esperáramos más tiempo entre el lanzamiento de cada partícula, de forma que el experimento durase días, siempre obtendríamos el mismo patrón de interferencia. Vemos pues que en cada impacto la partícula se comporta como tal, pero en cuanto a su trayectoria se comporta como una onda, que se divide a causa de los agujeros practicados delante de la fuente de partículas e interfiere consigo misma.

Consecuencias de la dualidad cuántica
Entonces la trayectoria de una partícula no está definida en cierto tipo de experimentos y si lo está en otros. Que una trayectoria no esté definida significa que no tiene sentido hablar de la posición de la partícula, pues simplemente no existe: es como si la partícula estuviese desperdigada por el espacio existente entre el cañón de partículas y la pantalla, y solo volviese a existir como tal al llegar a la pantalla. Este hecho por sí solo ya nos cambia todos los esquemas habituales de qué es la materia y de cómo se mueve: resulta que se emite de forma definida, se mueve de forma "fantasmal"  y  vuelve a definirse cuando interactúa con la pantalla. Esta "fantasmalidad" se conoce como no-localidad. Cuando la partícula llega a la pantalla pierde su no-localidad e impacta en un lugar definido; a este proceso se le conoce como colapso de la (función de ) onda.

Pero hay otro hecho intrigante en la interferencia: ¿cómo sabe cada partícula dónde tiene que impactar en la pantalla para que finalmente se genere un patrón constante? Recordemos que el patrón se dibuja incluso si lanzamos las partículas una a una y con grandes intervalos de tiempo, por tanto las partículas no pueden enviarse señales entre ellas para pasarse información, a menos que admitamos retrocausalidad. Estas dos características, la no-localidad de la materia y la extraña interferencia cuántica que parece implicar retrocausalidad, son  hechos que contradicen nuestro sentido común y de aquí las citas del profesor Feynman.

Formalización de la dualidad: modelos cuánticos
Los físicos teóricos del siglo XX tuvieron que vérselas con este extraño comportamiento empírico, enfrentándose al reto de formular un modelo matemático que representara partículas y ondas a la vez, y salieron airosos con varias formas de encara el problema: la mecánica cuántica ondulatoria,  la ecuación de Schrödinger y la mecánica de matrices de Heisenberg.
Una onda es un fenómeno oscilante que transporta una energía proporcional a la frecuencia de oscilación. Louis De Broglie identificó los parámetros dinámicos de la partícula (energía cinética, cantidad de movimiento, velocidad, etc.) con los parámetros de transmisión de energía de la onda (energía de la onda, frecuencia, velocidad del frente de onda,...), formulando la hipótesis de la mecánica ondulatoria: a cada partícula material se le asocia una onda de materia. Materia y energía son entonces un único tipo de entidad que posee propiedades corpusculares y ondulatorias al mismo tiempo.

Posteriormente Erwin Schrödinger refinó la teoría de De Broglie: las ondas no son de materia, lo que representan es la probabilidad de que la partícula se encuentre en un punto del espacio-tiempo.
Ecuación de Schrödinger: describe la evolución temporal de la
probabilidad de encontrar una partícula en un punto del espacio.
Formuló su hipótesis en la denominada ecuación de Schrödinger (valedora del premio Nobel de Física), que determina la evolución con el tiempo de la probabilidad de la posición de una partícula, relacionándola con la cantidad de movimiento p y el potencial variable V.
Fijémonos en el detalle: no predice la posición (es imposible hacerlo) sino la probabilidad de tener una posición.  Por tanto una medida sobre un sistema cuántico proporciona un valor aleatorio entre los posibles resultados factibles. Esto concuerda con los hechos empíricos.
Esta teoría está aceptada hasta la actualidad, y funciona admirablemente bien. La única crítica seria  que se le puede hacer (sin entrar en temas de relatividad general y gravitación cuántica) es su pragmatismo: simplemente así funciona la naturaleza, aunque no lo entendamos. 

Teorías explicativas de la dualidad
Como el formalismo de la mecánica cuántica nos responde el cómo pero no el porqué, han surgido diversas teorías explicativas del porqué, todas ellas moviéndose en el límite de la física y la metafísica, ya que algunas de ellas son muy difíciles de comprobar experimentalmente, pero esto no significa que carezcan de valor, siempre que puedan señalar nuevos caminos de comprensión. Citemos algunas de ellas, sin ánimos enciclopédicos, por supuesto.
Hugh Everett propuso que existen infinitos universos paralelos, bifurcándose continuamente; cuando realizamos una medida cuántica, el resultado obtenido está en uno de los universos, pero todas los otros resultados posibles se están obteniendo en los otros universos. No sé que opina el lector, pero a mí me parece más incomprensible la teoría explicativa que lo que se propone explicar.
David Bohm amplió la mecánica ondulatoria original en la denominada teoría de De Broglie–Bohm usando la idea de que podían haber más variables en juego que las que conocemos, llamadas variables ocultas; estas variables desconocidas serían las responsables de convertir el aparente movimiento aleatorio de las partículas cuánticas en determinista. Para entenderlo, comparemos con el movimiento de los planetas del sistema solar antes de Newton: el porqué de sus trayectorias eran un misterio hasta que la teoría de la gravitación universal mostró que la misteriosa fuerza que los movía no era otra que la misma gravedad que hacía caer las manzanas al suelo. Del mismo modo las variables ocultas explicarían lo que ahora es un misterio. Posteriormente, Bohm amplió su teoría para abarcar a la propia realidad física; he escrito sobre ello en la serie de artículos "La totalidad y el orden implicado" de este blog.

En otras explicaciones se le da una importancia fundamental a la consciencia, debido a que depende de la decisión del experimentador el que el sistema cuántico se comporte de un modo o de otro; recordemos que el electrón se mostrará como partícula o como onda dependiendo del montaje experimental que diseñemos; incluso podemos decidir tapar un orificio justo antes de que un electrón llegue a la pantalla para cambiar su comportamiento "al vuelo". Recíprocamente, hay teorías que relacionan la facultad de tener una conciencia con fenómenos cuánticos: una mente cuántica; su defensor más conocido es Roger Penrose.

Movimiento browniano plano: es una trayectoria
errática que va cubriendo todo el plano.
Geométricamente es una curva fractal de
dimensión 2.
El último enfoque que trataré el que supone que el espacio-tiempo no tiene una dimensión entera, sino fractal, concretamente fractal entera e igual a 2, siendo ésto detectable sólo a muy pequeña escala. En ese caso, las trayectorias de las partículas seguirían las líneas fractales de espacio-tiempo, que tendrían una apariencia similar a las trayectorias del movimiento browniano: erráticas, a largo plazo irán llenando todo el espacio. Entonces las partículas volverían a tener trayectorias definidas, sólo que serían fractales. Esta teoría tiene su más conocido defensor en el astrofísico francés Laurent Nottale , que de paso intenta unificar la relatividad y la física cuántica. Para saber más sobre fractales enteros y sobre espacio-tiempo fractal recomiendo  los artículos  Polvo fractal con dimensión enteravacío cuantico - vacío fractal  del blog La bella teoría.

Conclusiones
Independientemente del modelo matemático y de la interpretación que usemos, está claro que la realidad a muy pequeña escala se comporta de forma radicalmente diferente a lo que estamos acostumbrados en nuestro mundo macroscópico. Nuestra mente tiene dificultades para imaginar un mundo de carácter no-local, donde cualquier objeto puede influir a cualquier otro independientemente de la distancia en el espacio y en el tiempo.Si logramos imaginar un mundo así, entenderemos la mecánica cuántica.

domingo, 1 de enero de 2012

Resumen del blog en 2011


Bueno, pues saludamos el 2012 con el típico resumen de lo publicado en el 2011. Aquí está mi muy modesta aportación a la divulgación de la ciencia en este blog, que empecé el setiembre de 2011, clasificado por temas, nombre de cada artículo y su lista de tags.

!Feliz 2012!

Mente, inteligencia artificial y computación

  • Aleatoriedad, errores e inteligencia artificial. Computación, error, IA, pensamiento, probabilidad, red neuronal
  • Computabilidad, hipercomputadores y conciencia. Cerebro, computación, conciencia, hipercomputación, Hodge, sistema formal, verdad
  • Decisiones inconscientes y redes complejas Cerebro, comunidades, decisión, red, red compleja, red neuronal
  • ¿Es posible la conciencia artificial? conciencia, inteligencia, logica, matematicas, pensamiento
  • ¿La mente está “orientada a objetos”? Bohm, ciencia, entrelazamiento cuantico, fragmentación, mecánica cuántica, pensamiento, realidad, totalidad

Fundamentos de la Matemática y de la Física

  • Los fundamentos de la matemática... ¡no están fundamentados! Gödel, Hilbert, inteligencia, lógica bivalente, matematicas, sistema formal, verdad
  • La ciencia va escasa de lógica Ciencia, ciencias exactas, logica, Logicomix, lógica bivalente, lógica polivalente, matematicas, pensamiento, Platón, verdad
  • Correlación matemática y la diferéncia entre ciencias ciencias exactas y no exactas Ciencia, ciencias exactas, ciencias sociales, correlación, estadística
  • La simetria en Matemáticas y en Física CPT, gauge, invariancia, Lagrange, modelo estandard, simetria, supercuerdas, supersimetria, teoria de grupos
  • La probabilidad en la Física estadística Observables, probabilidad
  • La ciencia, ¿describe o explica? Ciencia, mecánica cuántica, observables, propiedades, sistemas
  • La "partícula de Dios" al descubierto Gravedad, Higgs, mecánica cuántica, modelo estandard, simetria, teoria de grupos
  • Elegante = verdadero Belleza, intuición, matematicas, Platón, simetria, verdad
  • Mística y ciencia Bohm, conciencia, misticismo, pensamiento, totalidad
  • Conocimiento científico y realidad Ciencia, conocimiento, modelos, realidad
  • Espacio y tiempo: de la intuición a la visión de la ciencia Espacio, espacio-tiempo, matematicas, realidad, relatividad, teoria de grupos, tiempo
  • La conjetura de Hodge para “dummies” Espacios, geometrías, Hodge, matematicas, topología, variedades
  • La totalidad y el orden implicado (III) Aspect, Bell, Bohm, entrelazamiento cuantico, mecánica cuántica, variables ocultas
  • La totalidad y el orden implicado (II) Bohm, pensamiento, realidad
  • La totalidad y el orden implicado Bohm, fragmentación, mecánica cuántica, realidad, reomodo, totalidad, variables ocultas
  • Logicomix: an epic search for truth Comic, logica, Logicomix, matematicas, Russell, verdad

Realidad, física cuántica y misticismo

Ayer estuve revisando un librito que tengo desde hace años, se titula " El espíritu en el átomo : una discusión sobre los misterios de...