martes, 11 de septiembre de 2012

¿Podemos controlar nuestra propia mente?

Este post es la continuación natural de uno anterior, ¿Puede la mente entenderse a sí misma?, pero aportando otro punto de vista. Hablamos de reglas, de reglas sobre reglas (o meta-reglas), de sus aplicaciones en juegos, en Inteligencia Artificial, y en la comprensión de la mente y de la idea del "yo".


Un juego con reglas cambiantes: las meta-reglas.
Tablero de parchís (Wikipedia)
Pensemos en un juego de mesa simple, por ejemplo el parchís. Hay unas piezas que movemos en una ruta trazada por el tablero, avanzando el número de casillas indicado por un dado que lanzamos por turnos, siempre en una dirección determinada. Además hay una serie de reglas adicionales que establecen restricciones a los movimientos de cada jugador y permiten establecer el ganador de la partida. Estas reglas son fijas e inamovibles.



Supongamos ahora que permitimos modificar las reglas mientras jugamos:  al completar cada turno los jugadores pueden decidir cambiar alguna de las reglas, por ejemplo lanzaran dos dados en vez de uno solo y avanzaran las casillas indicadas por la suma de las puntuaciones, o se permitirá retroceder el camino realizado. Entonces en cada turno podremos tener un juego distinto, basado en el parchís original. El conjunto de todos esos juegos formará un  juego del parchís dinámico, que sera único en el sentido de que si otro día empezamos otra partida, es muy probable que sus reglas sean diferentes.

A poco que pensemos nos daremos cuenta de que, si damos libertad total de cambio de reglas, fácilmente llegamos a un juego caótico: es posible que no termine nunca, o bien que no quede claro quien es el ganador, pues conforme cambiamos las reglas también cambian los objetivos y estrategias a corto plazo de los jugadores, y bien pudiera ser que se perdiera el objetivo a largo plazo: ganar la partida. Por esta razón seria necesario establecer unas limitaciones a los cambios de las reglas que garantizaran el no degenerar en el caos. Es decir, necesitamos unas reglas sobre las reglas: es lo que se denomina unas meta-reglas. Por ejemplo, una meta-regla puede establecer que en cada juego del parchís dinámico sólo podrá cambiarse una de las reglas.

Podemos ir más lejos y decidir que la meta-regla puede también cambiarse; así, estableceremos que en cada juego del parchís dinámico podrán cambiarse n de las reglas, siendo n un número comprendido entre 0 i N (el número total de reglas del parchís) que decidiremos en cada partida. Tenemos por tanto una regla sobre la meta-regla: una "meta-meta-regla". 

Evidentemente podríamos seguir añadiendo reglas sobre reglas, creando una jerarquía de reglas y "meta-...-meta-reglas". Cada nivel de reglas establece cómo pueden modificarse las reglas del nivel inferior, y puede a su vez ser modificado por la reglas del nivel superior. El punto importante ahora es: siempre existirá un nivel superior de meta-reglas fijas que no puede ser modificado, controlando toda la jerarquía de reglas, que es el que en última instancia evita que el juego degenere en caótico. Esta última afirmación, la necesidad de una regla fija de orden superior, está lejos de ser evidente, puede intuirse, pero su demostración es compleja, y está relacionada con los famosos teoremas de Gödel que en este mismo blog he mencionado en algunos posts anteriores; aquí no entraremos en tales sutilezas matemáticas. 

Meta-reglas en Inteligencia Artificial (IA)
Las jerarquías de meta-reglas tienen gran importancia en IA pues permiten diseñar sistemas con reglas flexibles, un atributo necesario para que el sistema sea adaptable y pueda aprender. Así, por ejemplo, se pueden diseñar programas de ordenador en el lenguaje LISP que son capaces de modificarse a sí mismos, ejecutando acciones que se adaptan a los datos. Antes decíamos que un aspecto importante de las jerarquías de meta-reglas es la existencia de unas reglas fijas de nivel superior para evitar comportamientos caóticos; en el caso de los programas LISP, en última instancia son ejecutados por otro programa, el intérprete LISP, que opera siempre con reglas fijas.

Además, en el caso de la IA tenemos otro nivel fijo: el propio "hardware" del ordenador, sus circuitos. Realmente las instrucciones se ejecutan en los circuitos, que también tienen un diseño fijo.

Enredando la jerarquía: entrelazamiento de reglas.
Volvamos al parchís dinámico: hemos permitido modificar las reglas, pero los elementos físicos, el tablero, los dados y las fichas, son fijos. De alguna forma, podemos relacionar estos elementos fijos con los circuitos del ordenador, y las reglas con los programas de ordenador. Pero...¡espera un momento! ¿qué nos impide cambiar también los elementos físicos? Podemos incluir nuevas reglas que modifiquen el número de fichas, sus colores, el número de casillas del tablero, etc. Así, habrán meta-reglas para cambiar las reglas del juego, y meta-reglas para cambiar sus elementos físicos. Evidentemente estas meta-reglas físicas, por así llamarlas, también deberán tener sus limitaciones para evitar el caer en juegos caóticos.

Pero ahora podemos tener un nuevo problema: al cambiar arbitrariamente los elementos físicos podría darse el caso de que fueran incompatibles con las reglas, creando situaciones irresolubles. Este es un problema distinto al del juego caótico: no se trata ahora de que el juego no pueda ser ganado por nadie, sino de algo peor: la configuración del tablero, las fichas y los dados podría ser incompatibles con las reglas del juego, y simplemente no podríamos jugar. Por ejemplo, establecer un "dado" con sólo cuatro puntuaciones posibles, {1,2,3,4}, sería incompatible con la regla "sacar un 5 en el dado para mover por primera vez poder una ficha que aún no se ha usado".

En un juego tal como éste, hay dos jerarquías de reglas, pero no son independientes, sino que se entrelazan unas con otras, de forma que se pueden crear situaciones irresolubles. Para evitarlo, necesitamos algún mecanismo de control que evite reglas incompatibles. De nuevo, podemos pensar en un conjunto de meta-reglas que está por encima de las dos jerarquías de reglas, en un nuevo nivel superior.

Entrelazamiento de la mente y el cerebro
Demos un enorme salto de complejidad hasta nuestro cerebro (elemento físico) y nuestra mente (reglas lógicas). Se sabe des de hace ya algún tiempo que la intrincadísima red de neuronas que constituye el sustrato físico de la mente y los propios pensamientos constituyen dos sistemas entrelazados, de forma que uno influye en el otro. Cuando aprendemos, se forman nuevas conexiones entre las neuronas. Estas conexiones facilitan la aparición de nuevas ideas, que a su vez pueden formar nuevas conexiones...

Entonces, tal como hemos visto en los ejemplos anteriores, ¿pueden crearse conflictos entre circuitos neuronales (reglas físicas) y conceptos mentales (reglas lógicas)? Aquí entramos en terreno desconocido, aunque yo me atrevo a aventurar que sí se producen reglas contradictorias, y que una posible prueba de ello la tenemos en la complejidad del comportamiento humano, en las múltiples patologías del comportamiento en las que podemos caer. Para fundamentar mi tesis, me centraré en una de las facetas superiores de la mente humana: la idea del "yo".

¿Quienes somos en realidad?
Cuando intentamos averiguar quienes somos tenemos que enfrentarnos a una enorme, compleja, y contradictoria avalancha de información confusa, tanto procedente del exterior como de nuestra propia mente. Tenemos que lidiar simultáneamente con la necesidad interior de autoestima y con el continuo flujo de datos externos que a veces nos reafirman, pero otras veces hacen todo lo contrario. La misma personalidad es una red de ideas, instalada en cierta área del cerebro, constantemente afectada por la información que fluye, magnificando ciertas áreas, negando otras, creando contradicciones, y intentando reconciliar lo que queremos ser, lo que imaginamos ser, y lo que somos en realidad. Las contradicciones que se generan frecuentemente conducen a diversas patologías, debido a incoherencias y a reglas incompatibles. 


Limpiando la mente de incoherencias
Siguiendo nuestra línea de razonamiento, necesitamos alguna meta-regla de nivel superior que impida las incoherencias y las situaciones irresolubles, entendiendo por nivel superior, por encima y fuera de la estructura neuronal donde está instalada la personalidad, y también fuera de la estructura mental que forma la personalidad. Veamos dos categorías de meta-reglas: la científica y la, digamos, filosófica.

Cuando acudimos al psicólogo de alguna manera la mente del psicólogo juega el papel de reglas externas lógicas de nivel superior, que intentan poner orden en el caos generado en la mente del paciente. Es la forma que la ciencia tiene de imponer meta-reglas de tipo lógico (ideas) para deshacer las incoherencias mentales. La otra forma científica de atacar el problema es la del psiquiatra, que usando medicamentos, altera ciertos aspectos de la estructura física, alterando así los pensamientos asociados. 

En cuanto a los medios no científicos, citaré la técnica de la meditación. Según los iniciados en ella, es posible conseguir que la conciencia trascienda la mente, de forma que podemos elevarnos, por así decirlo, por encima de nuestros pensamientos, y así poner orden en ellos, desactivando los que son potencialmente dañinos, y vigorizando los positivos. Debido a que la conciencia en sí todavía no es comprendida por la ciencia, este método ha de clasificarse como no-científico por el momento. No obstante, está siendo estudiado por neurólogos el efecto de la meditación en el cerebro, y efectivamente se ha constatado que existe un efecto observable. Según el razonamiento de este post, deberíamos asignar a la conciencia un rango superior al de la mente ordinaria, pues es capaz de coordinarla. Más atrevido sería aplicar a rajatabla nuestro razonamiento y  darle a la conciencia un rango superior al propio cerebro, situándola por encima de los dos sistemas mente-cerebro. Con ello entraríamos en un terreno demasiado esotérico para este blog, aunque no puedo descartarlo, simplemente no toca discutirlo aquí.

Bibliografia
  • Douglas R. Hofstadter: Gödel, Escher, Bach



viernes, 24 de agosto de 2012

Entrelazamiento cuántico entre diamantes

En este artículo comentamos un experimento reciente que ha puesto de manifiesto la extraña propiedad de la mecánica cuántica denominada entrelazamiento cuántico. La novedad radica en el uso de objetos macroscópicos, diamantes artificiales, que hasta ahora no se ha utilizado en experimentos de este tipo. Repasamos primero dos conceptos básicos antes de describir el experimento.

Entrelazamiento cuántico
En mecánica cuántica se dice que dos o más partículas estan entrelazadas cuando las propiedades individuales de cada partícula dependen de las demás, incluso si estan separadas por grandes distáncias. 

 Si dos partículas estan entrelazadas implica que debemos aceptar que hayan interacciones a distancias arbitrarias entre partículas cuánticas, y estas interacciones han de ser instantáneas. Para entender la implicación de esta afirmación, supongamos que dos partículas que forman un sistema con función de onda w(A,B) que tienen entrelazamiento cuántico empiezan a separarse una de otra a toda velocidad, y eventualmente llegan a estar separadas por kilómetros de distancia; a pesar de ello, siguen formando un sistema entrelazado, de tal manera que ciertas mediciones efectuadas en una de las partículas, ¡afectaran instantáneamente a la otra! Esto será así independientemente de la distancia que las separa. Este hecho fue confirmado por Alain Aspect en una serie de experimentos.

Fonones
Modelo de estructura cristalina enlazada.
Veamos una breve introducción a la Física del estado sólido, concretamente a las estructuras cristalinas, como la de la sal común, o la del diamante. Podemos imaginar que cada molécula del cristal está unida a las otras por un muelle que permite a la molécula realizar un movimiento vibratorio. Este muelle representa las fuerzas moleculares reales en el cristal.

Debido a que todas las moléculas estan unidas entre si formando una estructura geométrica (cúbica en el caso de la figura), si perturbamos cualquier molécula dándole un impulso para que oscile, la perturbación se propagará a toda la estructura.

Cuando dicha perturbación es muy pequeña, entramos en el terreno de la Física Cuántica, que establece restricciones a las perturbaciones: han de ser cuantizadas, esto es, existen unas frecuéncias de vibración permitidas, fundamentales. Además, se puede asociar a cada perturbación cuántica una pseudopartícula portadora de fuerza: el fonón. La idea es la misma que la del fotón, que es el mínimo de energia lumínica en la que podemos descomponer la luz. Pues bien, el fonón es la mínima energía vibratoria en la que podemos descomponer la perturbación introducida en la red. Cuando la perturbación se extiende por la red, podemos visualizar fonones viajando por la red, distribuyendo la energía entre las moléculas. Técnicamente, podemos decir que los fonones como partículas son bosones (partículas portadoras de fuerza) que poseen espín cero.

Entrelazamiento de fonones en diamantes
En diciembre del 2011 Ian Walmsley publicó un artículo en la revista Science, Entangling macroscopic diamonds at room temperature, en la que detalla un montaje experimental que pone de manifiesto el entrelazamiento cuántico entre dos diamantes usando fonones. Hasta ahora, los experimentos siempre han usado objetos microscópicos a bajas temperaturas para detectar el entrelazamiento, el experimento de Walmsley es el primero en usar objetos macroscópicos a temperatura ambiente. 

Walmsley dividió en dos un haz de luz láser, de modo que cada mitad iluminaba un diamante sintético de unos tres milímetros de longitud. Usando las partículas cuánticas para modelizar el experimento, es equivalente a decir que fotones de luz láser escogen una ruta o la otra al llegar al divisor de haz, inciden en uno de los dos diamantes, le comunican parte de su energía (chocando con alguna molécula de la estructura cristalina) y se dispersan, siendo recogidos por un detector. La energia liberada por el fotón produce un fonón en el diamante; por tanto, por cada fotón que llega al detector, sabemos que se ha producido un fonón.

Ahora bien, segun el principio de incertidumbre, y tal como se ha llevado a cabo el experimento, resulta imposible saber en cuál de los diamantes se genera el fonón. De hecho, según la Mecánica Cuántica, el fonón no está confinado en ninguno de los diamantes, sino que está "compartido" por los dos, de forma que ambos diamantes forman un único sistema cuántico entrelazado. La distancia de separación entre las gemas en este experimento fue de unos quince centímetros. Sólo si efectuamos una medición en los diamantes para determinar dónde está el fonón, provocaremos el "colapso de la función de onda" forzando al fonón a manifestarse  en uno de los diamantes.


jueves, 9 de agosto de 2012

La naturaleza del espacio y del tiempo (III): ¿es digital el espacio?

En las últimas dos décadas la Física ha adquirido una nueva visión sobre cómo el Universo almacena información. Incluso hay hipótesis que afirman que la información, y no la materia o la energía, es el elemento básico de construcción. En ellas se afirma que el Universo es un holograma. Para llegar a tal hipótesis, necesitaremos repasar el concepto de entropía y aplicarlo a los agujeros negros cuánticos.

Concepto estadístico de entropía
Partículas confinadas en una caja
Originalmente la entropía se introdujo en el estudio termodinámico de las máquinas térmicas, pero posteriormente se generalizó en el marco de la Mecánica Estadística; es este concepto que que necesitamos. La Mecánica Estadística trata con sistemas físicos de un elevadísimo número de componentes, típicamente partículas; por ejemplo el estudio estadístico de las moléculas de un gas en   equilibrio relaciona los paràmetros de las partículas (posición, velocidad, masa...) con los parámetros del gas (temperatura, presión, ...).



En Mecánica Estadística se define un microestado del sistema como cada configuración posible de sus partículas. Por ejemplo, si tenemos un sistema de sólo tres partículas confinadas en una caja de volumen V, cada microestado podría estar definido por las posiciones y las velocidades de las tres partículas:

microestado: (x1, x2, x3, v1, v2, v3)

Las coordenadas deben de tener valores compatibles con las dimensiones de la caja, y las velocidades estarán en el intervalo [0, c), siendo c la velocidad de la luz.

Sea N el número de microestados posibles de un sistema. Definimos su entropía como

S = k·ln(N)

Microestados
siendo k la constante de Boltzmann 1,38/10²³ en unidades internacionales. 
En un sistema macroscópico, el valor de N es enorme; pensemos en un litro de aire a temperatura ambiente, que contiene del orden de 10¹⁶ moléculas, cada una de ellas tiene un volumen del orden de 10⁻²⁴ litros. Por tanto, si comprimimos el gas todo lo posible (ignoremos ahora efectos cuánticos) todas estas moléculas ocuparian sólo un volumen del orden de 10⁻⁸ litros. Esto implica que hay un número enorme de posibilidades de colocar las moléculas en el volumen del gas, de hecho se trata del clásico problema de combinatória: ¿de cuántas maneras podemos colocar n objetos distinguibles (las partículas) en m cajas distinguibles? Aquí, las cajas, son las posibles posiciones de cada partícula en la caja (para simplificar, obviamos las velocidades). 

Segundo principio de la Termodinámica y la flecha del tiempo
Gas confinado en un recipiente
Imaginemos que tenemos aire comprimido en un recipiente cerrado por una espita que comunica con otro volumen mayor. Si abrimos la espita, esperaremos que el gas se expanda y ocupe todo el volumen disponible en los dos recipientes. Desde el punto de vista de la entropía, tenemos que al abrir la espita el número de microestados posibles N' es  mucho mayor que el de antes N, con lo cual la entropía ha aumentado al abrir la espita y conectar los dos recipientes.  La generalizacióna cualquier sistema la da el segundo principio de la Termodinámica:

Cuando un sistema aislado entra en desequilibrio (abrimos la espita), espotáneamente evolucionará a otro estado de equilibrio (el gas ocupa los dos recipientes) con una entropía mayor. Equivalentemente: los estados de equilibrio se distinguen por tener la entropía máxima (cualquier otro estado de no-equilibrio ha de aumentar su entropía para llegar al equilibrio). 

La entropía debe aumentar con el tiempo
El segundo principio también se relaciona con el sentido del tiempo: la flecha del tiempo. En efecto, si tomamos , y vemos que endos fotografias de un recipiente una de ellas las partículas estan distribuidas por todo el recipiente (entropía grande), y en la otra estan agrupadas de forma compacta en una esquina (entropía más pequeña), de acuerdo con el segundo principio supondremos que la primera fotografia se tomó después que la segunda. 

Entropía e información
Otra aplicación importante de la entropía la relaciona con la cantidad de información disponible sobre un sistema. Pensando de nuevo en las dos fotografias de un recipiente, vemos que la de la derecha tiene una disposición altamente ordenada, de baja entropía, y la de la izquierda es altamente desordenada (y con alta entropía). De este modo podemos relacionar el aumento de entropía con el aumento de desorden del sistema. Pero el orden y el desorden pueden relacionarse con la información: para localizar cada partícula en la disposición ordenada, basta con saber dos números: la posición de una de ellas y la distáncia que las separa (la misma para todas). En cambio en la disposició desordenada necesitamos la posición de cada partícula por separado: 9 números. Así, la disposición ordenada nos proporciona más información sobre el sistema, pues sólo debemos completarla con dos números para determinar completamente els sistema. 

¿Entropía gravitatoria?
Hemos repasado el concepto de entropía tomando el ejemplo clásico de las moléculas de un gas; en este caso, tener el gas concentrado en una región pequeña es tener un estado de baja entropía. Pero en cosmologia, si estudiamos la evolución de la entropía de una nube de gas debido a la gravedad, las cosas van justo al revés: inicialmente el gas está disperso en una región grande, y debido al carácter atractivo de la gravedad, la nube de gas se irá contrayendo con el tiempo. Si mantenemos la regla de hacer corresponder el aumento de entropía con la flecha del tiempo, entonces a medida que disminuye el tamaño de la nube aumentará su entropía. Esto parece ir en contra del concepto que teníamos de entropía, asociado al grado de desorden del sistema. ¿Quizá la gravedad no cumple la segunda ley de la termodinámica? Veamos...

Fuerzas entrópicas
Cuando extendemos una banda de goma, ésta se opone. ¿Por qué la goma tira hacia atrás cuando se la estira? Se podría pensar que es porque una banda elástica estirada tiene más energía que una sin estirar. Eso sería una explicación correcta para un muelle de metal. Pero el caucho no funciona de esa manera. En su lugar, una banda de goma estirada  tiene menos entropía que una en reposo,  y esto también puede causar una fuerza.

Las moléculas de caucho son como largas cadenas. En reposo estas cadenas pueden disponerse en un montón de formas onduladas al azar. Sin embargo, cuando se estira una de estas cadenas, el número de disposiciones disminuye, e incluso puede llegar a ser la unidad: un único camino, un segmento recto. Cuando tenemos muchos estados posibles mezclados tenemos alta entropía, y cuando tenemos pocos la entropía es menor. Por tanto, al estirar la goma, disminuimos su entropía. Por la segunda ley, la goma tiende a la máxima entropía (recordemos que los estados de equilibrio tienen esa propiedad), y de ahí la fuerza que notamos que tiende a volver la goma a su longitud original. Este es un ejemplo de explicación de una fuerza en términos de entropía: las denominamos fuerzas entrópicas.


La gravedad como fuerza entrópica: la segunda ley generalizada.
Que la gravedad no es una fuerza como las demás de la naturaleza ya quedó claro en la interpretación que hace de ella la Teoría General de la Relatividad: la trata como una consecuencia indirecta de la deformación del espacio-tiempo. 

Recientemente (2009), Erik Verlinde ha propuesto considerar la gravedad como una fuerza entrópica, o sea que aparece de forma emergente debido a la tendencia a la máxima entropía. Volveremos sobre ello posteriormente, antes tenemos que ver como aplicamos la entropía a las singularidades del espacio-tiempo denominadas agujeros negros.

¿Que pasa con las estrellas que colapsan por efecto de su propia gravedad, generando un agujero negro? Deberíamos acordar que un agujero negro tiene una entropía gravitatoria máxima, debido a que el espacio ocupado por la estrella se reduce a cero. Se formará un agujero negro siempre que la estrella en colapso tenga suficiente masa, del orden de como mínimo 3 veces la del Sol.

Además, debido a que muy cerca del centro del agujero negro tenemos enormes deformaciones del espacio-tiempo, entramos en el campo de la Mecánica Cuántica, que es válida para distancias ultra-cortas. Así pues, un adecuado tratamiento de la entropía del agujero negro debe de lidiar con la Relatividad General y con la Mecánica Cuántica a la vez.

Horizonte de sucesos: representación artística.

La famosa y muy notable fórmula de Bekenstein-Hawking proporciona la entropía de un agujero negro, relacionando las dos teorías mencionadas:

S = kc³A / 4Gh

donde k: constante de Boltzmann, c: velocidad de la luz, A: área de la superficie del horizonte de sucesos del agujero negro, G: constante gravitatoria de Newton, h: constante de Planck. El horizonte de sucesos es una esfera que rodea al agujero negro que marca el límite que, de ser traspasado, la gravedad arroja al agujero negro cualquier cosa material o inmaterial (radiación). Vemos que la entropía depende de la superfície de la esfera, no de su volumen.


La indestructible información cuántica
Un postulado fundamental de la mecánica cuántica es que la información completa acerca de un sistema cuántico está codificado en su función de onda. Además, la evolución en el tiempo de la función de onda está determinada por un operador unitario, la cual cosa implica que la información se conserva en el sentido cuántico.

Aquí hay dos grandes principios en juego: el determinismo cuántico, y la reversibilidad. Determinismo significa que, dada una función de onda actual, sus cambios futuros son determinados únicamente por el operador de evolución. La reversibilidad se refiere al hecho de que el operador temporal tiene una inversa, en teoría cambiando el sentido del tiempo volveríamos al punto de partida. Al combinar los dos principios obtenemos que la información siempre debe ser preservada.


En cambio en un sistema macroscópico la evolución en el tiempo suele ser irreversible, debido a la interacción con otros sistemas, intercambio de energía, etc. Por ejemplo, si quemamos un libro, perdemos la información escrita en él de forma irreversible, ya que tenemos un proceso térmico, una combustión, con intercambio de oxígeno con el entorno y transformaciones químicas. He visto en más de un texto este ejemplo de la quema de un libro como ejemplo erróneo de indestructibilidad de la información, enunciando que tampoco se pierde (!): es cierto sólo para información cuántica.


¿Se destruye la información cuántica en los agujeros negros?
A mediados de 1970, Stephen Hawking y Bekenstein Jacob presentaron argumentos teóricos basados ​​en la relatividad general y la teoría cuántica de campos que ponían como incompatibles la Física de los agujeros negros con la conservación de la información cuántica: los cálculos indicaban que el agujero negro radiaba energía sin ninguna estructura (radiación de Hawking) de forma que no conserva la información. A esta aparente contradicción se le ha llamado "la paradoja de la información", y todavía no está del todo resuelta (ver por ejemplo "la apuesta de Thorne–Hawking–Preskill"), aunque en 2004 Hawking admitió que era posible que la radiación del agujero negro devolviera al exterior parte de la información extraída de los objetos que cayeron más allá del horizonte de sucesos.

El principio holográfico

Modelo holográfica que aparece en la
vidriera de la lencería Empreinte de París. ;-)
Fuente: http://www.diariolarepublica.net


Para reconciliar el principio de no destrucción de la información cuántica con la implacable destrucción que parecen generar los agujeros negros, surgió la teoría de la información holográfica: supone que la información (cuántica) de un objeto que se precipita en el agujero negro debe de quedar almacenada, de alguna forma, en la superficie del horizonte de sucesos (recordemos que es una esfera). Ello implica que la información de objetos tridimensionales se guarda en una superficie bidimensional: la superficie de la esfera del horizonte de sucesos. Es el mismo principio de los hologramas, que cuando se iluminan reproducen un objeto en tres dimensiones, usando sólo dos para guardarlo.



Raphael Bousso (Universidad de Berkeley) en 1999 extendió el concepto holográfico más allá de los agujeros negros: la información de cada partícula cuántica, electrones, quarks, etc, se almacenaría en una superficie; esa información se proyecta sobre el mundo y crea nuestra realidad. Herman Verline (Princeton) opina que incluso el propio espacio-tiempo puede ser un fenómeno emergente fruto de la proyección del holograma cuántico.

Escala de Planck: ¿información digital?
El problema con la teoría holográfica es que nadie sabe como se almacena la información cuántica. Una posibilidad viene de la mano del principio de incertidumbre, en virtud del cual existe una escala de lo "muy pequeño" a partir de la cual el mero concepto de distancia pierde su significado: nos referimos a la escala de Planck: 1.36·10⁻³⁵ metros. Si dividimos cualquier superficie en casillas cuadradas de la longitud de Planck, tendremos la superficie mínima medible, que para el caso de almacenamiento de la información, seria el "bit" del Universo. Entonces una posibilidad seria pensar que la información a partir de la que emerge el Universo está codificada en esos minúsculos bits.

El experimento de Craig Hogan
Interferómetro: haces de luz láser interfieren entre sí.
Craig Hogan (Chicago, director del Fermilab Center for Particle Astrophysics)  ha diseñado un experimento para intentar detectar las variaciones de información en los bits del Universo. Como en un ordenador digital, a medida que el Universo cambia de estado, deben de producirse modificaciones en la memoria digital. Se trata de un dispositivo que usa interferometría:  haces de luz láser se dividen, cruzan e interfieren entre sí usando espejos. Detectores convenientemente situados amplifican y detectan cualquier modificación en la distancia recorrida por la luz. Si se detectan estos cambios, implicará que a la escala de Planck, el espacio-tiempo es cuántico y digital. Los cambios que intenta detectar Hogan se producen con una frecuencia del orden de un millón de veces por segundo.


Para saber más
  • El camino a la realidad. Roger Penrose.
  • Investigación y Ciencia, abril 2012.




miércoles, 1 de agosto de 2012

La naturaleza del espacio y del tiempo (II)

En el anterior post hablamos de las trayectorias en el espacio-tiempo. En éste trataremos sobre el tiempo como coordenada, más específicamente, intentaremos explicar que significado tiene en Relatividad el considerar el tiempo como un número imaginario. Para ello comenzamos con un breve repaso de los números complejos, para el lector no iniciado, pasamos luego a la Relatividad Restringida (transformación de Lorentz y espacio-tiempo complejo de Minkowski) y terminamos con el tiempo imaginario en la Relatividad General.


Números reales y números complejos
Recordemos que los números reales representan un punto en una línia continua. Estan formados por la unión de los números racionales (aquellos que pueden expresarse como un cociente de enteros a/b) con los los números irracionales, que son aquellos que no pueden expresarse como un cociente, y en cambio tienen una expansión decimal a-periódica:


Ejemplos de racionales: 5/6, -1/2, 0, ...
Ejemplos de irracionales: 71/3 =1,91293118277239...,  π = 3,14159265358979

Recta real, mostrando algunos enteros e irracionales

Una propiedad fundamental de los reales es que el cuadrado de un número real no puede ser un número negativo: x² > 0 , y si x² = 0 és que x = 0.
Por contraste, definimos los números imaginarios como aquellos que al elevarlos al cuadrado resulta un número negativo, z² < 0. Para cada número real podemos asociar un número imaginario:

x real <=> x·i imaginario, donde i² = -1 , es decir, i × i = -1 
El número i se llama la unidad imaginaria.
Plano complejo: reales en eje horizontal, imaginarios en eje vertical
Combinando los reales y los imaginarios en un par (x, y) donde x es real e y es imaginario, obtenemos un número complejo z = (x,y), que podemos representar gráficamente en el plano usando el denominado diagrama de Argand, en el cual el eje horizontal representa la recta real, y el eje vertical la recta imaginaria.



Los números complejos tienen muchas propiedades interesantes, pero para nuestros propósitos nos fijaremos en dos.

Módulo y argumento de z



La primera es que cada complejo z = (x,y) tiene asociado un módulo r tal que r² = x² + y², y también un argumento: el ángulo θ con el eje real.






Producto de complejos



La segunda es que cuando multiplicamos dos complejos z*w con módulos r y s argumentos A y B respectivamente, obtenemos un complejo con módulo r*s y argumento A + B .

Esto puede verse como que el complejo w transforma al complejo z multiplicando su módulo y girándolo un ángulo B.





Transformación de Lorentz
Volvamos al espacio-tiempo, concretamente al definido por la Relatividad restringida. Es sabido que en el origen de la teoría está la observación experimental de que la velocidad de la luz c es la misma en cualquier sistema de referencia (ver por ejemplo los experimentos de Michelson-Morley).

Para relacionar las coordenadas de un punto en dos sistemas de referencia que estan en movimiento uno respecto al otro, de forma que se cumpla la constancia de c, es necesario imponer que el tiempo no es absoluto, sino que es diferente en cada referencia. La transformación de Lorentz cumple con los requisitos. En la figura vemos el caso de dos sistemas de referencia que se mueven paralelamente en la dirección del eje x con velocidad v.

Sistemas de referencia en movimiento relativo
 
Debido a que el tiempo no es absoluto para todos las referencias, sino que depende de ellos, la transformación de Lorentz opera en el espacio-tiempo, con coordenadas (x,y,z,t). Su expresión para el caso de referencias que se mueven paralelamente en la dirección del eje x con velocidad v es:

 
Espacio-tiempo de Minkowski: tiempo imaginario
Vamos a tratar de forma diferenciada a la coordenada temporal; supongamos que el eje temporal no contiene números reales, sino imaginarios. Para simplificar, sólo nos fijaremos en una dimensión espacial, digamos x. Entonces los puntos del espacio-tiempo (x,t) son números complejos. Además, fijaremos la unidad de longitud del eje t igual a c, de forma que para un tiempo t, el punto correspondiente del eje t será ict, donde i: unidad imaginaria.

¿Que ventajas tiene esta suposición? Sea el suceso z=(x,t) en la referencia 1; el mismo suceso en la referencia 2 tendrá coordenadas z'=(x',t'), y vendrà dada por la transformación de Lorentz. Se cumplen las siguientes propiedades:

  • La transformación de Lorentz L(z) = z' equivale a aplicar una rotación al vector z
  • El módulo s = x² – c²t² del vector z es invariante respecto las transformaciones (rotaciones) de Lorentz.
Sucesos en el espacio de Minkowski


En la figura vemos un mismo suceso representado en tres referencias distintas, resultando tres puntos A, A' y A'', con el mismo módulo invariante s.

Algebraicamente, podemos enunciar que la transformación de Lorentz es una transformación ortogonal en el espacio de Minkowski.



Además, si aplicamos dos transformaciones L y L' a un suceso z, L'(L(z)), equivaldrá a girar el suceso un ángulo a + b, siendo a, b los ángulos de giro de L y L' respectivamente. Una aplicación práctica de esta propiedad es la deducción de la ley de adición de velocidades de Einstein, que usando complejos y ángulos de giro no ofrece dificultad:


donde u, u' son las velocidades de un móvil en la referencia 1 y 2, que se mueven una respecto a otra con velocidad v. En la siguiente tabla vemos el resultado de aplicar esta ley, para una velocidad v =0,5c, i distintas velocidades u' (en múltiplos de c). Contrariamente a lo que nos dice la intuición, u no es igual a la suma de v + u', excepto para velocidades muy inferiores a c. La velocidad límite en todo caso nunca supera a c.


Realmente, ¿qué significa un tiempo imaginario?
Podemos pensar que el suponer un tiempo imaginario es un mero artificio matemático útil para la deducción de fórmulas. ¿O bien tiene un significado físico? Creo que en Física siempre podemos aprender algo de la realidad si observamos atentamente el aparato matemático utilizado. En el caso de los números complejos, las propiedades que nos interesan son la rotación y la periodicidad.

Potencial e intensidad alternas.
La utilización de magnitudes complejas en Física es frecuente, pues es conveniente usarlas cuando el fenómeno en estudio presenta variaciones periódicas. 
Por ejemplo en corriente alterna la resistencia, denominada impedancia, al paso de la corriente eléctrica en un circuito se considera que tiene dos componentes, una real y otra imaginaria, z = a + ib, siendo a la parte real del número complejo y b su parte imaginaria. Con ello resulta que la diferencia de potencial y la intensidad de corriente que circula no son constantes, sino que presentan oscilaciones periódicas.



Los fenómenos ondulatorios también se benefician de las propiedades de los complejos; la ecuación del movimiento de una onda plana es:


Observemos la unidad imaginaria i en el exponente, que indica que la amplitud u es un número complejo. También en Mecánica Cuántica la probabilidad de que un objeto cuántico se encuentre en un punto del espacio-tiempo se expresa mediante una ecuación compleja:

 
De nuevo, observemos la unidad imaginaria i en el primer término del miembro de la derecha.

Así pues, concluimos que los números complejos son útiles para expresar oscilaciones periódicas así como giros de variables en el espacio. Volvamos a la Relatividad.

Alternativa: tiempo real, métrica no euclídea
Aunque inicialmente tuvo éxito la introducción del espacio complejo de Minkowski para trabajar con las ecuaciones relativistas, rápidamente aparecieron nuevas tendéncias, entre las cuales la más aceptada fue el volver a un espacio-tiempo real, pero abandonando el espacio euclídeo. Recordemos que en un espacio euclídeo la ruta más corta entre dos puntos es el segmento de recta que los une, y la distancia entre esos dos puntos viene dada por la longitud del segmento, que es lo que se denomina métrica Euclídea. Pero al introducir la coordenada tiempo, y debido a la forma de la transformación de Lorentz, forzosamente hemos de abandonar la métrica Euclídea en favor de métricas más generales, como la métrica de Riemann. El espacio de Minkowski, aunque complejo, es “plano”, no tiene curvatura intrínseca, es Euclídeo.

Además, como es sabido, la Relatividad General es básicamente una teoria geométrica que utiliza un espacio-tiempo curvado por la gravedad, por lo que el uso de métricas no Euclídeas es una forma de unificar las dos teorias, la Relatividad Restringida y la General. 

Más modernamente resurgió el uso del tiempo complejo en Relatividad debido principalmente a los trabajos de Stephen Hawking en Relatividad Cuántica y en el estudio de singularidades espacio-temporales: los agujeros negros y el big-bang. Lo vemos en el siguiente apartado.

Tiempo imaginario y agujeros negros
Basándose en consideraciones termodinámicas, y usando las ecuaciones de la Relatividad General, Hawking y otros demostraron en 1973 que un agujero negro tenia una temperatura (muy baja, de alrededor de 10⁻⁶ grados Kelvin), la cual cosa implica que debe radiar algo de energia, al contrario de lo que se creia hasta entonces: que sólo captaba materia y energia, sin emitir nada en absoluto.

Poco tiempo después, en 1976, Gibson y Perry utilizaron números complejos para resolver la ecuación de Einstein de la Relatividad General, 


Para el caso de un agujero negro, vieron que, por consideraciones de regularidad de la solución, y otras consideraciones termodinámicas, el tiempo complejo, y por tanto periódico, tenia un período T que... ¡era precisamente la temperatura de Hawking del agujero negro! 
Desde entonces se ha hecho habitual el uso del tiempo imaginario en Cosmología Cuántica, tanto en el estudio de la Física de los agujeros negros como en la del Big-Bang inicial. Así, en la actualidad, encontramos consideraciones como:

Si hacemos la integral de camino en un espacio-tiempo plano con un período T en la dirección del tiempo imaginario, obtenemos la función de partición de la radiación de cuerpo negro de la singularidad.”
La Naturaleza del espacio y del tiempo, capítulo 3. Hawking-Penrose.

Espero que después de la lectura de este post, la afirmación anterior sea un poco menos oscura para los no iniciados, ¡aunque sea sólo en la parte que menciona el tiempo imaginario!


Bibliografia
  • La Naturaleza del espacio y del tiempo. Hawking-Penrose.
  • El camino a la realidad. Penrose.








domingo, 13 de mayo de 2012

La naturaleza del espacio y del tiempo (I)

Stephen Hawking ha escrito numerosos libros de divulgación que suelen contener un elevado volumen de información técnica, usando pocas matemáticas, pero con conceptos avanzados, no siempre fáciles de entender por el público no especializado al que supuestamente se dirigen. Este post es el primero de una serie que se propone tratar de forma más legible que en el original los conceptos aparecidos en el artículo "La teoría clásica" del libro "La naturaleza del espacio y el tiempo".
El futuro de un punto situado en el origen del
espacio tiempo es la región que puede alcanzar
el punto sin violar la limitación de la velocidad
límite c.




Trayectorias en el espacio-tiempo
La teoría de la relatividad especial estableció que hay una velocidad límite que es imposible superar, que es precisamente la velocidad de la luz, c. Este hecho, de por sí misterioso,  tiene sorprendentes implicaciones.
Imaginemos un objeto en movimiento que parte desde un punto, que supondremos que está en el origen de un sistema de coordenadas donde el eje horizontal  representa la distancia en años-luz y el eje vertical representa el tiempo en años.


Debido al límite de velocidad, c, la trayectoria del objeto ha de estar dentro de una zona denominada futuro del objeto; esta zona está delimitada por dos rectas inclinadas  45 grados respecto a los ejes. Estas rectas precisamente indican la trayectoria que seguiría un haz de luz emitido desde el objeto. 

Un objeto extenso S situado en el origen del
espacio-tiempo y su región de futuro. la trayectoria
temporal, en negro, no puede inclinarse más de 45 grados
respecto a la horizontal en ningún punto; se cruzará con
una línea horizontal cualquiera en un único punto.
Como nada puede viajar más rápido que la luz, las trayectorias con inclinación menor de 45 grados respecto al eje horizontal no son posibles.


En el otro extremo, una trayectoria vertical indica que el objeto no se mueve, pues su posición está indicada por la coordenada del eje horizontal que permanece constante.


Las trayectorias permitidas, incluidas en el futuro del objeto, se denominan trayectorias temporales o de género tiempo; una recta horizontal representa un objeto extenso en un momento dado, mientras que cualquier trayectoria situada fuera del futuro es una trayectoria espacial o de género espacio. Las trayectorias de la luz, que limitan la región del futuro, son trayectorias de género nulo, o lumínicas. A este esquema le llamamos causalidad del espacio-tiempo.


Este espacio tiempo que hemos descrito no tiene en cuenta la gravedad: es euclidiano, la distancia más corta entre dos puntos viene determinada por la recta que los une. Es el descrito por la relatividad restringida. En general, dados dos puntos p, q en una superficie, la línea de mínima longitud que los une y está contenida en esta superficie es una geodésica. Si la superficie es plana las geodésicas son rectas; en una esfera serán arcos.


Estructura causal no euclidiana del espacio-tiempo
Para pasar al espacio-tiempo de la relatividad general, nos fijamos en las propiedades geométricas de  la causalidad que hemos descrito, generalizándola. Para ello imponemos una condición muy general: dado un punto cualquiera del futuro de un objeto S, debe de existir una trayectoria no cerrada que conecte el punto con su pasado (causalidad fuerte).



Disco de Poincaré, el círculo máximo simboliza el
infinito, cualquier trayectoria posible en este espacio
ha de ser perpendicular en cada punto a el círculo
que pasa por el punto. Imagen creada con el
programa  Hyperbolic Geometry Exploration.
Al aplicar esta condición al espacio-tiempo, resulta que ya no tiene porque ser euclidiano, sino que pasa a tener geometría hiperbólica. En esta geometría, las geodésicas entre dos puntos en vez de ser trayectorias de mínima distancia, son de máxima distancia


Una forma de visualizar esta extraña geometría la proporciona el denominado disco de Poincaré.


En este espacio las geodésicas son arcos de círculos que llegan al borde del disco en un ángulo de 90°.







Singularidades en el espacio-tiempo
Dado un espacio cualquiera, decimos que es no singular si sus geodésicas no se cortan a sí mismas; como consecuencia, las geodésicas que pasan por un punto no pueden cortarse entre sí excepto en el propio punto (ver la imagen del plano de Poincaré). En el caso del espacio-tiempo se ha demostrado que es singular, o sea que las geodésicas pueden cortarse. La razón es que la gravedad es una fuerza atractiva que curva el espacio-tiempo de forma que las geodésicas próximas se curvan unas hacia otras acercándose entre sí. Esto nos llevará, en un próximo post,  a los teoremas de singularidad del espacio-tiempo y a las singularidades conocidas por agujeros negros.


Bibliografia
  • Hawking-Penrose: "La naturaleza del espacio y el tiempo". Ed. Debate.











lunes, 30 de abril de 2012

Conectando la mente con las màquinas: avatares y redes cerebrales

Hace sólo diez años cualquier idea sobre la posible conexión entre nuestra mente y una máquina era pura especulación, y no se veía con buenos ojos su inclusión en artículos científicos rigurosos.  Pero en los últimos años hemos avanzado mucho en este terreno, y podemos ser optimistas respecto al futuro. Veamos algunas posibilidades.


Recuperar la movilidad
Brazos mecánicos motorizados con control manual
(http://www.avancestecnologicos.org/)
www.walkagainproject.org/ es un proyecto internacional de construcción de prótesis motorizadas controladas directamente por el cerebro.  Se fundó a partir del descubrimiento de una técnica para conectar tejido encefálico vivo de primates  a diversos mecanismos en el Duke University Center for Neuroengineering. En este centro, la mona Aurora aprendió a controlar el cursor de un ordenador con su mente. A través de Internet, puede controlar otros mecanismos robóticos situados al otro lado del planeta.

A partir de estos avances, se trabaja en la construcción de exoesqueletos controlados por ondas cerebrales que permitirán caminar a los incapacitados.


Recibir información directamente al cerebro
Se está también trabajando en sentido inverso: dispositivos que envían información directamente al cerebro, sin pasar por los órganos sensoriales. Hasta ahora se ha conseguido que el mono sepa que un caramelo se encuentra en una cierta caja de entre varias posibles. Se trabaja en conseguir que sea otro mono el que le comunique la ubicación del caramelo, estando alejados físicamente, y comunicándose entre sí de cerebro a cerebro mediante una interfaz electrónica. Es decir, no hay ningún lenguaje ni símbolos, simplemente la idea se transmitirá directamente de un cerebro al otro.


Comunicación directa con ordenadores e Internet
Microrobot
Con esta tecnología podemos imaginar que será posible comunicarse directamente con el hardware y el sistema operativo de un ordenador mediante la actividad neuronal directa. Ya hay interfaces de este tipo funcionando, como por ejemplo los interfaces cerebrales para juegos, o la interfaz Brainloop. Esta posibilidad nos abre un mundo nuevo, con instrumentos controlados por el pensamiento y, ¿porque no?, avatares que pueden actuar por nosotros en cualquier sitio, desde las profundidades del océano hasta el microcosmos, mediante microrobots.


Redes cerebrales
Si se consigue la comunicación directa entre mentes a través de interfaces, supondrá una revolución de las actuales redes sociales, que pasarían a ser redes neurosociales. ¿Transmitiremos directamente imágenes mentales a la red, formando una especie de red cerebral mundial? En esa sociedad, miles de millones de personas podrían contactarse entre sí con el pensamiento.


Bibliografía
Miguel A.L. Nicolelis: Una mente extracorpórea. Investigación y Ciencia, abril 2011




sábado, 28 de abril de 2012

Utilidad del concepto de Ser para la ciencia


Causas y efectos en la filosofía de la ciencia
Hume fue el primero en distinguir  las impresiones, derivadas de las sensaciones recogidas por los sentidos, y las ideas, conjuradas por la mente. Una impresión sería la producida por la percepción del canto de un pájaro, mientras que una idea sería la imagen de un pájaro conjurada por la mente. Los elementos de una idea compleja, en última instancia, son o bien impresiones sensoriales o bien otras ideas más simples.

La filosofía cartesiana considera a la conexión causa-efecto como necesaria. En cambio Hume fue el primero en refutar este concepto, señalando que la causalidad no puede descubrirse entre las propiedades de los distintos objetos o eventos:

No existe ningún objeto que implique la existencia de otro cuando consideramos a ambos objetos en sí mismos, sin mirar más allá de las ideas que nos formamos de ellos.

La relación causa-efecto en Hume depende enteramente de las ideas del observador; él define la causa como: 
 
Un objeto precedente y contiguo a otro, y unido a él en la imaginación de tal manera que la idea de uno determina en la mente la formación de la idea del otro, y la impresión de uno la formación de una idea más viva del otro.

Regularidad de los fenómenos observados: empirismo
Si consideramos que A es la causa de B, nuestra expectativa de ver B al percibir A se basa en las experiencias repetidas de la secuencia A precede a B. O sea que el conjunto de esas experiencias es la causa de nuestra expectativa. Aplicando de nuevo el pensamiento de Hume a esta causa, vemos que las experiencias preceden a la expectativa, son su causa, pero su conexión es sólo mental, es una construcción del observador, y por tanto por lógica podría no repetirse.

Por ejemplo, la Estadística usa el principio de la regularidad para dar consistencia empírica a la probabilidad: dado un experimento aleatorio, como puede ser el lanzamiento de una moneda, no podemos predecir su resultado, pero siempre que repitamos el experimento un número elevado de veces, observaremos que las frecuencias relativas de los posibles resultados, esto es, el número de veces que se presenta cada posibles resultado dividido por el número total de pruebas realizadas, siempre se estabilizan tendiendo a un límite que es la probabilidad empírica del resultado. En la siguiente tabla vemos la evolución de las frecuencias relativas para un número N de ensayos del lanzamiento de una moneda; en el límite las frecuencias de los dos resultados se igualan a 0,5, o 50%.


N 10¹ 10² 10³ 10⁴
caras 0,60 0,57 0,49 0,50
cruces 0,40 0,43 0,51 0,50


Este principio de regularidad da solidez a todo el aparato matemático de la probabilidad que nos permite calcular probabilidades sin recurrir a simulaciones. Pero ¿cuál es la causa de este principio? Si no la conocemos, ¿cómo podemos estar seguros de su validez universal?

Principio de inducción
En Ciencia el principio de inducción se usa para generalizar resultados particulares. En el caso del lanzamiento de la moneda, una vez observados un gran número de veces los resultados empíricos, generalizamos diciendo que las frecuencias siempre se acercan a 0,5 cuando N es grande. El rechazo del principio de la inducción es quizá la parte central del razonamiento de Hume. Para ser lógicamente aceptable, el principio de la inducción debe poderse derivar de otro principio independiente.

Según Bertrand Russell:
Lo que los argumentos (de Hume) prueban —y yo pienso que la prueba no es refutable— es que la inducción es un principio lógico independiente, incapaz de ser inferido ya sea de la experiencia o de otro principio lógico, pero que sin la inducción la ciencia es imposible.

Ciencia y realidad
Como consecuencia de esta línea de razonamiento parece inevitable que enunciemos que la realidad no podrá ser nunca totalmente conocida por la ciencia, ya que está limitada por el uso habitual del principio de inducción. El cual no tiene un fundamento sólido. En efecto, para algunos filósofos y también para muchos científicos la ciencia es incapaz de explicar toda la realidad, y se limita únicamente a describir el funcionamiento de las cosas, dentro de sus posibilidades.

Pero por otro lado, sabemos que la Física ha cambiado nuestro conocimiento de la realidad, dándonos una imagen muy distinta de la que nunca nos habríamos podido imaginar guiándonos sólo por nuestra experiencia cotidiana. Esto es así debido en parte a los avances en Física experimental: ahora podemos diseñar experimentos con una precisión realmente difícil de entender por el no iniciado. Los detectores del CERN, por poner un ejemplo, recopilan los datos de millones de colisiones de partículas por segundo, y son capaces de diferenciar eventos separados sólo por 0,000000001 segundos. Esta precisión eleva al empirismo a otra dimensión, por así decirlo, y quizá no llega totalmente a la realidad, pero permite acercarnos mucho a ella. Por otra parte, la Física matemática ha seguido los pasos de la experimental, y nos proporciona modelos cada vez más precisos. Así pues, el argumento de Hume lógicamente es irrefutable, pero parece que la ciencia se acerca progresivamente más y más a la realidad, en lo que vendría a ser un proceso de paso al límite: nunca llegaremos, pero nos acercamos progresivamente, somos cada vez más precisos.


Utilidad del concepto de Ser
De hecho, si pudiéramos fundamentar el principio de inducción de algún modo, la ciencia quedaría completa desde el punto de vista filosófico. Según Bernard d'Espagnat la idea de una realidad independiente y altamente estructurada, que llamaremos simplemente “Ser”, puede explicar las regularidades observadas. Esta realidad no tiene porque ser cognoscible con certeza (como algunas extrapolaciones del teorema de Gödel y la misma Física Cuántica indican).

El trabajo científico se ocupa, pues, de encontrar correspondencias entre la realidad y los conceptos mentales. La Física nos muestra que el Ser escapa a nuestras categorías mentales habituales; por ejemplo nuestro rígido concepto del tiempo absoluto no coincide para nada con la definición dada en Física relativista. Lo mismo podemos decir del concepto de espacio, que en relatividad depende de las velocidades de los observadores y del campo gravitatorio. Incluso la división natural que hacemos entre sujeto y objeto, se diluye en Física cuántica.

Entonces afirmar que existe el Ser, una realidad más allá del espacio y del tiempo, y anterior a la escisión sujeto-objeto, lejana en el sentido de que difiere de nuestra experiencia cotidiana, que es la fuente de los fenómenos observados, no tiene porque ser un ejercicio de metafísica, al contrario, puede fundamentar la ciencia sobre una base que explique el principio de inducción. Además, puede establecer puentes entre la visión científica y el misticismo, que no es otra cosa que una vía alternativa para alcanzar el Ser. 

Bibliografía
Bernard d'Espagnat: En busca de lo real. Alianza Universidad.
 

Realidad, física cuántica y misticismo

Ayer estuve revisando un librito que tengo desde hace años, se titula " El espíritu en el átomo : una discusión sobre los misterios de...