viernes, 12 de octubre de 2018

¿El saber humano tiene límites?

Este post introduce algunas ideas relativas al conocimiento en sí, tanto desde un punto de vista filosófico (epistemología) como místico, simularemos una conversación entre un filósofo F y un místico M, que opinan sobre la cuestión "¿el saber humano tiene límites?".

Cuestión: ¿el saber humano tiene límites?

F: El optimismo basado en el avance de la humanidad, que adquiere conocimiento de forma acelerada, de hecho se dice que estamos en la era del conocimiento, ya superada las eras industriales y de la información, nos inclina a decir que no hay límites al conocimiento humano. Pero por otra parte si no hay límites implica que se puede llegar a la omnisciencia, a saberlo todo de todo, al conocimiento absoluto; ¿tiene sentido esto? Hegel decia que estamos en una evolución que está "desenvolviendo" como si dijéramos la Idea del Absoluto. En cambio el positivismo afirma que no podemos descifrar todos los misterios del Universo, que el único conocimiento alcanzable es el basado en lo observable, y que la Ciencia nos proporcionará bienestar y paz. 

M: Estoy con Hegel en el sentido de que "la Idea" es la que se está desplegando, y que la humanidad forma parte de esta Idea: somos una expresión particular del Absoluto. Entonces la pregunta de si el saber humano tiene límites puede reformularse así: ¿podemos nosotros, como seres parciales que somos, siendo sólo una parte insignificante del Absoluto, conocer el Todo del que formamos parte?

F: Sólo podemos conocer aquello de lo que podemos ser conscientes, y la conciencia como herramienta de conocimiento tiene limitaciones; en efecto, muchos de nuestros actos y estados emocionales tienen un origen inconsciente o semi-consciente. Y si existe un alma, está fuera del alcance de la conciencia, que es incapaz de percibirla; por eso la necesidad de la fe en todas la religiones. 

M: Pero la conciencia es entrenable a voluntad, es susceptible de ser ampliada y profundizada. Hay numerosos testimonios que lo afirman, de todas las épocas y lugares. Una conciencia entrenada es capaz de percibir estados que antes eran inconscientes, de estados interiores sutiles, quizá de ese núcleo de la interioridad que llamamos alma.

F: Incluso con una conciencia entrenada, la evidencia de que se sabe algo con certeza es escasa, sucede pocas veces; normalmente para llegar a esa evidencia necesitamos el método discursivo, que va formando puntos de vista sobre el objeto a conocer, razonando lógicamente, y que tiene serias limitaciones: divagamos frecuentemente entre la opinión claramente parcial, desinformada, sesgada, y la duda, tomando a menudo verdades parciales como absolutas, dejándonos influir por pasiones o intereses personales. 

M: En efecto las evidencias de certeza son escasas cuando la conciencia no está bien entrenada; cuando lo está, es capaz de captar sutilezas e intuiciones, y acceder a la denominada "visión directa" o insights en inglés, verdades no discursivas, o no enteramente discursivas. Además, una conciencia entrenada es capaz de detectar si en nuestro mirar para entender se interfieren preferencias personales o prejuicios distorsionadores. Se puede llegar a tener una mente y una visión clara, que combine el razonamiento lógico con la intuición, y no se deje llevar por prejuicios y apasionamientos. 

F: Quizá esa conciencia entrenada sea capaz de un conocimiento preciso del propio mundo interior, subjetivo, de la persona. Pero el saber respecto al mundo exterior ha de ser incluso más incompleto que el del mundo interior. Hay un número ilimitado de acontecimientos tanto pasados como futuros que quedan fuera de nuestro conocimiento; incluso hechos históricos de la humanidad de los que no se tiene registro estan olvidados, fuera de nuestro alcance. Por ello el conocimiento absoluto es un imposible para el ser humano.

M: Sí, nuestra mente insconsciente tiene una capacidad limitada de percepción y de retención en la memória, pero no ocurre así con nuestra mente inconsciente: absolutamente todo lo que nos ha sucedido, con todos los detalles sensoriales y emocionales incluidos, está en la memória inconsciente, nada se pierde. Es más, nuestra mente inconsciente está conectada con el inconsciente colectivo, y aún más allá con el inconsciente universal que registra todo lo sucedido, y por medio del cual se pueden recordar vidas pasadas mediante técnicas de regresión a vidas anteriores.  En realidad, no es que nuestra mente inconsciente se conecte con el inconsciente universal, es que ámbas mentes son una. Y la conciencia entrenada es capaz de acceder a sus contenidos.

F: Incluso así, suponiendo que tenemos acceso a toda la información memorizada de sucesos pasados, las leyes de la naturaleza parecen mostrar una complejidad creciente, cada descubrimiento presenta problemas más complicados de resolver, abriendo nuevas áreas de investigación, en un proceso acelerado que no parece tener fin. En el siglo XIX se creía que ya se sabía casi todo de la Física, hoy en dia sabemos que incluso cuando miramos el cielo estrellado, aparentemente simple, hay allí una complejidad que desafía las mentes más brillantes.

M: Claro, el conocimiento científico es positivista, esto es, basado en encontrar leyes fijas que a partir de causas conocidas expliquen de forma lógica los efectos observados, y es por tanto un conocimiento de tipo intelectual. Pero ya hemos comentado que ademásd el conocimiento derivado del intelecto lógico existe el derivado de la vivencia directa, el intuitivo, y ambos se complementan: numerosos descubrimientos científicos han tenido su origen en insights intuitivos, y también un conocimiento científico detallado, al ser observado mentalmente, puede dar lugar a visiones directas de la realidad. Así que si hablamos del conocimiento en general, no queda limitado al científico. Cabe preguntarse si el conocimiento posible es infinito o está limitado; en el primer caso nuestro aprendizaje nunca terminará, pues nunca se puede abarcar lo infinito, al menos con una conciencia finita, necesitaríamos una conciencia tambien infinita ... ¿la conciencia del Ser absoluto?

F: Sigo opinando que hay límites a nuestro saber, tanto del mundo externo como de nuestr mundo subjetivo, insconsciente. Tanto en extensión como en profundidad.

M: El saber universal, total, existe. Nosotros como seres limitados no podemos "poseer" el conocimiento absoluto, pero es que no es necesario "llenarnos" con algo ilimitado, sólo necesitamos entrenar nuestra conciencia para que acceda a ese saber universal, y lo hace no por métodos intelectuales, lógicos, sino por visión directa, intuitiva.








sábado, 22 de septiembre de 2018

Homenaje a Stephen Hawking (II): Agujeros negros estelares, visión clásica

Este post es el segundo de una serie escrita en homenaje a Stephen Hawking, fallecido en 2018. En todos los post vamos siguiendo el hilo de la narración del primer best seller de Hawking, la Historia del Tiempo (1987). En el articulo anterior se cubrió el equivalente a los tres primeros capítulos, que tratan de la evolución histórica de las teorías sobre el Universo y sobre el espacio y el tiempo. Los dos siguientes capítulos son una introducción a la física cuántica, que no resumiremos en esta serie, pues ya hemos escrito numerosos artículos sobre el tema (ver por ejemplo los cuatro artículos de la serie Entendiendo la mecánica cuántica). En este artículo seguimos el capítulo 6, dedicado a los agujeros negros estelares vistos desde la Teoría de la Relatividad General, sin tener en cuenta la Física Cuántica, en el próximo artículo incluiremos ésta última en el estudio de las singularidades del espacio-tiempo, siguiendo el capítulo 7 del texto de Hawking. Mantendremos el estilo divulgativo de Hawking reduciendo al mínimo las matemáticas.

Gravedad y luz

Ya en 1783 J. Michell opinó (no pudo demostrarlo, no había la teoría necesaria en esa época) que una estrella muy masiva quizá debería ser capaz de capturar hasta la luz, de forma que en vez de iluminar su entorno se vería como una zona negra en el espacio. La idea de que la luz pueda ser capturada por la gravedad va muy ligada a imaginar la luz como un chorro de corpúsculos que viajan por el espacio como balas y por ello podrían ser desviados de su trayectoria; en cambio si se imagina la luz como una onda electromagnética, o sea una perturbación oscilatoria, ya cuesta más imaginar como puede ser afectada por la gravedad. En la época de Michell había esta controversia, de decidir qué era la luz, si ondas o corpúsculos, con defensores y detractores de ambas opiniones.

Ecuaciones del campo gravitatorio
No fue hasta 1915 con A. Einstein que pudimos tener una teoría consistente, comprobable, de cómo afecta la gravedad a la luz. Las ecuaciones de la Relatividad General describen de hecho mucho más: muestran cómo la gravedad modela al escenario de la realidad, al espacio y al tiempo como un todo, al espacio-tiempo. Esas ecuaciones, ampliamente comprobadas experimentalmente, están escritas en una notación compacta, pero son muy complicadas de resolver, y no se obtiene una solución única, sino diversas soluciones posibles con consecuencias sorprendentes, como los agujeros negros estelares.


Nacimiento, vida y muerte de una estrella

http://abyss.uoregon.edu/~js
Imaginemos una nube inmensa del gas más simple que existe en la naturaleza, el gas hidrógeno (símbolo químico H); cuando decimos inmensa no exageramos, hablamos en términos cosmológicos: son nubes de una extensión de decenas de años-luz (un año luz = 10 billones de km). Siendo tan grande, y a pesar de ser tenue, contiene mucha masa en conjunto (del orden de 10³⁰ kg), y por ello genera un campo gravitatorio intenso. Al ser gas, es comprimible, así que las regiones más lejanas de la nube son atraídas por la gravedad hacia el centro de la nube, comprimiendo el gas. Desde el punto de vista de la energía, la gravedad efectúa un trabajo de compresión del gas, y ese trabajo genera un aumento de la energía interna del gas (primer principio de la Termodinámica, Q = W + ΔE, siendo Q el calor suministrado, W el trabajo y ΔE el incremento de energía) que se traduce en un aumento de su temperatura: el gas se va calentando conforme se comprime a volúmenes menores. 

La temperatura, vista des el punto de vista molecular, es velocidad: las moléculas de H se mueven a velocidades cada vez mayores, llegando a ser enormes (correspondiente a temperaturas de miles de grados), por ello las moléculas de H formadas por dos átomos de hidrógeno se rompen al chocar entre ellas, y la nube comprimida deja de ser molecular, pasa a ser un nube de átomos chocando entre violentamente. La compresión gravitatoria sigue su curso, hasta que la colisiones son tan energéticas que se inician los procesos de fusión nuclear (el mismo proceso que usan las centrales nucleares) en la que dos núcleos de H se unen para formar un nuevo núcleo de Helio (símbolo He), liberando energía radiante (radiación electromagnética) según la ecuación de Einstein, E = mc².   En ese momento la presión del gas y de la radiación, expansivas, contrarrestan la fuerza de la gravedad y la nube, que ya es una estrella, se estabiliza. La estrella alcanza en su interior temperaturas de millones de grados.

Como más grande es la estrella, más gravedad aplastante genera, y por tanto necesita fusionar hidrógeno más rápidamente para no seguir comprimiéndose.  Por ello, las estrellas más grandes y brillantes consumen antes todo su hidrógeno y se apagan antes que las menores: las duraciones están entre 100 y 10.000 millones de años. Una vez agotada el combustible de fisión nuclear, la gravedad sigue comprimiendo el gas residual. ¿cuando se detiene?

Colapso gravitatorio


Chandrasekhar (1928) propuso que el principio de exclusión de Pauli podía establecer un nuevo y definitivo freno a la compresión forzada por la gravedad; básicamente este principio de la Física Cuántica establece que las partículas elementales denominadas fermiones (los constituyentes básicos de la materia) no pueden "apilarse" demasiado, y gracias a esto la materia que nos rodea parece sólida, a pesar de que los átomos de la que está constituida están prácticamente vacíos; un átomo es en un 99,9999999999% espacio vacío, y la solidez que vemos a nuestro alrededor no es "material" como imaginamos, sino el resultado de unas fuerzas de repulsión: cuando tocamos algo sólido realmente no llegamos nunca a contactar nada, nos quedamos a una cienmillonésima de milímetro, pues nuestros átomos y los del sólido se repelen debido al principio de exclusión. Pero al efectuar cálculos, encontró que si la estrella apagada tenía más de 1.5 veces la masa del Sol (el denominado valor límite de Chandrasekhar), ni siquiera el principio de exclusión podría detener la compresión; por debajo de esa masa, sí se detenía, resultando un astro denominado estrella enana blanca, con una densidad enorme, de toneladas de masa comprimidas en cada cm³ (comparativamente, un cm³ de plomo contiene 11 gramos de masa). Se han descubierto muchas de estas estrellas. 


Lev Landau (1929) precisó que el límite de Chandrasekhar aplicaba el principio de exclusión a los electrones de la corteza atómica, pero que al seguir la compresión, los electrones de carga negativa "caerían" al núcleo, combinándose con los protones de carga positiva para formar neutrones de carga neutra (una reacción nuclear ya conocida entonces, captura electrónica e⁻ + p⁺ = n). Entonces el principio de exclusión se aplicará a los neutrones,  resultando un nuevo equilibrio, con densidades muy superiores a los establecidos por los electrones; se postuló pues un nuevo objeto estelar, las estrellas de neutrones, objetos masivos muy singulares enteramente constituidos por neutrones tremendamente compactados, toda la estrella es como un gigantesco núcleo atómico compuesto sólo de neutrones: el radio es de unas decenas de kilómetros y las densidades son de ... ¡cientos de miles de toneladas por cm³!, lo que comparativamente sería como comprimir 1.000 locomotoras de 100 toneladas cada una en un cubito de un cm de lado. Siendo astros tan pequeños (astronómicamente hablando) se tardó décadas en comprobar su existencia pues "no se veian" al ser tan pequeños y estar a distancias astronómicas.


El primer indicio de las estrellas de neutrones se debe a J. Bell (1967): descubrió una fuente lejana y potente de radiación que la emitía  de forma periódica, como pulsos separados siempre por el mismo intervalo de tiempo, con una enorme precisión temporal, y por ello se denominó al nuevo astro como púlsar.  Al investigar qué podía producir esa fuerte radiación periódica, que además procedía de un objeto demasiado pequeño para ser visto, se propuso que podía ser debido a un sistema de dos estrellas de neutrones orbitando una a la otra. Desde entonces se han descubierto otros sistemas de este tipo. 

Pero de nuevo los cálculos indicaban que incluso la presión repulsiva del principio de exclusión en los neutrones seria incapaz de resistir la presión atractiva, aplastante, de la gravedad si la masa del astro superaba tres veces la masa del Sol. ¿Que sucede entonces? Antes de volver a ello, visitemos lo que se estaba estudiando relativo a la luz, la gravedad, y la causalidad (relación causa-efecto) a partir de la teoría de la Relatividad General.

Luz, relatividad y causalidad

En relatividad es habitual el uso de diagramas para ilustrar como se comporta el espacio-tiempo en presencia de gravedad. 
Fig. 1: Cono de luz de un suceso O, en ausencia de gravedad
 
En la figura 1 vemos un diagrama espacio (eje horizontal, en unidades relativistas: una unidad equivale al espacio recorrido por la luz en un segundo) tiempo (eje vertical, en segundos). Cada punto del diagrama representa un suceso: algo que ha ocurrido en un lugar del espacio y en un tiempo exacto; y cada trayectoria representa un conjunto continuo de sucesos, algo que evoluciona en el espacio y el tiempo. Hay dos líneas a 45⁰ que coinciden con los bordes laterales del triángulo en azul, denominado cono de luz del suceso O: representan las trayectorias de rayos de luz que salen del mismo punto del espacio-tiempo que el suceso O (como si en O se "enciende  una linterna"), en la escala relativista usada, por cada unidad de tiempo se recorre una unidad de espacio, por eso forman un ángulo de 45⁰. 

Como nada viaja más deprisa que la luz, cualquier otra trayectoria que pueda relacionarse (encontrarse) con el suceso O, en el pasado o en el futuro, tendrá un desplazamiento más lento, y por ello el ángulo con la vertical será menor de 45⁰; en otras palabras, esas trayectorias caerán dentro de los triángulos azules. A esas trayectorias del espacio-tiempo, relativas a un suceso origen O, se las llama trayectorias de género tiempo.  Hay dibujada una de esas trayectorias en la figura 1, con un punto azul que representa un suceso en un lugar y un instante, al que llamaremos P; como está dentro del cono de luz, podría ser que a partir del suceso O (por ejemplo, arrancar el automóvil para ir al trabajo) se genere una sucesión de eventos (el recorrido con el coche) que acabe coincidiendo en el espacio-tiempo con el otro suceso P (en el recorrido nos encontramos con que presenciamos un accidente delante nuestro). Podría ser incluso que la cadena de sucesos que empieza en O tuviera algo que ver con el suceso futuro P (por ejemplo, nos hemos saltado un semáforo en rojo, otro vehículo nos esquiva y se estrella, y ése el el accidente P que hemos causado). Por eso al triángulo azul se le denomina futuro causal de O, pues ahí han de estar todos los sucesos que pueden tener relación con O. 

Por otro lado, un suceso que esté fuera del cono de luz está demasiado lejos en el espacio como para que nada, ni la luz, pueda comunicarlo con el suceso O, y por ello se trata de sucesos sin relación causal con O. Las cadenas de sucesos que caen todos fuera del cono de luz de O se denominan trayectorias de género espacio

Por último, destacar que en los diagramas anteriores el espacio es unidimensional, en la realidad es tridimensional, los diagramas serian de cuatro dimensiones, y los triángulos serian conos en cuatro dimensiones, de ahí el nombre de conos de luz.

Luz, gravedad y causalidad

Todo lo anterior supone que el espacio-tiempo es "plano", esto es, que las trayectorias más cortas entre dos de sus puntos son lineas rectas. Pero la relatividad general nos dice que la gravedad curva el escenario de modo que la trayectoria mínima ya no es la recta, sino una curva, denominada geodésica.

Oppenheimer (1939) sugirió que al tener en cuenta la gravedad, los conos de luz, en las cercanías de un objeto masivo, se curvarían. 
Fig.2: cono de luz curvado en las cercanías de un objeto masivo
 
En la figura 2, los rayos de luz que han partido del suceso O, al acercarse a la estrella representada por el círculo amarillo, curvan su trayectoria, y el cono futuro pasa a ser también curvado, afectando al futuro de O. Observemos que al curvarse, ocupa menos área, y por ello sucesos futuros que podrían haber estado relacionados con O ahora quedan fuera del futuro causal por efecto de la gravedad. No es sólo la luz que es desviada, también la causalidad del suceso O queda afectada. Si tomamos el objeto masivo como centro del diagrama, el cono de luz ya "nace" curvado en su origen, ya no es un cono recto sino curvado (fig. 3).

Fig.3: en los alrededores de un objeto masivo se deforma el cono de luz


Espacio-Tiempo en el colapso gravitatorio

¿Qué pasará si el objeto es supermasivo? La curvatura del cono aumenta con la gravedad, y llega un momento en que la luz que podría salir de la estrella no escapa, su trayectoria está totalmente curvada y cae otra vez: el cono colapsa y se forma un agujero negro estelar; la luz exterior que se acerca demasiado también caerá, y si se acerca exactamente a una distancia crítica, quedará orbitando el astro. Si está más lejos que esa distancia, se curvara su trayectoria pero no caerá el interior del agujero. Esta distancia crítica define el denominado horizonte de sucesos (fig. 4).
Fig4: Espacio-tiempo alrededor de un agujero negro. El rectángulo delimita el horizonte de sucesos.
 
 
Los rayos de luz exteriores que se dirigen hacia el agujero negro tienen sus conos de luz muy inclinados, y la trayectoria se curva hasta caer en el centro (linea vertical negra, coincide con el eje tiempo). Si la luz dentro del área del horizonte de sucesos cae al centro, lo hará con más razón cualquier objeto y cualquier trayectoria (punto 2 de la imagen). Un objeto lejano (punto 1 de la imagen). puede ser capturado por la gravedad del agujero y quedarse en órbita alrededor de él, como pasa con cualquier astro, esa trayectoria orbital se ve en el diagrama espacio tiempo como una hélice que rodea el cilindro (en dos dimensiones se ve como un rectángulo) del horizonte de sucesos. Cualquier suceso que sea interior al horizonte no puede ser observado desde el exterior (de ahí su nombre).

viernes, 7 de septiembre de 2018

Homenaje a Stephen Hawking

Homenaje a Stephen Hawking (I)

En este año 2018 falleció Stephen Hawking, un reconocido gigante de la Física y gran divulgador de la investigación que se realizar al más alto nivel. Desde que tuve la noticia, sentí el impulso de escribir un artículo divulgativo en su honor, al estilo de este blog, con una mirada a la vez científica y filosófica, esta vez dedicada a la obra de Hawking. Y no es una tarea fácil, más bien lo contrario: han pasado los meses desde que tuve el impulso y no he sido capaz de encontrar el tiempo necesario para releer sus obras y sintetizar su aportación, así que finalmente decidí simplificar mi primera idea y simplemente centrarme en la que fue su primera obra divulgativa, la que le hizo famoso: Historia del Tiempo

Me regalaron la primera edición (1988) de Historia del Tiempo cuando estaba estudiando la licenciatura en Física, y tengo que decir que me encantó su estilo claro y directo y al mismo tiempo su nivel, mostrando las fronteras del conocimiento científico sobre el espacio y el tiempo, sobre el Universo. No en vano fue un bestseller, se han vendido millones de copias. La aportación que se intenta hacer aquí es a la vez sintetizar el contenido de Historia del Tiempo y enlazar algunos aspectos con otros sitios web para ayudar a la comprensión del material. Dedicaremos algunos artículos a ello:

  • en este, el primero, revisamos las teorías sobre como creíamos que es el Universo, al menos hasta que Hawking empezó su investigación, allá por los años 60 del siglo XX,
  • en los siguientes vemos el tema estrella de la investigación de Hawking: los agujeros negros galácticos,
  • en la tercera veremos el origen y la evolución futura del Universo.

La introducción de Hawking

Pasamos por la vida sin entender prácticamente nada. Las "grandes preguntas" quedan sin respuesta, y de hecho ya ni nos preocupan. La pregunta más grande de todas quizás es "¿cuál es el pensamiento de Dios, del creador?
Así es, vivimos, pensamos mucho, de hecho pensamos continuamente, incluso compulsivamente, pero prácticamente todos nuestros pensamientos son relativos a asuntos personales, a qué hacer hoy o mañana, a cómo resolver problemas o acometer tareas, a opinar sobre personas y acontecimientos ... pero la mayoría de nosotros no dedicamos nada de nuestro potencial de entendimiento a las grandes preguntas: ¿hay un creador? ¿porque creó? ¿hay un sentido de la vida, hay un propósito?  No parecen preguntas científicas, y de hecho no lo son, pero la Física del Cosmos investiga la existencia y funcionamiento del Universo, del espacio y del tiempo, escenario en el que transcurre todo lo que existe, y quizás debería haber cierta conexión entre este conocimiento científico y las grandes preguntas, es precisamente el campo en el que este blog siempre se ha movido, en el limbo existente entre ciencia y filosofía. Hawking pues, investiga y al mismo tiempo se hace las grandes preguntas, y como es bien sabido, opinó que simplemente el creador no existe, sólo opinó, no estableció, pues las grandes preguntas están fuera del ámbito de la ciencia y no pueden ser establecidas por ella. 

Nuestras imágenes de cómo es el Universo

En la antigüedad los modelos del Universo debían adaptarse a cómo se veía a simple vista, pues no habían más medios de observación; viendo como el Sol sale y se pone cada día, la lógica imponía el modelo geocéntrico es decir imaginar que la Tierra era el centro del Universo y que todos los demás astros o se movían en torno a la Tierra (como el Sol o la Luna) o bien estaban estáticos (estrellas lejanas). Aunque incluso sin instrumentos de observación esa teoría ya tuvo una competidora: el modelo heliocéntrico, que colocaba al Sol en el centro del Universo, y los demás astros giraban en torno a él. Tanto uno como el otro modelo imaginaban un Universo estático, eterno. 

Con los trabajos de Galileo, Kepler y Newton se cambia la perspectiva, y pasa a verse el Universo como un espacio infinito en el que no puede haber ningún centro, ya que visto a gran escala (mirando sobre distancias enormes) aparece como uniforme en todas direcciones (o eso se creía en esa época), sin mostrar ninguna área "especial" en ningún sentido, ningún "centro del Universo".  Kant  (1781) filosofaba lógicamente sobre el Universo: "la supuesta creación del Universo no tiene sentido, pues entonces antes de él no hubiera existido nada por un intervalo de tiempo infinito, entonces, ¿porqué 'de repente' comenzar algo?" San Agustín venia a responder "antes de la creación tampoco existía el tiempo, no tiene sentido hablar de tiempos infinitos antes de la creación". 

H. Olbers (1827) hizo una objeción a un Universo infinito y uniforme: pensó que entonces, ¡el cielo en conjunto brillaría de noche tanto como de día! Pues en cualquier dirección que mirases, no habrían zonas oscuras, siempre habrían un número ilimitado de estrellas en todas direcciones (paradoja de Olbers). Por ello, o bien el Universo no era ilimitado, o bien no era uniforme, o ninguna de las dos anteriores. Hubble (1926) a partir de sus trabajos y observaciones, propuso que debía de haber existido una creación inicial del Universo, quizá una gran explosión primordial.  

Espacio, tiempo y luz

Ese es el escenario de la creación y del Universo: el espacio y el tiempo. Aristóteles opinó que el estado "natural" de los objetos era el reposo, por eso hay que empujarlos, hacer una fuerza, para moverlos, a más fuerza, más movimiento. Pero la gravedad no lo cumple, pues Galileo demostró que dos masas distintas caen a la misma velocidad, pese a que nos cuesta más levantar una que la otra.

Newton encontró la relación existente entre los conceptos aceleración, masa, fuerza, inercia de una masa a moverse, y gravitación, consiguiendo describir las órbitas de los astros. Junto a Galileo, nos muestra un escenario en el que no existe el estado de reposo absoluto de Aristóteles, ni tampoco existe una posición absoluta, siempre que establecemos la posición de un objeto y su estado de movimiento, lo hacemos relativo a una referencia, y no existe ninguna referencia absoluta. En cuanto al tiempo sí era considerado como absoluto, moviéndose hacia el futuro exactamente al mismo ritmo en todo el Universo.

Por otro lado, Roemer (1676) ya consiguió establecer que la luz no se mueve a velocidad infinita, como se suponía, midiendo una velocidad de aproximadamente 225.000 km por segundo. Mucho más tarde Maxwell (1865) encontró sus ecuaciones del campo electromagnético, mostrando que la luz era eso, un campo electro-magnético auto-sostenido que por sus características eléctricas y magnéticas tenía forzosamente que propagarse a una velocidad fija, denominada c, y no a otra; esto chocaba con la imagen de la velocidad relativa a una referencia y no absoluta, pues, ¿con respecto a qué se movía la luz? De ahí surgió la hipótesis del éter, un medio universal que servía de fondo estático, de forma que la luz se movía a velocidad c respecto al éter. La investigación se dirigió entonces a detectar ese éter para probar la hipótesis; el famoso experimento de Michelson y Morley (1887) determinó que, a pesar de que la Tierra se está moviendo en órbita alrededor del Sol, y por tanto se debería estar moviendo respecto al éter absoluto universal, la velocidad de la luz medida en diferentes direcciones era siempre la misma, y si fuera absoluta respecto al éter fijo del espacio, el resultado debería haber sido distinto. Einstein y Poincaré (1905) se pronunciaron a favor de la velocidad absoluta de la luz, por tanto el éter no aportaba nada, y podía abandonarse la idea de su existencia. La luz, y en general la radiación electromagnética, se propaga  siempre a la velocidad determinada por Maxwell, independientemente de su velocidad relativa del foco emisor y del receptor. 

Intuititivamente,si un foco emisor de luz se mueve a velocidad v respecto a una referencia, y un receptor los hace a velocidad v', la velocidad relativa entre emisor y receptor será v + v', y la velocidad de la luz emitida será c - v para el emisor, y c +v + v' para el receptor. No es así como se comporta laNaturaleza: tanto el emisor como el receptor 'verán' que la luz se propaga, respecto a ellos, a la misma velocidad c prevista en las ecuaciones de Maxwell.

La constancia de la velocidad c para todos los observadores, predicha por la teoría de Maxwell, tiene consecuencias radicales para nuestra imagen del escenario espacio-tiempo, descritas en la teoría de la relatividad especial de Einstein (1905): c no es sólo la velocidad absoluta de la radiación electromagnética, es también la velocidad máxima universal que un observador puede medir; al haber una velocidad máxima, límite, se afecta a la dinámica de Newton: la masa inercial de un cuerpo ya no es constante, sino que aumenta con su velocidad sin límite, pudiendo llegar en teoría a ser infinita, y lo mismo pasa con su energía cinética. Por ello, se deduce que hay una relación entre la masa y la energía, la famosa E = mc². Además, la velocidad no es más que una relación entre el espacio recorrido en cierto tiempo, y el existir una velocidad límite, afecta al tiempo y al espacio recorrido: el tiempo no puede ser absoluto, marcando el mismo ritmo en todo el Universo, si no que pasa a ser relativo al observador, y lo mismo pasa con las distancias recorridas, que no son vistas iguales por todos los observadores. Así pues, el estudio del electromagnetismo acabó cambiando radicalmente, contra-intuitivamente, nuestra concepción del espacio y del tiempo.

Relatividad especial

La teoría de la relatividad especial presenta pues un escenario espacio temporal en el que el ambos son relativos al observador, y lo único que es absoluto es el límite universal de velocidad c. En los dos diagramas siguientes se muestran algunas consecuencias.
Diagramas E-T: En los diagramas de espacio recorrido - tiempo utilizado de la relatividad especial, se escogen las unidades de espacio y de tiempo de modo que la velocidad máxima c corresponde a una línea diagonal a 45⁰. Un objeto inmóvil en el espacio se mueve en el diagrama siguiendo una línea vertical (transcurre el tiempo pero no el espacio). En la figura, dos estrellas están en posiciones relativas fijas, el Sol y Alfa Centauri, y la luz del Sol viaja en diagonal desde el presente (línia base) hasta encontrar a Alfa Centauri en un momento futuro. Todo objeto que se mueva a velocidades constantes inferiores a c describirá una recta con pendiente superior a 45⁰, y si está inmóvil, a 90⁰ (línea vertical). Las trayectorias con inclinación inferior a 45⁰ no son físicamente reales.
Conos de luz en el espacio tiempo: Para el caso del Sol, cualquier objeto que se mueva tendrá una trayectoria relativa al Sol en el espacio-tiempo que estará dentro del cono formado por las trayectorias a 45⁰ que sigue la luz cuando se aleja del Sol, hemos representado un velocidad nula 0c (vertical), otra a 0.4c más inclinada, y otra a 0.9c cerca del límite del cono. Las velocidades superlumínicas v > c situadas fuera del cono no se admiten en la teoría de la relatividad, y nunca han sido observadas.
En estos diagramas se representa el espacio como si fuera un dimensión, por eso en vez de conos vemos triángulos; en realidad, es tridimensional, y un diagrama espacio-tiempo completo seria 4-dimensional,  con conos tridimensionales.

Un evento es un suceso que ocurre en un lugar del espacio y un instante de tiempo; los eventos pueden comunicarse información, incluso uno puede ser causa del otro, pero siempre que los dos estén dentro del cono de luz de uno de ellos, de otra forma los eventos estarán demasiado separados para comunicarse, pues cualquier comunicación no puede superar la velocidad c. El siguiente diagrama ilustra esto.
Un evento, por ejemplo la emisión de radiación por un núcleo radiactivo, ocurre en un punto del espacio-tiempo que tomamos como aquí-presente. El cono futuro contiene todos los otros sucesos que pueden verse afectados en el futuro por la emisión, hay un sujeto que está a una distancia d en el momento de la emisión y notará la radiación en un momento futuro a partir del punto "irradiación". El cono pasado contiene todos los eventos ocurridos antes del presente que, por estar suficientemente cerca, han podido interactúa con la emisión radiactiva en el presente. Se muestra en rojo una explosión en el pasado desconectada causalmente del evento presente.

Gravedad y espacio-tiempo


¿A qué velocidad se transmiten las fuerzas? No puede ser mayor que c en ningún caso. ¿En concreto, la fuerza gravitatoria, es instantánea? Tampoco puede serlo por el mismo motivo. Einstein (1915) propuso en su teoría general de la relatividad no existe tal cosa como "la fuerza de la gravedad", más bien lo que sucede es que en las cercanías de cuerpos masivos se genera una aceleración intrínseca debido a la deformación del espacio-tiempo, que deja de ser plano para pasar a ser un espacio-tiempo curvo. Entonces las órbitas de los planetas alrededor del Sol, que son elipses, geométricamente pueden verse como trayectorias "obligadas" por la deformación del espacio-tiempo causada por la masa del Sol, no es que se las fuerce a seguirlo "tirando" de ellas, es que el principio de inercia de Newton, que dice que un móvil en movimiento libre seguirá una línea recta, debe revisarse para decir "un móvil en movimiento libre seguirá una línea geodésica", o sea, la trayectoria más corta posible entre dos puntos, que en una trayectoria sobre un superficie plana es la recta, pero sobre una superficie curvada ya no.

En particular, si es el propio espacio el que se deforma, y las trayectorias de mínima distancia ya no son rectas, entonces hasta la luz, que no tiene masa, debería seguir trayectorias curvas cerca de objetos masivos; esto fue verificado por un experimento conducido por A. Eddington (1919).
La luz emitida de una estrella lejana, después de viajar grandes distancias en línea recta, al acercarse al Sol es desviada debido a la curvatura del espacio-tiempo; como resultado, llega  a la Tierra pareciendo que procede de una dirección distinta, produciendo una imagen con una posición aparente desplazada respecto a la posición real. El efecto está muy exagerado en la ilustración, en realidad el desplazamiento angular de la dirección es de sólo milésimas de grado sexagesimal.
El considerar a la gravedad como un efecto de la geometría del espacio-tiempo tiene otros efectos, todos ellos muy contraintuitivos:
  • En un campo gravitatorio el tiempo transcurre más despacio; la medida del tiempo no sólo depende de la velocidad, también de la aceleración y por tanto de la masa. 
  • La dependencia del tiempo respecto la aceleración produce también otros extraños fenómenos como la paradoja de los gemelos: un viajero espacial que parte desde la Tierra, acelerando primero, viajando a alta velocidad, para regresar a la Tierra unos años después, encontrará que su hermano gemelo que se quedó en la Tierra habrá envejecido más que él.
  • Cuando la luz atraviesa un campo gravitatorio, pierde algo de energía, la cual es proporcional a su frecuencia ν, según la ecuación E = hν, por ello, su frecuencia disminuye: la luz se "vuelve más roja" al atravesar el campo gravitatorio.

Expansión del Universo

Hubble (1924) mostró que habían otras galaxias en el Universo además de nuestra Vía Láctea (en ese tiempo se conocían nueve, actualmente se cree que hay del orden de billones de galaxias). Observándolas, dedució que la luz que nos llega de esas galaxias la vemos con una frecuencia distinta a la que fue emitida, debido al denominado efecto Doppler, o sea, debido a que todas esas galaxias se alejan de nosotros a gran velocidad, no algunas, sino todas se alejan de nosotros, es más, también se alejan entre sí, lo cual indica que es una expansión del propio Universo, que se está hinchando como un globo.


Algunos de los mejores matemáticos de la época obtienen soluciones de las ecuaciones de la relatividad general de Einstein (1927). Muestran Universos en expansión que coinciden con lo observado por Hubble:  son las soluciones de Friedmann, Lemaître y otros. No sabemos todavía a ciencia cierta si la expansión será eterna, aunque así parece ser. 
 
Si imaginamos la expansión del Universo pasada a cámara inversa, retrocediendo en el tiempo, llega un momento, hace unos 13.700 millones de años, que todo queda reducido a un punto de densidad infinita. En 1951 la iglesia católica (Papa Pío XII, influenciado por los trabajos de Lemaître, que era un religioso) declara el Big Bang como la creación a la que hace referencia la Biblia; esta afirmación desagrada a los no creyentes, que intentan buscar como refutarla, incluso ridiculizarla. Había nacido la teoría de la gran explosión inicial, con cierta controversia.

Penzias y Wilson (1964) descubren una extraña interferencia electromagnética, constante, activa las 24h del día, que parece provenir de todas las direcciones del espacio; junto con los astrofísicos Dicke,  Peebles, Roll y Wilkinson llegaron a la conclusión de que ese ruido constante era un "eco" remanente de la gran explosión creadora del Universo, el Big-Bang, que quedaba así probado. Además, el hecho de provenir de todas direcciones indica que el Universo visto a gran escala debe de ser muy uniforme. 

La palabra Big Bang, "gran bang", evoca una explosión, pero de hecho no fue eso, fue una expansión desde la nada que todavía sigue. En el punto inicial la Física de la Relatividad General no es aplicable, por ello se la denomina singularidad primordial. La palabra singularidad indica que al aplicar las ecuaciones a ese caso los cálculos devuelven valores infinitos, es como si en la gravitación de Newton, peso = producto de masas / distancia² , hiciéramos la distancia igual a cero, una división por cero no está definida, o bien se supone que resulta un valor infinito. Antes del momento en que el Universo se reduce a un punto nos queda inaccesible, ni siquiera existía el espacio o el tiempo.

Siguiendo con el estudio de las singularidades en las soluciones de la Relatividad General, Penrose (1965) las relacionó con el colapso de estrellas masivas, un proceso en el cual las estrellas de masa mucho mayor que la del Sol se auto-comprimen por efecto de su propia gravedad, colapsando bajo su propio peso, resultando un objeto estelar que se vino a denominar agujero negro (black hole). 

En este estado estaba la investigación del origen y evolución del Universo cuando S. Hawking realizaba su doctorado en relatividad general. Pero hay otra área de la Física, la Mecánica Cuántica, aparentemente muy lejana en su campo de aplicación, el mundo subatómico, que en esa época ya empezó a tener una importancia primordial para la astrofísica, pues las singularidades tienen en común que el espacio que ocupan tiende a cero, y en esas escalas de tamaño es la Física Cuántica la que hay que aplicar.


 







lunes, 20 de agosto de 2018

El Universo visto como computador cuántico

La rápida expansión de las tecnologías de procesamiento de información ha encendido una explosión de investigación científica y social. El resultado es un cambio de paradigma de cómo pensamos sobre el mundo en su nivel más fundamental. El mundo que vemos a nuestro alrededor surge de un baile entre dos actores, la información y la energía. 

La información que compone el universo no es información clásica ordinaria (bits), es información cuántica (qubits). En consecuencia, el modelo computacional que aplica el universo en su nivel más pequeño y más fundamental no es el cálculo digital convencional, sino el cálculo cuántico [1],
proporcionando el mecanismo por el cual el universo genera su peculiar mezcla de aleatoriedad, orden y complejidad.

El universo físico guarda poca semejanza con la colección de cables, chips y circuitos electrónicos que componen una computadora digital convencional. Entonces, ¿cómo puede uno afirmar que el universo es una computadora?

Según la definición de Alan Turing, una computadora digital universal es un sistema que puede ser programado para realizar cualquier secuencia deseada de operaciones lógicas.  

La cuestión de si el universo es en sí mismo una computadora digital universal puede dividirse en dos partes: (I) ¿Realmente está realizando cálculos el universo? y (II) ¿El universo, en última instancia, no es más que cálculos y cálculos?  

Más precisamente, 
(I) ¿Es el universo capaz de realizar computación digital universal en el sentido de Turing? Es decir, ¿el universo o parte de él puede considerarse una máquina universal de Turing?  
(II) ¿Puede una máquina universal de Turing simular la dinámica del universo en sí? 
Podríamos precipitarnos entusiásticamente a responder sí a las dos preguntas, razonando así:

(I) Cuando construimos computadoras digitales electrónicas, de hecho estamos tomando una parte del universo para crear una computadora universal digital, capaz de simular una máquina universal de Turing, así que como mínimo (I) es posible, pues !nosotros los humanos somos capaces de hacerlo!
(II) La denominada hipótesis de Church-Turing implica, que cualquier dinámica física efectivamente calculable, incluidas las leyes conocidas de la física y cualquier ley que pueda ser descubierto en el futuro, se pueden calcular usando una computadora digital, así que (II) parece ser cierta.
Pero las cosas no son tan simples, evidentemente. Como escollo principal tenemos la mecánica cuántica, que vulnera el principio de localidad,  lo que significa que un evento sucedido en un punto del espacio puede afectar de forma instantánea a otro punto arbitrariamente alejado del primero. 

La mecánica cuántica es bien conocida por exhibir características extrañas e intuitivas. La principal de estas características es el fenómeno conocido como entrelazamiento cuántico, que Einstein denominó 'acción espeluznante a distancia' (spukhafte fernwirkung). Algunos teoremas debidos a Von Neumann, a Bell y otros muestran que los tipos de correlaciones implícitas en el entrelazamiento no pueden describirse mediante modelos locales clásicos que involucran variables ocultas. Sobre estos temas hemos escrito diversos artículos en este blog, que pueden recuperarse con las etiquetas entrelazamiento, Bell, etc.

Los sistemas digitales clásicos no son usables para hacer simular el entrelazamiento. Simplemente representar el estado de un sistema cuántico con N subsistemas, por ejemplo, N espines nucleares, requiere del orden de O(2N) bits en una computadora clásica, y N suele ser muy grande. Peor aún, para representar cómo evoluciona ese estado se requiere la exponenciación de una matriz 2N por 2N, resultando un número astronómico de bits fuera de las capacidades tecnológicas actuales.

Entonces, la respuesta actualmente aceptada a la pregunta (II), puede una máquina de Turing simular un sistema cuántico eficientemente, es 'probablemente no debido a exceso de información'.
En cambio
las computadoras cuánticas, por definición, son buenas reproduciendo efectos cuánticos, ya que aprovechan los efectos cuánticos como el entrelazamiento para realizar cálculos en formas que las computadoras clásicas no pueden. Así,
desde la perspectiva de determinar si el universo admite computación cuántica, es suficiente que las leyes de la física lo permitan, y lo hacen, pues en las últimas décadas ya se han construido prototipos de computadores cuánticos. 


Debido a que operan utilizando los mismos principios que se aplican a la naturaleza a escalas fundamentales, las computadoras cuánticas, aunque son difíciles de construir, representan una forma de procesar información que está más cerca de la forma en que la naturaleza procesa la información en la microescala. En 1982, Richard Feynman sugirió que los dispositivos cuánticos podrían funcionan como computadoras analógicas cuánticas para simular la dinámica de sistemas cuánticos. Tales computadoras analógicas tiene  una arquitectura distinta de la convencional en nuestros ordenadores de sobremesa: son autómatas celulares, sistemas digitales que consisten en celdas dispuestas en una matriz regular, cada celda posee un número finito de estados posibles, y se actualiza como una función de su propio estado y el de sus vecinos. Tales sistemas ya existen desde 1950, pero ahora estamos hablando de su versión cuántica, y todo indica que la dinámica del Universo sí puede simularse en un ordenador cuántico con arquitectura de autómata celular, o brevemente, un autómata celular cuántico. En particular, ya disponemos de una construcción teórica,  de Feynman-Lloyd [2], que permite 'mapear' cualquier dinámica cuántica local y homogénea directamente en un automatismo cuántico celular.

¿Por qué el universo está tan ordenado y, al mismo tiempo, es tan complejo?

El estado inicial del universo parece haber sido simple. Justo antes del Big Bang, el universo era muy plano, homogéneo, isótropo y casi carente de detalles. Las leyes simples y las condiciones iniciales simples deberían conducir a estados que, en principio, son muy simples. Pero eso no es lo que vemos cuando miramos por la ventana: vemos sistemas y comportamientos altamente complejos.  

Pues bien: el modelo computacional cuántico del universo no solo explica
esta complejidad, es que requiere que exista. En efecto,
las fluctuaciones cuánticas, como por ejemplo, las fluctuaciones primordiales en la densidad de energía de los campos cuánticos, proporcionan automáticamente los bits aleatorios que son necesarios para sembrar la computadora cuántica con un programa aleatorio. 


Referèncias

[1] Lloyd S. Programming the Universe. New York: Knopf; 2004.
[2] Lloyd S. Universal Quantum Simulators. Science. 1996; 273: 1073-1078.
[3] Lloyd S. The Universe as Quantum Computer

domingo, 12 de agosto de 2018

Solución altruista para los conflictos grupales, pareja, família, laboral, política...

Introducción

La sociedad se organiza en grupos: familias, equipos de trabajo, comunidades de vecinos, asociaciones y clubs, partidos políticos ... Muchas de las decisiones que se toman en la sociedad son pues decisiones de grupos, y frecuentemente son decisiones difíciles debido a la diversidad de puntos de vista, opiniones e intereses contrapuestos, la cual cosa genera múltiples conflictos a todos los niveles. En este post analizamos la fuente de los conflictos y mostramos un posible camino para minimizarlos.

Decisiones en grupo

En la vida nos encontramos continuamente con situaciones que necesitan ser atendidas, pero no está claro como hacerlo, no son situaciones simples, sino que tienen muchos matices y muchas posibles lineas de actuación; esto es así tanto si la situación es estrictamente personal como si afecta a un grupo de personas, pero lógicamente en este último caso todavía se complica más el asunto, pues hay que añadir a la complejidad de la situación a resolver los diversos puntos de vista e intereses particulares de los miembros del grupo, y es a estas a las que dedicaremos lo que sigue. Los grupos pueden ser desde una pareja, pasando por una familia, hasta grandes grupos que, por imposibilidad física de reunirse todos, delegan las decisiones en representantes: sindicales, portavoces, delegados, políticos electos ...

Entonces, dada una situación conflictiva en grupo, entendiendo por tal aquella que nos llama a tomar decisiones para afrontarla, pero las posibilidades son diversas, y además no hay acuerdo sobre cuál es la más conveniente, se produce un conflicto de intereses (cada cual mira principalmente por sí mismo), o bien un conflicto de pareceres (no hay coincidencia sobre cual es la solución ideal, técnicamente hablando) o bien ambos a la vez. Nos centraremos en los conflictos de intereses grupales, pues los conflictos técnicos se resuelven con simplemente con más conocimiento sobre el tema. 

Estos conflictos grupales de intereses se resuelven en la práctica, a nuestro juicio, de cuatro formas bien distintas:
  1. por la fuerza,
  2. por el consenso centrado en satisfacer lo mejor posible a todos los intereses,
  3. por el sacrificio voluntario de algunos intereses particulares al bien común,
  4. por el sacrificio voluntario de todos los intereses particulares, buscando un consenso centrado.
La propuesta que hacemos es que estas cuatro formas de solución están ordenadas de peor a mejor, siendo la última la única que se puede considerar realmente la solución, y no siendo de hecho una solución en absoluto la primera.

Nivel 1: solucionar un conflicto por la fuerza

Obviamente el más primitivo de todos los medios, heredado directamente de la Naturaleza, pero que sigue usándose habitualmente en las sociedades, con diversos matices. Simplemente se impone la opinión del más fuerte, ignorando las otras voces e intereses. Los regímenes autoritarios están ahí, pero también en democracia se impone muy frecuentemente la opinión de la mayoría sobre las minorías, o se impone una ley impopular usando la fuerza pública; a nivel de grupos más reducidos, se fuerza una negociación laboral presionando con huelgas y piquetes, o se toman decisiones familiares sin dejar opinar a los hijos/as.  Las decisiones tomadas usando la fuerza benefician al que las ha tomado unilateralmente, y pueden ser perjudiciales en diverso grado para los demás, que se verán obligados a acatarlas; por ello, la "solución" tomada no es de hecho ninguna solución al conflicto sino más bien una vía de escape de solucionarlo: 'como es complicado satisfacer a todos los implicados, simplemente no lo hago, y me limito a satisfacer mis necesidades y/o deseos'. Es simple, y sólo se necesita tener la fuerza necesaria para imponerse, ya sea por mayoría de votos o por la violencia física.

Nivel 2:consenso centrado en satisfacer lo mejor posible a todos

En política seria el denominado "centrismo"; se escuchan todas las opiniones y se intenta encontrar una solución que en la medida de lo posible satisfaga parcialmente o totalmente cada una. Esta es una auténtica forma de solucionar conflictos, a diferencia de la forzada, pero presenta el gran problema de la complejidad: a menudo resultará imposible satisfacer lo suficiente a cada grupo de opinión para que la solución realmente merezca el nombre, incluso corremos el riesgo de que  todos los grupos de interés queden insatisfechos. Y es que lo habitual es que sea imposible contentar a todo el mundo pues hay intereses contrapuestos irreconciliables. Hay que destacar también que, en la práctica, a menudo se presenta más de un modo de solución simultáneamente, por ejemplo, aplicar la fuerza, pero como no se tiene la suficiente para resolver el conflicto, usar también el consenso, siendo la fuerza un medio para conseguir forzar el consenso hacia posiciones favorables; este seria el caso de una huelga laboral agresiva, con grave perjuicio de la ciudadanía en general (controladores aéreos, transporte público, recogida pública de residuos ...), usando esta capacidad de dañar como medio para forzar acuerdos favorables a grupos concretos.

Nivel 3:sacrificio voluntario de algunos intereses particulares al bien común

Cuando una persona, o un grupo, se siente parte de un grupo mayor, y pone por delante de su satisfacción personal el bien del conjunto, se puede renunciar al beneficio directo personal a cambio del beneficio indirecto grupal. Es por tanto una forma potente de resolver conflictos de intereses: se logra la satisfacción personal a través del servicio al grupo en conjunto; para que realmente funcione, es necesaria una predisposición genuina, pues si se hace meramente para quedar bien, para parecer desprendido, comprometido con el grupo, inegoísta, etc, pero por dentro queda la sensación de estar perdiendo algo si recibir la compensación que se cree necesaria, a la larga el conflicto resurgirá, pues de hecho nunca se solucionó, sólo se hizo ver que era así. Es pues una solución noble y eficaz, pero exige una autenticidad en la entrega personal por el bien común. Si realmente hay esta autenticidad, no se puede perder, pues cuando se ve a los demás componentes del grupo por los que te has sacrificado gozar  de la solución adoptada, tu también gozas de su gozo. De hecho, hay evidencias científicas de que es una excelente forma de ser feliz, el mirar el bien de la comunidad de forma desprendida de uno mismo, resultando más gozo que el conseguido meramente haciendo lo que te conviene sólo a ti, que es la base del altruismo. 

Nivel 4: sacrificio voluntario de todos los intereses particulares, buscando un consenso

Llegamos a la mejor forma de solucionar conflictos, en la que todos los miembros del grupo asumen la actitud altruista que hemos visto en el párrafo anterior: nadie quiere "salirse con a suya", sino que todos quieren por encima de todo el beneficio del grupo. Al ser una actitud compartida, se vuelve a hacer necesario el consenso, para encontrar los puntos y grados exactos de sacrificio de cada individuo para le bien común. Al obrar así, no sólo se vive el gozo de ver de como tus decisiones mejoran la vida de los demás, sino que también ves como los demás quieren lo mejor para ti, de forma que se gana por partida doble, independientemente de la solución pactada. Claro está que estamos hablando sólo de la parte emocional, es perfectamente posible pactar una solución muy bien consensuada pero que técnicamente no sea buena, en cuyo caso se habrá de ajustar. 

Ser altruista no anula al individuo

Conviene diferenciar muy bien la actitud altruista respecto a la toma de decisiones en grupo del anularse uno mismo como individuo autónomo y entregarse a un grupo; la primera se refiere a renunciar a un bienestar personal en aras de un bienestar grupal, la segunda se refiere a renunciar a pensar por uno mismo y aceptar la ideología del grupo, que normalmente tendrá un líder ideológico. No tiene nada que ver una cosa con la otra: el altruista sigue siendo un individuo que piensa por su cuenta, y conscientemente decide ser altruista en relación a ciertos temas grupales, por que sabe que en realidad todos salen ganando, pero en todo momento mantiene su autonomía y libertad. La entrega de la voluntad personal a un grupo en cambio supone una merma de libertad, que aunque es voluntaria, no deja de ser lo que es.

El papel de la educación

Las mejores soluciones a los conflictos grupales exigen, como hemos visto, una predisposición a buscar el bien común antes que el personal, esto es, una actitud altruista. Esta actitud "no viene de serie" en las personas, más bien al contrario, nuestra naturaleza básica animal, orientada a la supervivencia, se activa fácilmente en frente de situaciones en dónde se ven posibles pérdidas personales, y nos ponemos en modo defensivo de nuestros intereses, en mayor o menor grado, dicho de otro modo, pasamos al nivel 1 de "solución de conflictos", el de la violencia, que puede ser de baja intensidad, implícita, pero no deja de ser un querer imponernos por nuestro beneficio personal. Es pues una actitud que se ha de adquirir, que se puede adquirir a través de una educación en los valores de la pertenencia a grupos, a familias o a la sociedad en conjunto. Pero la educación sigue siendo mayoritariamente individualista y competitiva: desde prácticamente antes de la pubertad la persona se enfrenta sola a un currículum de contenidos que ha de superar vía exámenes individuales, de los que obtiene una calificación numérica con la cual se le compara con los demás, para ver si está por encima o por debajo de la media, y si cumple con los requisitos mínimos. Claramente esta educación es muy buena para llenar el intelecto de contenidos, pero mala para educar la actitud de colaboración y el espíritu de equipo, y pésima para fomentar el altruismo de mirar por el grupo en conjunto antes que, o al menos simultáneamente, que por ti mismo.  Hay actualmente (2018) un movimiento de renovación pedagógica en este sentido que impulsa el trabajo en equipo, y por ello es posible que avancemos algo en este sentido.

La política consensúa poco

La política tal como se está haciendo en los países democráticos avanzados todavía se mueve entre los niveles 1 y 2 de solucionar conflictos grupales, y es normal que sea así, dada la gran complejidad que tienen los conflictos de intereses de una sociedad en conjunto, e incluso los conflictos internos de los propios partidos políticos. Todo ello es reflejo de la sociedad, que como hemos comentado, ha recibido una educación competitiva, y por tanto todo lo plantea en términos de lucha: de clases, de partidos, de ideologías, etc. Así, en los Parlamentos, a menudo más que parlamentar lo que se hace realmente es atacar al "oponente" político, o sea usar la violencia verbal en la forma de discurso de critica destructiva hacia el oponente. En el nivel actual en que se desarrollan nuestros representantes políticos, como mucho si hay suerte se trabaja al nivel 2 de intento de consenso, pero siempre teniendo en cuenta las respectivas posiciones de fuerza que dan los votos de cada partido y las coaliciones. 

Hacia una sociedad más feliz

Tenemos pues delante de nosotros un futuro prometedor, no sabemos de cuanto tiempo estamos hablando, si será en la próxima generación o faltan unas cuantas, pero la actitud altruista, por ser la más óptima en cuanto a resultados, sin duda tarde o temprano prevalecerá, y ayudará a que la sociedad sea más solidaria y en definitiva feliz.

lunes, 16 de julio de 2018

Realidad, física cuántica y misticismo

Ayer estuve revisando un librito que tengo desde hace años, se titula "El espíritu en el átomo: una discusión sobre los misterios de la física cuántica", editado en 1989, actualmente descatalogado, que contiene media docena de entrevistas a físicos de renombre sobre física cuántica, concretamente respecto a su extraña interpretación de la realidad. 

El misterio no es otro que la interpretación "oficial" del comportamiento del mundo sub-atómico, la denominada interpretación de Copenhague o de Bohr: ese mundo no es algo que existe con independencia de nosotros, sino que está de alguna manera conectado a nuestra propia percepción de él. Al no experto le puede parecer que es de poca importancia práctica cómo se comporte ese mundo sub-microscópico, pues estamos hablando de una escala de medidas inferiores a 10⁻¹⁵ metros, el diámetro medio de un núcleo atómico, que es fantásticamente pequeño: la proporción de tamaño entre el núcleo y un grano de arena fina (unos 10⁻⁵ m) es del mismo orden de magnitud que entre una pelota de fútbol y nuestro Sol. 

Fig.1: La proporción entre un núcleo atómico y la arena fina
es la misma que entre una pelota de fútbol y nuestro Sol

Aún estando tan lejos de la escala de nuestra percepción, ese mundo subatómico forma el sustrato de todo lo que existe, y lo condiciona. Es por eso que las aplicaciones prácticas de la física cuántica son incontables: láseres y óptica cuántica en general, dispositivos electrónicos, ordenadores cuánticos, diseño de nuevos materiales, química cuántica, etc. En este blog hemos escrito diversos artículos sobre mecánica cuántica, entre otros:

En este artículo nos centramos más en el aspecto filosófico y menos en el técnico, buscando una mayor comprensión de la realidad que nos presenta la Física. Es una tarea compleja, no en vano el gran Richard Feynman dijo en su momento, acerca de comprender ese extraño mundo:

"Si usted piensa que entiende a la mecánica cuántica... entonces usted no entiende la mecánica cuántica." R. Feynman
¿Vamos pues a contradecir a un gigante intelectual como Feynman? Bien, nos moveremos en un terreno entre la Filosofía del conocimiento (la epistemología) y el misticismo, áreas en las que Feynman no era experto según creo, así que no lo contradeciremos, pues nuestra mirada no será estrictamente científica, sino al estilo de este blog.

¿Qué es la "realidad" y qué es el conocimiento?

Ya intentamos dar una definición en el artículo La realidad velada
Definición 1: Realidad es todo lo que es, en contraposición a irrealidad, que es lo que no es; realidad es el Ser. La realidad velada.
Tenemos, por otro lado, nuestro conocimiento de la realidad, y el conocimiento en sí, en general; 
Definición 2: Conocer algo es tener una información sobre ese algo.
La información sobre una entidad, sobre algo, puede ser incompleta o parcial, completa o global, exacta o inexacta.  Por ejemplo, si conocemos con precisión las medidas de un objeto del cual desconocemos nada más, tenemos información parcial pero exacta.
También puede ser información simple, como una simple percepción de algo que no entendemos y de lo que no sabemos nada más a parte de su existencia, o información estructurada, compleja, que es cuando la relacionamos con otras informaciones, es información relacional.

Un ejemplo de información simple no relacionada es experimentar un estado emocional sin ser capaz de etiquetarlo, de poderle un nombre, notas conscientemente ese estado como muy real, pero no eres suficientemente consciente de él, te falta información adicional, para entenderlo. Más adelante, estudias educación emocional, ves los mapas de emociones que han preparado expertos en el tema, reflexionas sobre ese estado emocional, y un día llegas a relacionar aquel estado con una de las emociones y su descripción (por ejemplo: ágape, un tipo especial de afecto). Ahora conoces mejor la emoción: por vivencia y por relación con otras informaciones, tienes una información estructurada sobre la emoción.

Algunas precisiones:
  • El conocimiento es siempre información sobre la realidad, pues tener información de algo irreal no se puede considerar conocimiento, sino imaginación e irrealidad. 
  • Una creencia no es conocimiento, es solo una posibilidad de conocimiento, pues puede basarse en la irrealidad.  
  • Nuestro conocimiento es siempre parcial, pues nunca conocemos toda la realidad, sino sólo una parte, pero a menudo creemos que conocemos la totalidad, al menos de un tema, y discutimos con otros que tienen una visión distinta, creyendo que están equivocados. Dicho de otro modo: nuestra mente "se adhiere" con facilidad a verdades parciales, ignorando otras informaciones que no concuerdan con esas parcialidades. 

Llegados aquí, se plantea una pregunta: 
¿toda la realidad es susceptible de conocerse, o por el contrario, sólo se puede conocer parte de la realidad? 
Afinemos más la pregunta: 
dejando aparte las limitaciones humanas, ¿la realidad es potencialmente cognoscible? 
Por que quizás el ser humano, por sus limitaciones, no es capaz. al menos en nuestro presente estado de evolución, de conocer totalmente la realidad, pero eso no significa que sea imposible en general, sólo lo es para nosotros. ¿Podemos contestar a esta pregunta, desde nuestra limitación humana? Hemos relacionado conocimiento con información, luego podemos replantear la pregunta:
¿toda la realidad contiene o está relacionada con información, o por el contrario hay realidades que no contienen ninguna información? ¿Puede existir algo de lo cual no se pueda comunicar absolutamente ninguna información?
 Si se reflexiona sobre esta pregunta, probablemente parecerá una contradicción de términos, pues la misma existencia en sí de algo ya es información simple. Probemos a plantear una hipótesis y veamos a donde nos lleva, combinándola de forma rigurosa con otras informaciones que conocemos:


Hipótesis 1: cualquier aspecto parcial de la realidad total contiene información susceptible de ser conocida.

Nos falta una reflexión más antes de irnos a la Física Cuántica y sus misterios:  la mente.


¿Qué es la mente?

Es relativamente fácil definir la mente de forma indirecta: es lo que estoy utilizando para escribir este texto, y lo que el lector utiliza para entenderlo. Sabemos lo que la mente hace, para lo que sirve, pero definir la mente en sí no es fácil, y nos encontramos con varias definiciones. Una de ellas consiste en igualarla a su conjunto de funciones: mente es el conjunto de facultades intelectuales como la percepción, el razonamiento, el pensamiento, la imaginación, etc; haciendo un símil, es como definir una persona en relación a lo que hace o puede hacer, es una definición instrumental, práctica: ¿para que sirve? pues eso es lo que es. 
Ir más allá de esta concepción es difícil, pues usamos nuestra mente para definirse a si misma. Pero para enfrentarnos a los misterios cuánticos con alguna probabilidad de éxito en su comprensión, no tendremos bastante con la definición instrumental, necesitamos algo más amplio, que necesariamente se salga del ámbito de la psicología y de la neurociencia, así que volvamos al terreno filosófico, incluso, en este caso, místico.

La mente es potencialmente capaz de desarrollar todas las funciones cognitivas básicas mencionadas y otras de superior nivel: proyecta, diseña, controla, observa, crea ... Estoy en mi estudio, detrás de mi, una estantería atestada de libros, apuntes y algunos recuerdos, recorro con la mirada mi entorno: calculadora, el móvil, una impresora, una lámpara, el mueble, multitud de objetos todos diseñados y creados bajo la dirección de diversas mentes humanas, sigo mirando, las paredes, imagino los cables eléctricos por dentro de ellas, las tuberías, la corriente eléctrica suministrada por la gigantesca red de suministro, la señal inalámbrica, invisible pero muy real, que me llega desde el dispositivo enrutador hasta mi ordenador ... todo es un producto de la mente, que lo ha ideado, diseñado, fabricado, distribuido, vendido, instalado, usado. Miro por la ventana, la calle, el tráfico, los árboles, todo de nuevo producto de nuestra mente ... espera un momento, los árboles no lo son, la Naturaleza es previa a nuestra mente. Me invade la curiosa sensación de estar rodeado por cosas creadas o controladas por la mente, excepto todas las naturales: entonces, ¿la Naturaleza es no-creada, es no controlada? ¿es caótica, aleatoria? 

Evidentemente hay un orden y un control en la Naturaleza de una exactitud tan grande como la de cualquier proyecto de ingeniería avanzada: la vegetación se rige por unos códigos genéticos, por una programación, que sirve de base de control para las funciones vitales de las plantas, la materia inorgánica sigue las leyes de la física y de la química, hay unas leyes naturales precisas, bien definidas; esas leyes realizan la función de control que es una de nuestras facultades intelectuales, y lo hacen de forma constante (llevan miles de millones de años haciéndolo) y extraordinariamente precisa (una simple desviación de una parte en un millón en por ejemplo la ley de la gravedad tendría resultados catastróficos para nosotros). Es un tipo de control muy parecido al que realiza nuestra mente inconsciente sobre nuestras funciones vitales: las monitora continuamente, de forma dinámica, con el objetivo de mantener estables todas nuestras constantes, funciona de forma automática, y es poco susceptible de ser alterado conscientemente. 

Mente en sentido amplio
De hecho este control interno nuestro y el control de la Naturaleza por las leyes naturales son lo mismo: nuestro cuerpo es Naturaleza, y nuestro sistema nervioso también, todo se rige por las mismas leyes. Esto es extensible a nuestro cerebro, parte también de la Naturaleza, y por tanto a nuestras facultades mentales superiores. Así pues, la distinción entre "mente", aludiendo sólo a nuestras funciones mentales superiores, mente inconsciente, nuestra parte mental automática, y leyes de la Naturaleza, no es una distinción absoluta, sólo se distinguen en grado de conciencia y de libertad, no en esencia, pues la esencia es en todas la captación de información y su uso para el control y la creación de nueva información más compleja.

¿De dónde proceden las leyes de la Naturaleza? Es una pregunta que trasciende el ámbito de la ciencia. Están ahí, quizás como la información primordial, en la que se basa todo lo demás. O quizá no sea tan trascendente: la Física sueña con encontrar una única ley primordial de la que se deriven todas las demás leyes, una información inicial, de la que se derivaría todo el Cosmos. 

Resumiendo todas estas reflexiones sobre la mente, podemos enunciar una propuesta de definición amplia, que no se restringe a las capacidades de la mente consciente humana en su desarrollo actual (hace dos millones de años no eran las de ahora, y dentro de dos millones de años, ¿quién sabe?), sino que intenta definirla en global:
Hipótesis 2: La mente, en sentido amplio, es energía manifestada en el aspecto de generación, proceso y suministro de información; no hay información posible sin mente, y la mente se detiene si no hay información disponible.
Como anteriormente hemos relacionado información con realidad (hipótesis 1), ahora podemos relacionar realidad con mente:
Consecuencia 1: Todo aspecto de la realidad contiene información, generada, suministrada y controlada por la mente. Luego todo aspecto de la realidad es mental, es controlada por la mente.
En este punto es cuando hemos conectado, a través de un razonamiento intelectual, con la mística tradicional. Por ejemplo:
El universo es mental. El Todo es mental. Hermes Trismegisto. 

La mente es un continuo inmaterial cuya función es percibir y comprender objetos. Budismo Kadampa.

La Mente Universal contiene todo el conocimiento. Es el máximo potencial de todas las cosas. Para ella todo es posible. E. Holmes, fundador de la Ciencia de la Mente.

Llegados aquí estamos preparados para reflexionar sobre la realidad a escala cuántica. 


La realidad a escala cuántica: partículas entrelazadas y acción a distancia

Nos centramos ahora en uno de los aspectos de la realidad cuántica más bizarros: el de las partículas entrelazadas. El entrelazamiento cuántico se da cuando dos partículas cuánticas se comportan como un sistema que las comprende a las dos incluso aunque se las separe por grandes distancias, de forma que al modificar una de ellas inmediatamente queda modificada la otra, sin importar la distancia. Einstein, Podolsky y Rosen intentaron mostrar lo absurdo de esta afirmación (paradoja EPR) sin éxito, ya que los experimentos confirmaron que la naturaleza efectivamente se comportaba de esa forma. Uno de los más impresionantes ha sido descrito en este blog: Entrelazamiento cuántico entre diamantes. El problema que plantea este comportamiento instantáneo es: ¿cómo puede "enterarse" la partícula remota de que su compañera ha sido alterada? Pues la posible señal que pudiera enviar una partícula a la otra debería viajar a más velocidad que la luz. Además, se han probado experimentos denominados de "elección retardada" (como el experimento de Aspect) en los cuales la dos partículas han sido emitidas desde una fuente, y en pleno vuelo, el experimentador decide hacia dónde dirigirlas, de forma que la Naturaleza no puede saber de antemano que va a suceder, dependiendo de la decisión del experimentador, y así y todo, incluso realizando todas las combinaciones que se quiera, siempre se cumple lo mismo: lo que le pasa a una partícula afecta instantáneamente a la otra, o sea, es imposible que una de ellas "informe" a la otra mediante algún tipo de señal, pues toda señal queda limitada en su celeridad por la velocidad de la luz.

Esta "acción fantasmal a distancia" ha de aceptarse, porque la Naturaleza se comporta así, pero no podemos relacionar este conocimiento con el resto de conocimientos no cuánticos de la vida "real" cercana; una conjetura para relacionarla utiliza precisamente la información:

Hipótesis 3: la información del entrelazamiento entre partículas no viaja entre las partículas, simplemente ya está ahí, independientemente de la distancia que las separa, en el Universo entendido como un todo no separable.
De hecho hay teorías que muestran el Universo como compuesto de información, ver por ejemplo,  nuestro universo es solo información cuántica. No sólo el estado de las partículas que componen el Universo es información, sino todas las propiedades que las definen, como su masa, carga, espín, etc,  también lo son. El Universo estaría basado en último término en la información. Recordando nuestras hipótesis anteriores, vemos que cerramos el círculo, conectando todos los conceptos vistos, y contestando algunas preguntas pendientes:

  1. Los fenómenos cuánticos, especialmente el entrelazamiento entre partículas, muestran que la información del estado no es local sino universal, está "esparcida" por todo el Universo.
  2. Como la información necesita de la mente para ser generada, procesada, y transmitida, ha de haber una mente universal no local que genera y procesa toda la información del Universo, el cual es no es más que una manifestación de esa mente. 
  3. La realidad es el resultado del proceso de toda la información disponible en cada instante llevada a cabo por esa mente global, universal.
  4. Luego la realidad se crea instante a instante, debido a la acción mental global actuando sobre la información global, que genera nueva información. 
  5. Toda la realidad es, en principio, cognoscible, pues es información; nuestras mentes limitadas sólo pueden captar parte de esa información-realidad global, aunque vamos ampliando nuestro campo de conocimiento continuamente gracias a los avances científicos y tecnológicos.

Seguro que habrá lectores que opinen que estamos yendo demasiado lejos con nuestras afirmaciones, pero pueden consultar diversas fuentes y comparar lo que se ha dicho aquí, por ejemplo las de David Bohm, o las que modelan el Universo como un gigantesco holograma, y podrán comprobar que incluso son más atrevidas que la nuestra. Nuestra humilde opinión es que la Física del siglo XXI ha mostrado un conocimiento tan detallado del Universo material, con una precisión tan fantástica, que se ha traspasado la frontera de lo mental particular (nuestras mentes individuales) para adentrarse en esa zona de lo mental global que lo comprende todo. Y esa zona estaba reservada a la mística, ahora también la visita la ciencia.









 






Discutir, dialogar, convencer: del razonamiento estrecho, luchador al razonamiento ámplio, amable

La verdad absoluta no está disponible Releyendo Logicomix una épica búsqueda de la verdad , un fantástico cómic sobre el principal tema de ...