miércoles, 22 de junio de 2016

¿Podemos entender la Naturaleza sin complicadas Matemáticas?

La Matemática está presente en todas las ciencias y técnicas, desde la Física hasta la Biología, incluso en ciencias sociales tiene un aporte importante, como en Economía o en Sociología. No obstante, se considera una de las materias más difíciles de los planes de estudio. Además, la complejidad del tratamiento matemático llega a ser muy alta incluso en casos aparentemente simples, dos ejemplos tomados de la Física:

Ejemplo 1: Cuerpos en interacción gravitatoria: La ley de Newton para la fuerza gravitatoria establece que dos cuerpos de masas m y M se atraen con una fuerza proporcional al producto de sus masas e inversamente proporcional a la distancia que los separa, y se expresa con una ecuación simple:

F = m·M / d²

Con la ayuda de las ecuaciones de la mecánica, se plantea el problema del movimiento de dos cuerpos aislados (si no están aislados el problema se complica más) que interactúan entre sí gravitatóriamente (conocido como "problema de los dos cuerpos"), que resulta ser no trivial, ya que su solución analítica conduce a una familia de órbitas, que son curvas planas de segundo orden (cónicas), sólo con dos cuerpos ya tenemos un problema a nivel de primer ciclo de carrera universitaria.
En general, dos cuerpos en movimiento sujetos a su fuerza mutua gravitatoria describen órbitas que son cónicas: circunferencias, elipses, parábolas o hipérbolas.

Ahora bien, si introducimos un tercer cuerpo (problema de los tres cuerpos), aislados para hacerlo más simple, ¡el problema se convierte en irresoluble!, y sólo podemos realizar simulaciones aproximadas por ordenador. 
Al tratar con el movimiento de tres cuerpos sometidos a interacción gravitatoria, nos encontramos con que es irresoluble matemáticamente, no podemos calcular sus trayectorias.

Ejemplo 2: Péndulo plano: si en un péndulo simple como el de la figura, esto es, con movimiento plano, con una cuerda inextensible con masa despreciable, y pequeña amplitud de oscilación,  aumentamos la amplitud, el péndulo deja de ser "simple" matemáticamente hablando, y para describir el ángulo que forma la cuerda con la vertical necesitamos usar funciones elípticas., que son funciones definidas a través de una integral (de tipo elíptico) demasiado complicada para resolverla analíticamente. Estamos de nuevo a nivel Universitario, a pesar de que el péndulo es, en apariencia, muy simple.

Simple Pendulum Oscillator.gif
Péndulo simple, Fuente: https://commons.wikimedia.org/w/index.php?curid=5316727






















¿Hay alguna razón profunda que explique esta complejidad de la Naturaleza, que vemos incluso en casos muy simples? ¿Es acaso cierta la hipótesis neoplatónica, al afirmar que hay un "mundo de ideas" gobernando este "mundo de sombras"? Un mundo de ideas que sería muy matemático, muy complejo y muy exacto, si de él ha de emanar toda la complejidad que vemos. Veamos dos propuestas al respecto, que yo sepa, son propias, así que no puedo dar ninguna fuente bibliográfica para ellas.

Propuesta 1: la información incompleta necesita una matemática complicada

Personalmente creo que la Naturaleza es óptima, no desperdicia recursos, no hace las cosas complicadas porque sí; una posible explicación sería decir la complejidad que vemos la vemos debido a que nuestra mirada sólo ve parte del total, no es completa, y por tanto tiene que inferir desde la parte observada el comportamiento global. Esta explicación bebe de las fuentes de la Inferencia Estadística; en efecto, si queremos hacernos una idea, por ejemplo, de la intención de voto en una población de 100.000 habitantes, tomaremos una muestra, de por ejemplo 500 ciudadanos, y con sus datos inferiremos, más o menos, la intención de la población. El hecho de no tener toda la información complica las cosas: incluso para escoger cuales de los 100.000 habitantes van a ser encuestados tendremos que usar técnicas de muestreo estadístico, y después para estimar la intención de voto general necesitaremos las técnicas de Estadística Inferencial.

Estadística inferencial: técnicas matemáticas para poder escoger una muestra pequeña  que sea representativa de toda una población grande, y usarla para obtener conclusiones válidas de toda la población en estudio.


Está claro que, si encuestamos a todos los 100.000 habitantes, la complejidad se reduce a cero, pues tenemos todos los datos, no nos hace falta todo ese instrumental estadístico, aunque el coste puede ser inasumible en la práctica. En la ciencia en general ¿podemos encontrarnos en una situación parecida? Los datos experimentales no nos darían toda la información real disponible, por lo que para inferir regularidades, leyes, etc, necesitamos un aparato matemático potente.

 

Propuesta 2: Las leyes naturales son simples, nuestro enfoque es el complicado

Nuestra mente lo quiere controlar todo para que actúe en nuestro provecho; así, no nos basta con saber que el aire, pese a ser tan tenue, al moverse a gran velocidad puede generar una gran fuerza, queremos saber los detalles para ser capaces de fabricar molinos eólicos, alas de aviones, etc. Tampoco nos basta con saber que hay una fuerza natural intangible llamada electricidad que se manifiesta en las tormentas eléctricas, queremos controlarla hasta el punto de saber almacenarla, producirla y aprovecharla en motores eléctricos, en iluminación, etc.

Este control preciso requiere situarlo todo en unas coordenadas de espacio y de tiempo, así como conocer las leyes que, dadas unas causas, producen posteriormente unos efectos. La Naturaleza, de por sí, no calcula nada, no hay ningún "reloj cósmico" que va marcando unos tiempos a un "ordenador cósmico" el cual va produciendo efectos  a partir de las causas preexistentes. Hay unas leyes naturales, eso seguro, pero no tienen una expresión matemática (recordemos que estamos en la propuesta 2, no estoy afirmando, sino proponiendo); es cuando queremos colocar esas leyes en el marco de nuestro familiar espacio y tiempo cuando obtenemos complicadas leyes matemáticas. Nosotros hemos inventado el pensamiento matemático, la Naturaleza no lo necesita para nada, pues no hay ninguna mente racional dirigiendo los sucesos, simplemente suceden. Este enfoque está muy relacionado con el que expuse anteriormente en mi serie de artículos sobre el génesis y la evolución, especialmente en el último artículo, Génesis (III): ¿evolución o creación?.

Ciencia divulgativa

Quizás debido a esta complejidad matemática, hay mucha gente que ha renunciado a entender el mundo que le rodea, tanto el natural como el artificial; ¿cómo y por qué brilla el Sol, llueve, hierve el agua, vuelan los pájaros, etc? ¿cómo es posible que un tren de alta velocidad, de muchas toneladas de peso, se mueva impulsado por una "corriente" invisible? ¿cómo funciona la iluminación LED? etc, etc, etc. Es por esto que considero que deberíamos disponer de más ciencia y técnica divulgativa, explicando las cosas con rigor pero sin aparato matemático complicado, usando modelos simples. Los modelos son construcciones mentales que nos ayudan a entender un ente real; hay modelos que incorporan mucha matemática, otros en cambio son muy visuales y apelan a la lógica y a la imaginación. Creo que nos falta una buena producción divulgativa usando un mínimo de complejidad y un máximo de claridad; incluso me atrevo a decir que podrían usarse con éxito tales obras en entornos académicos, ya que suele pasar que se le dan al estudiante modelos muy matemáticos, de forma que se pierde en los detalles sin llegar a entender realmente el todo (la famosa frase de los árboles que impiden ver el bosque).

Recientemente he conocido el caso de un estudiante de una nueva modalidad de bachillerato (denominado internacional) que se suponía iba a ser innovador en el terreno pedagógico, pero a la hora de la verdad ha resultado ser más de lo mismo: pesados libros de texto y explicaciones del profesor en la pizarra; la novedad que he visto estriba en la complejidad: el estudiante de primer curso ha de enfrentarse, en la asignatura de Física, a la Relatividad Restringida, cosa que si se hiciera de modo divulgativo estaría muy bien, pero es que trabajan con transformaciones de Lorentz, algunas con demostraciones matemáticas incluidas, e incluso con diagramas de Minkowsi del espacio-tiempo; en vez de intentar hacer entender los fundamentos, se introduce más aparato matemático en el temario, más complejidad. Creo firmemente que este no es el camino correcto. Puede aprenderse mucha Física (o ciencia en general) sin complicaciones técnicas matemáticas, que pueden dejarse para los especialistas interesados en los detalles.

Ejemplo: el movimiento de fluidos por conductos es una rama de la Física y de la Ingeniería que produce ecuaciones realmente complicadas, teniendo un buen número de casos sin resolver, que se han de tratar con simulación por ordenador. Incluso casos simples como el flujo de un líquido por una tubería ancha, paralela al suelo, a baja velocidad, ya necesita usar ecuaciones que quedan fuera del entendimiento del lector no especialista (ecuaciones de Navier-Stokes).
Modelo para el flujo de fluidos. Pero esto no quiere decir que no seamos capaces de entender el detalle de lo que sucede en ese flujo, siempre que no queramos predecir exactamente, en el espacio y en el tiempo, las medidas de presión, velocidad, etc del fluido. Podemos usar un modelo simple: el imaginar que el líquido está compuesto por unas pequeñas esferas, invisibles a simple vista; tales esferas son muy fuertes, son casi incompresibles, no ceden bajo presión, pero pueden rodar y deslizar, entre ellas y con las paredes del recipiente; al hacerlo, se producen unos rozamientos, unas pérdidas de energía, debido a la viscosidad del líquido.

Un líquido en movimiento en una tubería recta, según el modelo de esferas; hay una presión P que mueve el fluido a la derecha, y unas resistencias Fr debido al roce del fluido con las paredes y Fv debido al roce entre las esferas (viscosidad del fluido), éste último es mucho menor que Fr, por lo que las velocidades de las esferas no son las mismas: son mayores en el centro de la tubería, y menores cerca de las paredes
En la figura anterior vemos un esquema de lo que sucede al aplicar una presión a un fluido usando el modelo de esferas; las velocidades de éstas no son todas iguales pues los rozamientos son mayores en las paredes que entre esferas, por lo que las velocidades varían de forma continua entre un máximo en el centro de la tubería y un mínimo cerca de las paredes.
Una presión perpendicular a la superficie del líquido no produce ningún cambio en él, ya que estamos presionando las esferas intentando aplastarlas, en cambio una presión tangencial desplaza las esferas, las hace rodar, y así el fluido en conjunto se mueve.

Izquierda: una fuerza tangencial, si no hay paredes que lo impidan, hace que las esferas rueden entre sí: el líquido se desplaza. Derecha: una fuerza perpendicular a la superficie de un líquido confinado no produce ningún movimiento, las esferas no pueden rodar libremente
Las esferas pueden rodar una contra las otras, o deslizar; en el primer caso, rodamiento, la pérdida por fricción no existe o es casi cero, en el caso de deslizamiento sí tenemos fricción apreciable, relacionada con la viscosidad del fluido. Cuando un fluido no puede moverse por estar confinado en un recipiente, ejercerá una presión sobre sus paredes.
La fuerza F sobre una esfera se transmite a las esferas próximas perpendicularmente a las superficies de separación entre ellas. Las esferas que tocan las paredes del recipiente transmiten esas fuerzas a las paredes, las cuales han de ejercer una fuerza resultante R sobre el líquido para mantenerlo confinado, si esa fuerza R es demasiado grande para el material del recipiente, éste se deformará y/o romperá debido a la presión excesiva del líquido.
Usando el modelo de esferas es fácil entender el principio de Pascal, tratado en todos los textos pre-universitarios de forma enunciativa, "la presión ejercida en cualquier lugar de un fluido encerrado e incompresible se transmite por igual en todas las direcciones en todo el fluido", se añaden fórmulas matemáticas, y se hacen problemas para ayudar a "entender" el principio, pero de hecho no suele explicarse por qué sucede.
Principio de Pascal: las esferas confinadas se transmiten la fuerza F, aplicada por un émbolo a la izquierda, entre sí y a las paredes del recipiente, el cual ha de responder con fuerzas opuestas para mantener el liquido confinado; al haber más esferas en la parte derecha, cada una ejerce la misma fuerza transmitida, y la fuerza total sobre el émbolo es mayor (en la figura, el doble) que la de la izquierda. No hay ninguna "magia en este aumento de fuerza aplicada, pues es el propio recipiente el que la realiza (suma de todas las contribuciones de las paredes).

Estoy convencido de que exponer la ciencia de forma comprensiva pero rigurosa, con ayuda de ilustraciones y animaciones, complementada con prácticas de laboratorio, y eludiendo en lo posible el uso de matemáticas, tendría un resultado positivo en la comprensión del estudiante e incluso podría aumentar el número de aspirantes a científicos, pues a todo el mundo le gusta entender de verdad el mundo que nos rodea.

Como último ejemplo, mencionaré el recurso didáctico del cómic: una forma amena, sencilla y no obstante rigurosa para estudiar historia, economía, ciencias, etc; en la ilustración vemos una página del cómic sobre economía Economix (fuente: http://economixcomix.com/), he de decir que me ayudó a entender la Economía mundial de forma sencilla y a la vez con un detalle que no había conseguido leyendo decenas de blogs y algún que otro libro de texto.

Economix: un (excelente) cómic sobre Economía






martes, 21 de junio de 2016

Génesis (III): ¿Evolución o creación?

Para terminar con la serie de artículos dedicados a la creación del Universo y de la vida, Génesis (I): El Big Bang, Génesis (II): el origen de la vida, en este artículo enfocamos el tema de la evolución de las especies, intentando además solucionar la controversia entre el evolucionismo y el creacionismo, un debate que aún está muy vivo en Estados Unidos de América debido a creencias religiosas, aquí lo trataremos, como es usual en este blog, desde un punto de vista a la vez científico y filosófico. Para ello usaremos un enfoque que creo no ha sido usado hasta ahora, basado en la Física, en la comprensión del verdadero significado del azar, y también, como no, en la Química, pero todo a nivel divulgatorio, sin complicaciones técnicas.

Evolución primitiva: células

En el anterior artículo de la serie nos habíamos quedado en la generación espontánea de encimas y ADN, fundamentales para poder replicar con precisión un ser vivo, que visto desde la perspectiva de la Bioquimica, es un sistema complejo auto-formado y auto-mantenido mediante reacciones bioquímicas precisamente reguladas. El ADN tiene miles de millones de años; la evolución, como sabemos, no se detuvo en la generación de moléculas "inteligentes", sino que siguió generando sistemas más y más complejos. La generación de la primera célula primitiva sigue teniendo misterios sin resolver para la ciencia, debido a que no existen, no pueden existir, fósiles de células para poder ser estudiados, debido a que la célula es demasiado "blanda", por decirlo así, para que deje ningún rastro a través de millones de años. Hemos de suponer, y así lo hace la ciencia, que el proceso espontáneo descrito en los otros artículos de la serie siguió generando sistemas más y más complejos, hasta eventualmente generar células, esto es, ya no simplemente sistemas complejos bioquímicos sino seres vivos. En todo caso, en ese "azar creador" hay una dirección clara: la de generar, de crear, seres más y más complejos, que disponen de una maquinaria bioquímica capaz de auto-regularse y de auto-replicarse. Estas dos características, aunque en grado inferior, ya estaban presentes en las proteínas y en el ADN, de forma que el considerar a un sistema bioquímico como vivo o no vivo es más bien una cuestión de grado de auto-regulación y de auto-replicación, así como de interacción inteligente con el medio ambiente. No hay una línea clara divisoria; es sabido que los virus, que no son más que ADN especializado en parasitar células, estan en el limbo entre los seres vivos y los inertes, estan en tierra de nadie, según nuestros conceptos claro, es así debido a comentada imposibilidad de trazar una linea divisoria clara.

Evolución de las especies

La misteriosa "tendencia" a "complejizar", a generar complejidad a partir de componentes más simples, por el mecanismo de mezclarlos al azar, dejando que emerjan sistemas nuevos, que pueden perdurar en el tiempo o no, no se detuvo en la célula, sino que siguió adelante, si cabe con más fuerza, uniendo células en colonias celulares, más tarde en organismos pluricelulares diversos; a las diversas combinaciones celulares que comparten una misma estructura, codificada en el ADN, las llamamos especies. Así pues, el azar siguió generando especies, algunas perduraron, otras muchas, la mayoría, se extinguieron.

En la evolución de las especies entra un nuevo factor: la selección natural (Darwin); esto es así debido que el ADN está programado para generar una copia exacta del individuo, manteniendo la especie, por lo que se acabaría la generación al azar de nuevos organismos, simplemente las especies primitivas se hubieran ido reproduciendo sin más, sin evolución. Pero sucede que el mecanismo de reproducción del ADN, siendo muy exacto, no es perfecto, de vez en cuando se producen errores, que producen mutaciones; estas mutaciones son el orígen de nuevas especies. El mecanismo que "decide" si una especie nueva ha de sustituir a la antigua o no es la denominada selección natural. Así pues, la enorme diversidad de vida que vemos a nuestro alrededor tiene su explicación en estos dos mecanismos: la maquinaria bioquímica reproductora del ADN y sus errores fortuitos, y la presión selectiva natural, que "decide" cuales son als especies que van a perdurar.

El debate evolucionismo-creacionismo

Hasta aquí hemos estado siguiendo los pasos de la ciencia, desde la creación de la materia en el Big-Bang hasta la evolución Darwiniana de las especies. Aún hoy en dia siguen habiendo dudas respecto esta teoría científica, en parte debido a creencias religiosas, en parte por incredulidad, debido a que parece imposible que el mero azar haya generado todo lo que nos rodea. Las posiciones son cerradas: o estas en un bando o en el otro, por lo que las discusiones sobre este tema suelen ser encendidas, más semejantes a un combate de boxeo que a un intercambio de opiniones. Este blog no se dedica a temas religiosos, pero si a filosóficos, así que vamos a atrevernos a dar nuestra opinión, y lo haremos sobre el asunto del azar, un azar prodigiosamente creativo e inteligente, no cabe duda. Para ello saltamos momentáneamente al terreno de la Física. 

La luz no era, después de todo, ni ondas ni partículas

La naturaleza de la luz fue otro debate que duró siglos, milenios de hecho, pues las primeras teorías se remontan a las civilizaciones antiguas. Sin retroceder tanto, Descartes postuló que la luz se componía de un haz de partículas lumínicas, y con ello fue capaz de explicar las leyes de la reflexión, aunque tuvo problemas con las de la refracción; Newton completó la teoría corpuscular explicando también las leyes de la refracción, pero no pudo explicar el fenómeno de las interferencias. Huygens, contemporáneo de Newton, también fue capaz de explicar los fenómenos observados suponiendo que la luz eran ondas, no partículas, pero debido al enorme prestigio de Newton no fue tenido en cuenta en ese tiempo. No mucho más tarde los experimentos de Thomas Young parecieron inclinar la balanza hacia el modelo ondulatorio, sobre todo cuando Auguste Fresnel le proporcionó a la teoría precisión matemática, pero aún así siguieron habiendo ilustres científicos que seguían creyendo en la teoría corpuscular, como Brenster en Inglaterra, Laplace, Biot y Poisson en Francia. La polémica pareció quedar zanjada con la teoría electromagnética de J.C. Maxwell y los experimentos de Hertz: la luz efectivamente era una onda de naturaleza electromagnética. Ya en los primeros años del siglo XX la teoría ondulatoria vuelve a tambalearse con el descubrimiento del efecto fotoeléctrico y su explicación teórica por parte de Einstein, basada de nuevo en la naturaleza corpuscular de la luz. Así, se llegó a un enigma, pues algunos fenómenos quedaban claramente explicados por la teoria corpuscular, y otros por la ondulatoria. La solución vino de la mano de Luis de Broglie, que propuso que la auténtica naturaleza de la luz no era ni ondulatoria ni corpuscular, sino ambas a la vez, de forma que se presentaba de una forma u otra dependiendo del experimento: era el orígen de la Física Cuántica. Para el lector interesado en los detalles, a nivel divulgativo, recomiendo la página del CSIC - Museo Virtual de la Ciencia: La naturaleza de la luz


Debate azar y evolución contra creacionismo y diseño inteligente

En el génesis y evolución de la vida tenemos otro debate: por un lado las observaciones y las teorías evolucionistas basadas en el puro azar concuerdan, pero por otro lado tenemos un problema de credibilidad, pues si hablamos de azar podemos también hablar de probabilidades, ya que siempre que hay un proceso al azar, del que pueden surgir diversos resultados de forma en principio impredecible, podemos, al menos en principio, hablar propiamente de la probabilidad de que suceda uno u otro resultado. Es extremadamente difícil, sino imposible, calcular exactamente la probabilidad de que, surgiendo de la nada, apareciese un Universo como el que tenemos, y dentro de él, apareciese la vida y evolucionase hasta la diversidad actual, pero se ha hecho algun intento. Roger Penrose hizo un cálculo aproximado de que a partir de la explosión primigenia del Big Bang apareciese un Universo estable, fijémonos en que sólo se pide que sea estable, esto es, que no consista en una especie de "sopa" de radiación en donde la materia y la antimateria se destruyan mutuamente, para luego volverse a emitir, en un ciclo sin fin, en donde la materia nunca hubiera podido subsistir;  fijó esta probabilidad en una entre 10¹²⁸ ... este valor está increíblemente cerca de cero, si lo escribimos sería:


Sólo este dato ya nos hace dudar de que el Universo actual se haya generado por un proceso al azar; no conozco ningun cálculo parecido para la probabilidad de que aparezca la primea célula a partir de material inerte por mero azar, pero sabiendo que incluso una célula es un organismo de una increíble complejidad, parce claro que la probabilidad será del mismo orden o incluso menor. Teniendo en cuenta que las probabilidades de sucesos independientes sucesivos se multiplican entre sí, tenemos que la probabilidad de que aparezca este Universo estable, y después la vida en él, sería el producto de una cantidad prácticamente nula por otra también insignificante, y el resultado seria mucho menor que cualquiera de las anteriores, como es evidente si consideramos por ejemplo que 0,1 x 0,1 = 0,01 , o que 0,01 x 0,01 = 0,0001.

Para responder a este enigma de la probabilidad prácticamente nula se suele acudir al principio antrópico, que ya mencioné en el artículo Génesis (I): El Big Bang, apartado "Pragmatismo científico y el principio antrópico", y en mi opinión, como ya dije, más que dar una respuesta lo que hace es huir de la pregunta para no enfrentarse a ella.

Ni sólo evolución al azar, ni sólo creacionismo o diseño inteligente

La propuesta que damos aquí para resolver el debate es tomar una posición parecida a la que resolvió el enigma de la naturaleza de la luz: la creación no fue solo enteramente azar ni enteramente creación inteligente, sino ambas, saliendo a la luz un aspecto u otro dependiendo de qué miremos. Efectivamente hay un azar actuando sobre unos "materiales de construcción", generando nuevos elementos, pero también hay algo más que marca una flecha, un vector, una dirección, hacia la complejidad y la estabilidad de lo creado. De otra forma el dilema de la probabilidad nula no tiene respuesta. Para entenderlo mejor, profundicemos un poco en el verdadero significado de la palabra azar, de su  concepto asociado. La definición léxica nos habla de

Azar: casualidad, una combinación de circunstancias imprevisibles e inevitables

O sea que hay unas circunstancias que existen previamente, imprevisibles para nosotros pero que están ahí, actúan, y se combinan entre ellas para producir unos resultados.
 
Una circunstancia es

Elemento accidental que va unido a la sustancia de algo

La circunstancia siempre va unida a un hecho, a un "algo", así pues tenemos un "algo" y sus circunstancias, que se combinan entre sí de forma imprevisible. ¿Qué es ese algo subyacente? Lo que estamos señalando aquí es que siempre que hablemos de la acción del azar como explicación de un fenómeno, realmente estamos estableciendo que hay un algo que se manifiesta en forma de circunstancias que, para nosotros, son imprevisibles, no podemos predecir, a priori, su manifestación, que sin embargo ocurre. Por tanto, "explicar" toda la evolución encogiéndose de hombros, diciendo "es puro azar", y nada más, es de hecho un abuso del lenguaje, por que el azar no es una explicación de nada, es sólo una forma de manifestación de un algo, que puede ser previsible o imprevisible. Y esto no es "filosofía", es simplemente saber el auténtico significado de las palabras que utilizamos.

Así pues, la tesis que aquí se defiende es, en resumen:

  • Hay un "algo" subyacente, inmanente, pre-existente, en toda la creación
  • Ese algo evoluciona por interacción al azar de sus diversas manifestaciones
  • En ese azar no obstante hay una dirección prefijada que conduce a manifestaciones cada vez más complejas, produciendo materia a partir de la radiación, y vida compleja a partir de la materia
  • La ciencia, pragmática, empírica, tradicionalmente no ha podido acceder a ese algo que se manifiesta, sólo ha tenido acceso a los resultados de la manifestación, sólo ha visto el azar, y ha renunciado a ir más allá; esto es correcto, pero pretender extrapolar, como hacen muchos científicos, esta limitación de la ciencia pretendiendo que no hay nada más porque la ciencia no puede ver más allá es erróneo.
  • La combinación de conocimiento científico con el pensamiento filosófico nos puede conducir a una mejor comprensión de la creación y del Universo.




miércoles, 2 de marzo de 2016

Génesis (II): el origen de la vida

Segunda entrega de la serie de artículos dedicados al Génesis del Universo, en este post hablamos del origen de la vida, desde la materia inerte, y de su evolución, siempre usando a la vez ciencia y filosofía, además de un poco de imaginación y quizá también un poco de intuición para enunciar hipótesis y llegar más lejos en nuestra búsqueda del conocimiento.

¿Qué entendemos por "vida"?

Los seres vivos tienen las capacidades de nacer/generarse a partir de otro ser vivo, crecer/desarrollarse, alimentarse del medio ambiente y responder a sus estímulos, reproducirse/generar réplicas de si mismo y degenerar/morir, aunque esta última capacidad no se da en los seres unicelulares más simples, que son virtualmente inmortales.

Si retrocedemos en el tiempo algunos miles de millones de años nos encontramos con un planeta Tierra sin vida; ¿de dónde surgió? Evidentemente surgió de la materia inanimada, pues no había otra cosa (aquí no hablamos de Religión, evidentemente), así que tenemos que concluir que la materia inerte es capaz de generar vida, si se dan las condiciones adecuadas, una conclusión impresionante, que no todo el mundo es capaz de aceptar. Así que ya tenemos respondido el ¿de dónde?, pero nos falta el ¿cómo? y la más difícil, el ¿por qué?

Generación al azar de sistemas complejos

El el primer artículo de la serie: "Génesis (I): El Big Bang", dimos un ejemplo muy simple de sistema que, de forma autónoma, evoluciona de lo simple a lo complejo; sólo necesita unos bloques simples de construcción, unas pocas reglas de combinación de bloques y un impulso inicial.

Formación de figuras compuestas por agregación: inicialmente disponemos algunas figuras simples moviéndose al azar de tal forma que si chocan entre ellas en unas determinadas condiciones entonces quedaran fusionadas. Al cabo de cierto tiempo esperaremos que se hayan formado figuras más complejas, en un proceso continuo. El azar "asegura" la agregación.


Incluso siendo tan extremadamente simple, ese modelo muestra algunas de las características que tiene nuestro Universo: genera formas complejas a partir de elementos simples usando combinaciones al azar; así, pasó de la energía pura a las partículas elementales, de éstas a los átomos, de éstos a las moléculas, de las moléculas a la materia, y de la materia, por agregación, a los objetos masivos del cosmos. En todo este proceso de "complexificación" se utilizan no sólo objetos sino también reglas de combinación: las que denominamos leyes de la Naturaleza, como el electromagnetismo o la gravedad.

Un poco de Bioquímica


Así, después de miles de millones de años de combinaciones de elementos simples, llegamos a un planeta Tierra que contenía todo lo necesario para generar vida: los materiales y las condiciones iniciales adecuadas. Por exactamente el mismo proceso aleatorio de combinaciones de elementos químicos, en algún momento en la Tierra se generaron las moléculas que denominamos orgánicas de entre las cuáles destacaremos los aminoácidos.

Ácido Málico, tiene diversas funciones en la bioquímica de nuestro cuerpo


Más tarde, por combinación de aminoácidos, se formaron proteínasmacromoléculas complicadas que son parte fundamental de cualquier ser vivo

Proteína: una cadena larga de aminoácidos ensamblados (Wikipedia Common)

Sistemas que se copian a sí mismos

En las proteínas encontramos una novedad importante: la capacidad de replicarse a sí mismas a partir del material del medio ambiente, que es una de las características que tienen los seres vivos. Simplificando al máximo, lo podemos entender con otro sistema de figuras que se mueven al azar y se combinan entre si, cambiando las reglas: cuadrados y círculos en movimiento pueden unirse, y a veces estaban unidos y se separan; cuando esto último sucede, quedan libres para unirse a otras figuras del entorno, resultando más figuras compuestas:

Dos figuras A, B que estaban unidas formando una figura compuesta AB, eventualmente se separan, y vuelven a unirse cada una por separado con otras figuras afines, formando dos figuras compuestas semejantes a la original, la cual se ha "reproducido"

Fijémonos bien en que esta reproducción de objetos (tanto para figuras simples como para proteínas) sigue siendo producto del azar; esto fue así antes de la aparición de la vida en la Tierra, hace quizá unos 3.000 millones de años.  Pero para que pudiera surgir la vida era necesaria la aparición de propiedades nuevas de las proteínas: es necesario que la proteína pueda duplicarse a sí misma pero del todo insuficiente para generar seres vivos.

Aparecen las enzimas: acelerando  la creación de proteínas

Una primera y necesaria "mejora" fue la aparición de un tipo de proteínas, llamadas enzimas, que aceleran (en lenguaje técnico, catalizan) reacciones bioquímicas; sin las enzimas la producción de nuevas proteínas podría ser demasiado lenta para las necesidades de un ser vivo, gracias a las enzimas la velocidad se incrementa drásticamente. Además, las enzimas son tremendamente específicas: una enzima en particular sólo afectará a una única reacción química, con unos determinados elementos químicos en juego. 

Consideremos un momento este punto: en la industria química se usan habitualmente catalizadores para producir productos químicos a gran escala, y esto ha sido así gracias a décadas de investigación; lo que estamos diciendo aquí es que la Naturaleza produjo, por combinaciones al azar, unos catalizadores especiales para proteínas, llamados enzimas, que son mucho más eficientes que los catalizadores industriales, y además mucho más específicos, lo que quiere decir que sólo aceleran una reacción concreta, pueden "reconocer" si los elementos químicos son exactamente los que la enzima cataliza, cualquier pequeña variación en una de las moléculas que intervienen en la reacción química hará que la enzima la ignore, lo cual es de gran importancia para la compleja química de la vida: gran eficiencia y especificidad. Si hasta ahora no era demasiado sorprendente que se generaran moléculas complejas al azar, a partir de las enzimas comienzan las maravillas, y veremos que llegaremos a un punto de la evolución realmente asombroso. Aunque no hay ninguna "magia" en las funciones enzimáticas, que pueden ser explicadas por la química en términos de geometría molecular, afinidades, niveles de energía, etc. Lo que llama la atención es la aparición espontánea de proteínas específicas que catalizan la creación de otras proteínas ... ¡es como si las proteínas existentes en ese remoto pasado en la Tierra "decidieran" mejorar su sistema reproductivo creando otra proteínas especializadas para ello!

Así pues, aquellas proteínas que se "encontraron" con enzimas específicas se multiplicaron mucho más rápidamente que las que no disponían de enzimas; como consecuencia, con el tiempo las primeras fueron mucho más frecuentes que las segundas. Recordemos que las propias enzimas son también proteínas, así que fue una "cooperación" entre proteínas la que llevó al predominio de algunas de ellas sobre las demás.

Además de la velocidad de creación, las enzimas tuvieron otro efecto: posibilitar la creación de proteínas más complejas; como más grande y complicada es una molécula, más lenta será su generación y también más poco probable que se genere al azar; en cambio con la ayuda de las enzimas se facilita la generación de macromoléculas.

Se cree que gracias a la ayuda de los enzimas se desarrollaron proteínas auto-replicadoras cada vez más complejas, hasta llegar a la generación del ARN, y posteriormente, a partir de éste, al ADN.

Información para la replicación, mutaciones y evolución

Como es sabido las moléculas de ADN tienen la propiedad de ser capaces de almacenar una enorme cantidad de información, lo que las convierte ya no en simples proteínas auto-replicantes, sino en auténticos "planos de construcción" de otras muchas proteínas. El proceso por el cual se codifica esta información y se descodifica es complejo y especializado, no lo detallaremos aquí. 

A partir de la aparición del ADN fue posible que un organismo complejo se replicara a sí mismo sin errores; toda la composición molecular del organismo se codifica en su ADN, el metabolismo del organismo utiliza la información de su ADN para generar todas las proteínas que necesita para su construcción. 

Aunque pueda parecer increíble que todas esta maravillosa maquinaria bioquímica de replicación pueda generarse espontáneamente, todas las evidencias apuntan a que así fue realmente. 

Aunque la replicación de las proteínas, guiada por las instrucciones del ADN, es altamente precisa, siempre pueden producirse errores; quizá en una de cada diez millones de replicaciones se produce un error: se genera una proteína mutante, la cual a su vez "intentará" replicarse, creando una nueva especie de proteínas; el que lo consiga o bien se extinga dependerá de sus características y de su medio ambiente. Lo mismo puede decirse para organismos complejos: su ADN mutará ocasionalmente, generando organismos mutantes, que pueden perdurar o no; en este caso ya hablamos de selección natural, el proceso por el cual se "seleccionan" las especies, tanto originales como mutantes, que perduraran. 

Pero esta es una historia bien conocida y documentada; en este blog nos interesan más las implicaciones de este proceso de génesis y evolución respecto al conocimiento en sentido amplio.  Preguntas como ¿cuál es la probabilidad de que un proceso aleatorio como el descrito llegue a generar seres tan complejos como los actuales? ¿hay un plan en todo esto? ¿puede haber vida generada por un camino evolutivo diferente, o es el único posible? Las abordaremos en el tercer artículo de esta serie.





domingo, 21 de febrero de 2016

Génesis (I): El Big Bang

Inicio una breve serie de artículos sobre el origen del Universo y de la vida, desde el punto de vista de este blog: la Ciencia pero también la Filosofía. La idea general es mostrar como en el origen de la materia y de la vida encontramos conceptos y procesos similares: energía, combinaciones al azar y leyes de combinación que regulan las combinaciones.

Big ... Bang!

En el principio nada existía (existir ... del latín existere: aparecer, emerger, ser, que a su vez se forma de ex + sistere: hacia afuera + tomar posición), pero debemos precisar que había "algo" no manifestado (manifestar viene del latín manifestus: patente, palpable), supondremos que ese algo era energía primordial (energía viene del griego enérgeia: fuerza o capacidad de acción, primordial viene de primordialis: relativo a lo originario, al principio fundamental) en cantidades ingentes; así pues, había una capacidad latente de expresarse, que "de repente", se expresó:
"El universo que conocemos se originó en una inmensa explosión de energía pura desde un punto de dimensión cero y densidad infinita
Claro, en este punto  se abren muchos interrogantes, algunos de los cuales son:

http://www.physicsoftheuniverse.com
  • ¿Que es esa "energía primordial"? Pudiera ser una fuerza creativa fundamental, tal como la que busca la denominada Teoría de la gran unificación, que intenta demostrar que, en las condiciones extremas del Universo primitivo, todas las fuerzas de la Naturaleza, electromagnetismo, gravedad, fuerzas nucleares, no estaban manifestadas por separado sino unificadas en una única fuerza primordial de la que posteriormente emanarían las fuerzas que ahora conocemos.
  • ¿Cómo puede existir o ser concebido un punto de dimensión cero? Por la teoría de la relatividad sabemos que la realidad que nos rodea es un espacio-tiempo curvo con una curvatura que depende de la masa que hay en los alrededores, como más masa, más retorcido sobre sí mismo es el espacio-tiempo; en un agujero negro la enorme cantidad de masa retuerce tanto el espacio-tiempo que se pliega sobre si mismo de forma que nos queda un punto sin dimensiones ni espaciales ni temporales. De forma semejante, el punto primordial se comporta así: no está manifestado como espacio y tiempo, es solo energía potencial, hay una capacidad infinita sin utilizar.

Por razones desconocidas que quizá quedan fuera del alcance de la ciencia esa energía no manifestada primordial "decidió" manifestarse en forma explosiva (del latín explosio: echar hacia afuera una gran cantidad de energía); aquí, el "afuera" era el espacio-tiempo, que se creó en la misma explosión. No sabemos que había antes de esa explosión, de hecho la misma pregunta no tiene sentido pues no existía un "antes" al no existir el tiempo. Tampoco sabemos qué la produjo, quizá es apropiado decir que "fue una explosión espontánea", o que la energía estaba en un estado inestable y por eso explosionó, pero no hay nada definitivo; por eso también queda abierta la posibilidad (no científica) de un "ente creador" que "pusiera" esa energía y la impulsara a expansionarse.

Mucho más que una explosión: Leyes del Universo primitivo

Se cree que sólo habían transcurrido 10−43 segundos y la energía primordial ya empezó a diferenciarse, creando las fuerzas gravitatoria y electro-nuclear; un instante después, 10−36 segundos después del big-bang, la fuerza electro-nuclear se diferenció en electromagnética y nuclear. ¿Qué significa este hecho? Sabemos que esas fuerzas tienen expresiones matemáticas muy bien definidas: la gravedad fue descrita por Newton, y más tarde por Einstein, mientras que las fuerzas electromagnéticas fueron descritas por Maxwell, y en cuanto a la nucleares, por diversos físicos.
Ecuación de Einstein, relacionando energía y curvatura del espacio-tiempo

El punto importante aquí es que ... ¡en solo 10−36 segundos! se generó toda esa complejidad de campos de fuerzas, las cuales guiaron el posterior desarrollo del Universo primitivo; hay que señalar que de hecho los campos en esos instantes eran cuánticos, de forma que aún hoy en dia no hemos conseguido hallar sus ecuaciones exactas, especialmente en el caso de la gravedad cuántica. Por tanto, la "explosión" fue mucho más que un simple despliegue de energía, fue también un despliegue de complejas leyes físicas que perduran hoy en dia, 15.000 millones de años después.

Para mí, si ya es difícil de entender que pueda haber una cantidad virtualmente infinita de energía en un punto sin dimensiones, todavía es más difícil entender cómo se generaron tales leyes complicadas y exactas, ¿o bien hemos de suponer que no se generaron, sino que ya existían en el punto adimensional original? Pero las leyes son información, más aún, son conocimiento: información altamente estructurada, preparada para ser usada ¿cómo se almacena el conocimiento en un punto adimensional, o cómo se genera desde él? De hecho, esta es una pregunta que hace tiempo me hago: una partícula fundamental, aislada, es decir, un cuanto de un cierto campo, ¿cómo sabe cómo tiene que comportarse? ¿dónde se almacena esa información, ese conocimiento?

Pragmatismo científico y el principio antrópico 

Stephen W. Hawking
La ciencia está renunciando a hacerse estas preguntas, limitándose a contestar lo que cree que realmente pertenece a su ámbito de conocimiento: observar la Naturaleza, descubrir regularidades de comportamiento, intentar describir esas regularidades con un lenguaje exacto. Por ejemplo, la respuesta de Stephen Hawking a la pregunta "¿porqué las leyes del Universo primitivo fueron esas y no otras?, pues cualquiera pequeña variación en ellas, aunque fuera sólo de una centésima parte del 1%, hubiera hecho imposible la existencia del Universo y de la vida tal como los conocemos", es simplemente: «vemos el universo en la forma que es porque nosotros existimos», es una aplicación del llamado "principìo antrópico". Para mí, esta "explicación" no es más que una huida, una ignorancia, pero además una ignorancia que intenta dejar sin sentido a nuestra pregunta, una ignorancia disfrazada de sabiduría, que quiere hacer pasar el afán de saber por ignorancia, pues te dice: "tu pregunta simplemente no tiene sentido, no es una pregunta adecuada". Creo que las preguntas siempre son adecuadas, y lo más honesto es reconocer que no tienes las respuestas, en vez de negar la validez de las preguntas.


Sistemas cibernéticos, regulación y evolución

Un sistema cibernético es auto-regulado, para ello se retro-alimenta, afectando al medio externo y luego adaptándose a él. La Cibernética estudia la regulación y control de todo tipo de sistemas dinámicos y de sus procesos.  Podemos aplicarla al estudio del Universo primitivo, considerándolo como un sistema auto-regulado? En principio no, pues la Cibernética no considera sistemas aislados (aquellos que no intercambian materia ni energía con su entorno), y por definición el Universo es un sistema aislado, pues contiene todo lo existente.

La pregunta es: ¿tenemos conocimiento de algún otro sistema aislado auto-regulado que no sea el Universo? Pues no, al menos hasta mi conocimiento; todo sistema aislado es de hecho una idealización, pues el aislamiento absoluto no existe.

Evolución de un sistema cerrado: energía y entropía


Pensemos en el siguiente sistema cerrado idealizado: en un espacio cerrado dejamos algunas figuras idénticas en movimiento al azar, que obedecen a la siguiente regla:

los choques entre figuras son elásticos, excepto si, al chocar dos figuras, coinciden dos de sus lados en al menos un 50% de su longitud, entonces el choque será inelástico y las dos figuras quedaran unidas.
Podemos imaginar que los lados de las figuras son adhesivos, de forma que si chocan adecuadamente se pegan entre sí. Demos posiciones y velocidades iniciales a las figuras, por ejemplo, la instantánea inicial podría ser:
Figuras moviéndose al azar en un entorno cerrado
Es de esperar que al cabo de cierto tiempo algunas figuras se hayan unido, por ejemplo:
La ley del choque entre figuras produce uniones

Esperando todavía más tiempo más figuras se habrán unido al azar:
Las uniones se hacen más numerosas y complejas
A la larga esperamos que todas las figuras queden unidas en una sola figura, es como si actuara una gravedad en ellas. Este sencillo "Universo" no cumple con la ley de conservación de la energía, pues como es sabido los choques inelásticos disipan energía cinética; en el Universo real la energía cinética se transforma en térmica, pero como en nuestro sistema no hemos definido tal concepto, se va disipando la energía; de hecho, como la temperatura está relacionada con la energía cinética, nuestro simple Universo se enfriará irreversiblemente hasta llegar al estado de equilibrio en el que todas las figuras están juntas. También podemos decir que la entropía en nuestro sistema, que podemos tomar como una medida del desorden del sistema, se reduce progresivamente, violando con ello el segundo principio de la termodinámica. Así pues, no es tan sencillo imaginar un sistema cerrado que no vulnere las leyes de la Física: hay que pensar un poco más.

En nuestra segunda versión de sistema cerrado haremos que la energía perdida en los choques inelásticos se emita en forma de un tipo de radiación para la cual no damos más detalles; esa radiación, una vez emitida, no interactúa con nada, es energía libre. Por tanto el sistema cumple ahora con el principio de conservación de la energía: en el estado final de equilibrio todas las figuras estarán unidas y circulará por el espacio una radiación que contendrá toda la energía cinética perdida. ¿Que pasará con la entropía? A pesar de que las figuras están más ordenadas en el estado final, dado que la energía radiante no puede recuperarse, deberá haber un aumento global de la entropía, y se cumplirá el segundo principio, que de hecho tiene que ver con la irreversibilidad: la energía total se conserva, pero se convierte en otra forma tal que no puede recuperarse el estado inicial de figuras separadas.

Pensemos en una tercera versión del sistema, en la cual la energía radiante pueda ser reabsorbida por las figuras, con el efecto de un aumento de la energía cinética. La energía total sigue conservándose; ¿cuál será el estado final de este sistema? Como la absorción de energía no separa las figuras, sólo las acelera, el estado final será el mismo: una única figura, unión de todas las iniciales, con una velocidad determinada por la conservación de la energía total. ¿Que pasa con la entropía? Que vuelve a disminuir, no hay pérdida de energía cinética total, y hay un aumento del orden del sistema: volvemos a violar la segunda ley. En el Universo real no hay la posibilidad de reabsorción total de la energía perdida, hay una degradación que conduce al aumento de entropía.

Así pues vemos que el Universo primitivo, generado a partir de la "nada", fue muy especial: llevaba intrínsecamente unas leyes estrictas y exactas que cumplió desde el mismo momento de su génesis.

¿De donde surge toda la complejidad?

Incluso en el sistema tan simple que hemos usado como ejemplo, para que evolucione hay que poner unos objetos, unas reglas, unas condiciones iniciales, y un tiempo para que el azar realice combinaciones siguiendo las reglas. En cambio parece ser que el Universo no tuvo "objetos" iniciales sino sólo energía, y tuvo reglas iniciales, ¿pero "quien" y "como" las impuso? Supongamos que la energía primordial ya contiene algunas reglas simples iniciales, las cuales pueden combinarse entre sí para formar reglas más complejas; es un proceso parecido al de la unión de figuras pero con reglas. Imaginemos pues un sistema inicial de reglas y de meta-reglas que permiten combinar reglas para generar nuevas reglas, codificado de alguna forma en la misma energía primordial:

Energía en expansión -> espacio-tiempo
Energía + espacio-tiempo -> campos de fuerzas y partículas elementales
Energía + espacio-tiempo + partículas elementales -> átomos
etc. etc.

La jerarquía creciente de reglas generaría todo el Universo, de hecho todo son reglas, o leyes, incluso la materia es energía que se comporta según reglas. Y todas las reglas serían combinaciones de una única fuente: la energía primordial. Esta energía primordial incluiría potencialidad y reglas de creación. En esta visión del Universo, el Big-bang no fue una explosión inicial, sino un despliegue de energía inteligente, auto-controlada por su propio sistema jerárquico de reglas, que a su vez es auto-generado, y todo lo que existe es expresión directa de esa energía manifestándose mediante lo que llamamos leyes de la Naturaleza.

Dios juega a los dados...

Aunque esta famosa afirmación surgió en el contexto de la Física Cuántica, creo que es de aplicación aquí, pues en el modelo que hemos expuesto, al igual que en el sistema simple de figuras, se deja al azar la combinación y formación de reglas más y más complejas. Ahora bien, sabemos seguro que se formaran tales reglas, solo es preciso darle tiempo al sistema. Así que es un azar relativo, pues los resultados sabemos cuales serán, aunque no este determinado el camino exacto de evolución. 

La pregunta es: ¿cuantas reglas iniciales se crearon en el big-bang? O dicho de otro modo, ¿Cuál es la mínima complejidad inicial que tuvo que crearse para que evolucionara hasta generar el complejo Universo actual? Quizá el lector se habrá dado cuenta de que estoy trazando un paralelismo con la aparición de la vida y su posterior evolución: mi tesis es que la evolución del Universo, desde la explosión inicial hasta ahora, y la evolución de la vida, desde los virus hasta los organismos complejos, siguen patrones parecidos: una materia prima más un conjunto inicial de reglas de formación, que aleatoriamente van generando la complejidad que vemos actualmente, y de la que somos parte. En el siguiente post trataré del origen de la vida.

miércoles, 13 de enero de 2016

El límite de velocidad c

En este breve artículo esbozo unas ideas que creo que son innovadoras sobre la naturaleza de la velocidad de la luz en el vacío, c, como límite superior de velocidad. Deducir el valor exacto no es mi propósito, sino más bien intentar mostrar porqué existe un límite superior para la velocidad válido para cualquier móvil sea de la naturaleza que sea.

Velocidad, espacio y tiempo

La velocidad es una ratio o relación entre la variación de la posición de un "objeto móvil", que representamos por Δe y la variación del tiempo empleado en el cambio de posición, representado por Δt; por tanto, definimos v = Δe / Δt. A esta velocidad se la denomina velocidad media, mientras que la velocidad instantánea se define haciendo el límite cuando Δt tiende a ser la diferencial dt : v = de / dt, o sea la derivada de la función posición respecto a la variable tiempo. Para la discusión que sigue, no necesitamos hacer distinciones entre ambas definiciones. 

De esta simple definición no puede derivarse ningún límite a la velocidad; a medida que el móvil recorre una distancia dada en menos tiempo, la velocidad se incrementa sin límite superior. Fue la teoría de la relatividad especial la que descubrió que debe de haber un límite, que es precisamente el de la velocidad de la luz en el vacío, c, y lo hizo mostrando que de otro modo habrían incoherencias con la descripción de las leyes físicas en diversos sistemas de referencia en movimiento entre sí. Esto está ampliamente explicado en muchísimos textos y no lo trataremos aquí. Pero aún se plantea la pregunta ¿cómo puede ser que haya ese límite?, pues no es nada intuitivo para nuestra mente imaginar que no se puede incrementar la velocidad indefinidamente. Hace pocos días vi planteada esta pregunta en una red social de investigadores, y las respuestas eran muy técnicas, y por tanto, de nuevo, nada intuitivas. 

Espacio-tiempo y masa

Desde el "punto de vista" (más exactamente, desde el sistema de referencia) de un fotón, el cuanto de energía electromagnética, o en general, desde el punto de vista de la energía libre, no ligada a ningún objeto material, no existen las posiciones, ni el espacio, ni el tiempo; la realidad desde el punto de vista de la energía libre es un eterno aquí-ahora, sin separaciones. Esta afirmación, que puede parecer al lector algo mística, es consecuencia directa de la relatividad especial. En efecto, en relatividad el tiempo es relativo al sistema de referencia, y la relación entre el tiempo medido en dos sistemas distintos es:


Cuando la velocidad V del sistema de referencia en movimiento se hace igual a c, el denominador se anula y el tiempo medido en ese sistema se hace igual a ∞. ¿Que significa esto?  El reloj que mide el tiempo propio del sistema de referencia "energía libre" se para, de forma que cualquier cambio de posición necesita de un tiempo infinito para producirse. Esto puede verse también desde el punto de vista del espacio; la relación entre longitudes entre dos sistemas de referencia es:

Cuando v = c, vemos que la longitud del sistema "energía libre" se hace igual a 0, esto es, no hay longitudes, no hay distancias desde el "punto de vista" de la energía libre. Es por esto que el tiempo propio se hace infinito, pues no pueden haber cambios de posición, pues no hay distancias. 

Esta situación requiere que el sistema de referencia sea el de la energía libre; cuando la energía está ligada, o bien se produce masa, o bien la energía es absorbida por la materia. En efecto, también de la relatividad especial conocemos la relación E = mc² que relaciona masa con energía ligada. Cuando la luz que nos rodea incide sobre los objetos materiales, parte es reflejada y parte es absorbida por la materia. La misma materia que nos rodea es una energía fabulosa condensada. En el momento que la energía no es libre, sino que se relaciona con materia, o bien forma materia, en ese momento tiene sentido hablar de espacio-tiempo, pues la ligadura crea una posición en el espacio. Así pues, podemos decir que la presencia de masa crea el espacio-tiempo, y que en ausencia de masa no existe nada que pueda definirse como espacio o tiempo.

Significado del límite de velocidad

Supongamos que dos partículas con muy poca masa, procedentes de extremos opuestos de un acelerador de partículas, o de estrellas lejanas, tanto da, se acercan una a la otra, y cada una de ellas tiene una velocidad, en nuestro sistema de referencia, próxima a c, digamos, 0.9c. Sabemos por la relatividad que la velocidad relativa entre las dos partículas no será 0.9c + 0.9c = 1.8c  sino que se calculará con las transformaciones de Lorentz y siempre será menor que c. ¿Pero porque sucede esto, más allá de las ecuaciones? Evidentemente ha de ser una propiedad del espacio-tiempo la que lo explique. Hay que enfocarlo al revés: no es que haya un límite de velocidad, es que la materia está en el espacio-tiempo, y la energía libre no. Las partículas "casi inmateriales" están en el limbo entre materia y energía libre, pueden tener velocidades cercanas a c, pero aún están sometidas al espacio-tiempo. Además, recordemos que la velocidad es siempre relativa: es a nosotros, seres materiales, que nos parece medir una velocidad finita, pero para la energía es un concepto que no existe.

Entonces tenemos dos cuestiones relacionadas, con respuestas distintas:

  1. ¿Porqué hay una velocidad límite? El hecho de que exista el concepto de velocidad es debido a que existe un espacio-tiempo, el cual es generado por la presencia de materia, que es energía condensada. Desde el punto de vista referencial de la materia hay velocidad, desde el punto de vista de la energía libre no la hay. Supongamos que no existiera tal límite de velocidad; entonces en teoría un cuerpo material podría alcanzar una velocidad infinita. A esa velocidad, el cuerpo tendría el mismo "punto de vista" que la energía libre: el tiempo empleado en moverse entre dos puntos sería cero, y por tanto la distancia aparente sería también cero. Ese objeto estaría en todas partes a la vez, en un único instante; pero ese estado es contradictorio con su propia existencia como objeto con unas dimensiones y una posición, las cuales quedarían indeterminadas ... simplemente no sería un objeto material. 
  2. ¿Porqué esa velocidad límite es precisamente c, y para todos los objetos y todo el Universo? Esta pregunta es la que contesta la teoría de la relatividad.

En cambio no hay límite teórico para la aceleración

Si no hay espacio ni tiempo, no se puede definir la velocidad, ni tampoco la aceleración. En presencia de masa, tenemos espacio-tiempo, posición, velocidad, pero además se genera gravedad, la cual incluye la presencia de una aceleración intrínseca. Curiosamente no hay un límite teórico para la aceleración, como sí lo hay para la velocidad. ¿Porqué? En realidad debe de ser así, pues habiendo un límite para la velocidad en el espacio-tiempo, la aceleración necesaria para alcanzar esa velocidad ha de ser infinita.


Esto es así debido al cambio de masa producido a medida que aceleramos un objeto, M = ɣ donde M es la masa en movimiento, m la masa en reposo y ɣ es el factor de Lorentz, que tiende a infinito cuando la velocidad se acerca a c. No tenemos que imaginar que el objeto va adquiriendo materia a medida que acelera, lo que gana es masa inercial, o sea resistencia al cambio de velocidad.

Siendo equivalentes la masa inercial y la gravitatoria (principio de equivalencia de la relatividad general) se infiere que no hay límite para la aceleración causada por la gravedad. Ahora bien, en las cercanías de un agujero negro, la materia es acelerada tan fuertemente que el tiempo de aceleración es corto, la materia se disgrega en partículas fundamentales, las cuales se precipitan al agujero negro a velocidades cercanas a la de la luz.




sábado, 1 de agosto de 2015

Límitaciones de la toma de decisiones racionales

En la toma de decisiones racionales, tanto personales como grupales, nos encontramos frecuentemente que puede ser imposible encontrar la solución óptima, incluso en situaciones simples. Para ver el origen de las dificultades, vemos primero que se entiende por "racional", y como se aplica el raciocinio al conocimiento y a las decisiones, para luego explorar las limitaciones de las decisiones racionales. 


Mente racional y conocimiento

Un razonamiento es un proceso mental que es consistente (esto es, libre de contradicciones) dirigido a un objetivo, que puede ser simplemente comprender algo, o bien puede ser decidir una acción, intentando que ésta sea la mejor de entre un conjunto de elecciones posibles. En pocas palabras, se busca descripción, control y predicción. La Ciencia y la Tecnologia son racionales, y es evidente lo que han logrado y siguen logrando en sus objetivos de entender y controlar nuestro entorno. En cambio la Ley y el Derecho no son estrictamente racionales, ya que la Ley es simplemente la expresión de la voluntad de los legisladores, y el Derecho es un fenómeno social, histórico, no es el resultado de ningún proceso racional, si no la expresión de unas costumbres y voluntades políticas (Ley, principios, derechos - Luis Prieto Sanchís). También la Sociología no es estrictamente racional, de hecho hay puntos de vista que defienden una Sociología subjetiva, no hay un objetivo sobre el cual aplicar un razonamiento, sino sujetos distintos, cada uno de los cuales ve las cosas desde su punto de vista particular, que puede ser racional o no.

Por tanto hay que discernir entre conocimiento racional (como el científico) y conocimiento no racional (como el conocimiento de las leyes de un país), aunque esta división no puede tomarse a rajatabla, pues el científico a veces usa la intuición para avanzar en una teoría, y el legislador aplica su mente racional al redactar una nueva ley. 

El racionalismo, formulado por Descartes en el siglo XVII, pero que ya existía desde Sócrates y Platón, enuncia que la fuente del auténtico conocimiento es la razón, el proceso de razonamiento. En el siglo XVIII aparecieron diversas corrientes de pensamiento abiertamente anti-racionalistas, por ejemplo Kierkegaard ("la verdad es subjetividad"), Nietzsche ("la vida es curso ciego, irracional y sin sentido”), etc. (ver por ejemplo el artículo Antiracionalismo y existencialismo). Posteriormente (finales del XIX) el racionalismo evolucionó hacia su moderna concepción, más científica: la razón debe de tener en cuenta los hechos observables para llegar a conclusiones, no es seguro el conocimiento que no ha pasado por el filtro de la verificación experimental. 

Las dos corrientes contrapuestas de racionalismo y anti-racionalismo continúan a lo largo del siglo XX: el racionalismo  se ve reforzado por el desarrollo de la ciencia y de la técnica, pero el anti-racionalismo también se refuerza debido a la dificultad de encontrar un sentido a la vida y a los acontecimientos trágicos, como por ejemplo las dos guerras mundiales. Además, la ciencia del siglo XX, concretamente la Física, se da cuenta de la insuficiencia de la visión mecanicista tradicional, teniendo por fuerza que abrirse a la inmaterialidad de la geometría del espacio-tiempo y de la mecánica cuántica. Por todo ello desde los años 60 del siglo XX muchos abandonan el reduccionismo científico y se abren al reino insondable del espíritu (movimientos "New Age"). 

Decisiones racionales

Recordando la definición de racionalidad,  vemos que además de ser la base del conocimiento racional, también lo es del proceso mental dirigido a decidir una acción. 

En lo que sigue me centraré no en el debate entre racionalismo y anti-racionalismo como fuente de conocimiento, sino en las limitaciones de la toma de decisiones racionales, tanto personales como grupales, mostrando que puede ser imposible encontrar esa solución óptima, incluso en situaciones simples. 

En la teoría de las decisiones se estudian los distintos tipos de decisiones, así como las formas de seleccionar la "mejor" decisión que pueda ser tomada de entre un conjunto de alternativas. Obviamente este es un asunto de la máxima importancia pues tenemos que tomar decisiones continuamente, así que saber cual es la mejor opción es realmente importante. Y esto es cierto tanto a nivel individual, como familiar, laboral, y social. En efecto, la corriente ideológica predominante en Economía es la de la decisión racional, en la cual se supone que el sujeto es totalmente egoísta y tiene como objetivo el maximizar su utilidad-beneficio y el reducir los costos o riesgos, y su decisión racional persigue ese objetivo. Esa ideología, llevada al extremo, ha provocado la primera gran crisis financiera del siglo XXI, ya que cada sujeto económico procura maximizar su beneficio sin importarle el posible daño colateral causado a otros sujetos.  Se postula que el individuo, en cualquier decisión, se preocupará por defender sus propios intereses, o los de su grupo, que no es más que una parte de sus intereses. Incluso hay autores que defienden que esta es la mejor postura posible.

En general, a poco que el lector se informe sobre teoría de decisiones, llegará a la conclusión de que sólo es aplicable a un reducido número de problemas, aquellos en los que pueda definirse exactamente que se entiende por la "mejor" decisión, y además que el decisor conozca toda la información relevante, etc.

Hay dos situaciones en las que la decisión es compleja: 1) cuando el objetivo óptimo no está bien definido, esto es, cuando no tenemos muy claras nuestras prioridades, y 2) cuando el proceso de elección racional no está bien definido, o es demasiado complejo. Estas situaciones son frecuentes cuando las decisiones afectan a un grupo heterogéneo de individuos.

Indecibilidad e inconmensurabilidad

La indecibilidad se define como la propiedad de un problema de decisión que no tiene un proceso racional (o no sabemos encontrarlo) que nos lleve a la decisión óptima. La inconmensurabilidad se refiere a la imposibilidad de decidir cuál de dos teorías es la correcta. la más correcta, o la mejor. Veamos un ejemplo muy simple de indecibilidad en la vida diaria.

Es fácil ver que incluso en las decisiones simples puede ser complejo, e incluso imposible, definir que se entiende por decisión óptima: una familia de 4 miembros A, B, C, D quiere decidir democraticamente, esto es,  todos los miembros de la familia tienen una opinión del mismo valor, su destino de vacaciones de entre tres posibles: playa, montaña, o turismo en una ciudad extranjera. Deciden votar cada uno ordenando de más a menos cada destino según sus preferencias. Los resultados de la votación han sido:


1-Playa 2-Montaña 3-Ciudad
A 1 2 3
B 1 3 2
C 3 1 2
D 3 2 1

Por ejemplo, el miembro A ha elegido en primer lugar playa, en segundo montaña y en último lugar de preferencia una ciudad en el extranjero. Planteamos la pregunta: ¿cuál es el mejor destino para esta familia? Para responder, necesitamos definir que se entiende por "mejor destino para la familia".  Si intentamos aplicar el principio simple de que elija la mayoría simple, que sostiene que si al menos la mitad más uno de los votantes han decidido un cierto destino, ese es el mejor, vemos que no es aplicable, pues hay diversos empates en número de votos:


1-Playa 2-Montaña 3-Ciudad
1ª opción 2 1 1
2ª opción 0 2 2
3ª opción 2 1 1

4 4 4

Otro método de elección es tomar al más votado como primera opción; en ese caso seria el destino playa el elegido, pero fijémonos que el 50% de los miembros han votado playa en última opción, como el menos deseable de los destinos, así que realmente este método "castiga" a la mitad de la familia a ir de vacaciones donde menos le apetece, ya no parece tan buena opción. 

En teoría de las votaciones se estudian diversos métodos de elección de candidatos; entre ellos, probemos el método de Condorcet, especialmente útil para el caso que nos ocupa de votaciones por orden de preferencia. Se forman las matrices de preferencias de cada miembro de la familia, y se suman todas las matrices; por ejemplo, para el miembro A la matriz es

A no preferidos
Preferidos 1-Playa 2-Montaña 3-Ciudad
1-Playa
1 1
2-Montaña 0
1
3-Ciudad 0 0

La tabla se interpreta así: el miembro A prefiere la  playa a los otros destinos (fila 1), y prefiere la montaña a la ciudad (fila 2). En la diagonal no hay datos pues no tiene sentido preferir un destino respecto de sí mismo. Sumando las cuatro matrices obtenemos:


Totales no preferidos
Preferidos 1-Playa 2-Montaña 3-Ciudad
1-Playa
2 2
2-Montaña 2
2
3-Ciudad 2 2

Vemos que hay empate entre todos los destinos, por lo que este método no decide nada. Podríamos seguir aplicando métodos de decisión, pero no es necesario, ya que la idea era simplemente mostrar lo complicado que puede ser tomar un decisión de entre varias posibles incluso en casos tan simples como el presentado. De hecho, es mucho peor: no es que sea complicado encontrar la "mejor" solución, es que es imposible. Por ello, hablamos de indecibilidad en el sentido de imposibilidad de encontrar racionalmente la mejor opción. No obstante, las decisiones han de ser tomadas, caso contrario, ¡la familia se quedará sin vacaciones!


Creencias, Ideologías y Políticas

Siendo la toma de decisiones simples, nada simple, imaginemos que pasa con las decisiones complejas; las sociedades modernas se hacen más y más complejas a medida que se desarrollan: tenemos miles de normas, directivas, leyes, etc. y su número va creciendo; al redactar cualquiera de ellas se están tomando decisiones que afectaran a grupos de personas que quedaran sujetas a las normas. ¿Cómo se toman estas decisiones? ¿Con que criterios? Dada la imposibilidad de decidir de forma óptima, las ideologías y creencias se revelan como necesarias para poder decidir.

Una ideología viene a ser una especie de profiláctico contra la incertidumbre para un grupo social; las ideas preconcebidas y pre-aceptadas como ciertas de la ideología escogida por el grupo ayudan en buena parte a tomar las decisiones necesarias de ámbito social. Estas ideologías inspiran políticas, que aplican los representantes en la tarea de gobierno. Del mismo modo, las creencias personales tienen el mismo papel pero en el ámbito personal y familiar. Evidentemente, ninguna ideología, política o creencia es "la más correcta", debido a la indecibilidad intrínseca que hemos explicado, así que cualquier decisión tomada, por muy elaborada que sea, será siempre sólo parcialmente correcta. Desde este punto de vista es interesante observar el hecho de que, habitualmente, se olvida esta limitación intrínseca, y se defienden ideologías y creencias como si fueran las únicas correctas, produciendo enfrentamientos entre grupos e individuos que pueden ser desde dialécticos hasta extremadamente violentos (!). El diagrama siguiente intenta resumir estas ideas:
Relaciones entre individuos, grupos, sistemas de creencias e ideologías, y toma de decisiones

Toma de decisiones altruista

El egoísmo es una conducta natural heredada del instinto de supervivencia que vela por nuestro bienestar y seguridad. Ya hemos mencionado que el denominado egoísmo racional  se ha usado y sigue usando como base de la teoría económica y en la teoría política, así como en la toma de decisiones en general.

Sin embargo, vamos a hacer un experimento; retomemos el ejemplo de la familia que no sabe donde ir de vacaciones, pero esta vez los miembros no votaran egoístamente, sino pensando en la satisfacción de los demás miembros, según las siguientes reglas:

  1. cada votante intentará que nadie se vea obligado a ir de vacaciones a un destino votado en último lugar, o si no es posible, al menos que afecte al menor número posible de familiares, ignorando sus propias preferencias, pensando que lo mejor para sus familiares es también lo mejor para él, 
  2. en caso de que la regla anterior produjera empates entre destinos, entonces votará según su propio gusto.  

Se supone que cada miembro conoce las preferencias de los demás, por algo son familia. Aplicando estas reglas los votos quedan modificados de la siguiente forma (compruebe el lector que realmente se han seguido las reglas):



1-Playa 2-Montaña 3-Ciudad
A 3 2 1
B 3 2 1
C 3 1 2
D 3 2 1

Si aplicamos el principio de mayoría simple ahora tenemos un ganador claro:


mayoría simple:



1-Playa 2-Montaña 3-Ciudad
1ª opción 0 1 3
2ª opción 0 3 1
3ª opción 4 0 0

4 4 4

Si aplicamos Condorcet, obtenemos el mismo resultado:

Totales no preferidos
Preferidos 1-Playa 2-Montaña 3-Ciudad
1-Playa
0 0
2-Montaña 4
1
3-Ciudad 4 3

Por tanto vemos que en este simple ejemplo el poner a los demás por delante de uno mismo ha clarificado la decisión, así que parece que en este ejemplo es más racional proceder de forma altruista. ¿Sucederá esto en todos los casos? Creo que es difícil, o muy difícil, demostrarlo rigurosamente, queda como un problema abierto.