Historia del tiempo Stephen Hawking resumen

Historia del tiempo Stephen Hawking resumen

 

 

 

Los resúmenes, toma nota de los textos que figuran en nuestra página web se ponen a disposición de forma gratuita con fines didácticos de la ilustración, científica, social, civil y cultural a todos los posibles interesados de acuerdo con el concepto de uso justo, y con el 'objetivo de cumplimiento de la Directiva Europea 2001/29 / CE y del «arte. 70 de la ley 633/1941 sobre derechos de autor

 

 

La información médica y de la salud en este sitio es de carácter general y para propósitos informativos solamente y por lo tanto no puede en ningún caso sustituir el consejo de un médico (o un autorizado legalmente a la profesión).

 

 

 

 

Historia del tiempo Stephen Hawking resumen

 

Resumen

Historia del tiempo.Stephen W. Hawking

 

Del big bang a los agujeros negros.

 

 

AGRADECIMIENTOS

Steven Weinberg, Los tres primeros minutos del universo. Einstein. E=mc2.

INTRODUCCIÓN

Tan interesante como los contenidos de gran alcance es la visión que proporciona de los mecanismos de la mente de su autor. Hawking se embarca en una búsqueda de la respuesta a la famosa pregunta de Einstein sobre si Dios tuvo alguna posiblidad de elegir al crear el univeso. Un universo sin un borde espacial, sin principio ni final en el tiempo, y sin lugar para un creador.
Carl Sagan


Capítulo 1      NUESTRA IMAGEN DEL UNIVERSO

Aristóteles, en su libro De los Cielos estableció dos argumentos para creer que la Tierra era redonda: La sombra de la Tierra sobre la luna (en los eclipses lunares) era siempre redonda y la estrella polar aparecía más baja vista desde el sur que desde regiones más al norte. Aristóteles incluso estimó que la distancia alrededor de la Tierra era de 400.000 estadios (hacia el doble del Ecuador correcto).
Aristóteles creía que la Tierra era estacionaria. Esta idea fue ampliada por Ptolomeo en el siglo II d.C. hasta construir un modelo cosmológico completo. La  Tierra permaneció en el centro, rodeada por ocho esferas. La esfera más externa transportaba a las llamadas estrellas fijas.
Nicolás Copérnico, hacia 1514, propuso un modelo más simple. Su idea era que el sol estaba estacionario en el centro y que la Tierra y los planetas se movían en órbitas circulares a su alrededor. Casi un siglo después Kepler y Galileo empezaron a apoyar públicamente la teoría copernicana. En 1609 Galileo empezó a observar el cielo nocturno con un telescopio que acababa de inventar. El planeta Júpiter estaba acompañado por varios pequeños satélites o lunas que giraban a su alrededor. Esto implicaba que no todo tenía que girar directamente alrededor de la Tierra. Figura 1a1
Johannes Kepler había modificado la teoría de Copérnico, sugiriendo que los planetas no se movían en círculo, sino en elipses. Las predicciones se ajustaban ahora finalmente a las observaciones.
Las órbitas elípticas constituían una hipótesis bastante desagradable. Kepler no pudo reconciliarlas con su idea de que los planetas estaban concebidos para girar alrededor del Sol atraídos por fuerzas magnéticas. Hacia 1687 Isaac Newton en Pilosophíae Naturalis Principia Mathemática postuló una ley de la gravitación universal, según la cual cada cuerpo en el universo era atraído por cualquier otro cuerpo con una fuerza que era tanto mayor cuanto más masivos fueran los cuerpos y cuanto más cerca estuvieran el uno del otro.
Llegó a ser natural suponer que las estrellas fijas eran objetos como nuestro Sol pero mucho más lejanas.
Newton comprendió que las estrellas deberían atraerse unas a otras; no parecía posible que pudieran permanecer esencialmente en reposo. ¿No llegaría un determinado momento en el que todas ellas se aglutinarían?. En 1691 Newton argumentaba que esto verdaderamente sucedería si solo hubiera un número finito de estrellas; si, por el contrario, hubiera un número infinito de estrellas sobre un espacio infinito, ello no sucedería, porque no habría ningún punto central donde aglutinarse.
En un universo infinito, cada punto puede ser considerado como el centro. La aproximación correcta, es considerar primero una situación finita, en la que las estrellas tenderían a aglutinarse. Podemos añadir tantas estrellas como queramos, que a pesar de ello las estrellas originales seguirán juntándose indefinidamente. Esto nos asegura que es imposible tener un modelo estático e infinito del universo, en el que la gravedad sea siempre atractiva.
En el pensamiento anterior al siglo XX nadie había sugerido que el universo se estuviera expandiendo o contrayendo. Por el contrario, se intentó modificar la teoría, suponiendo que la fuerza gravitacional fuese repulsiva a distancias muy grandes. Hoy en día creemos que tal equilibrio sería inestable: si las estrellas en alguna región se acercaran sólo ligeramente unas a otras, una vez que empezaran a aglutinarse, lo seguirían haciendo. Por el contrario, si las estrellas empezaran a separarse tan sólo un poco, el dominio de las fuerzas repulsivas las alejarían indefinidamente.
Otra objeción a un universo estático e infinito es atribuida a Heinrich Olbers hacia 1923. En tal universo, todo el campo de nuestra visión estaría cubierto de estrellas, que podrían no verse por culpa de la materia intermedia; pero al cabo de un tiempo ésta se habría calentado tanto que brillaría a nuestros ojos como una estrella. la única manera de evitar la conclusión de que todo el cielo nocturno debería ser tan brillante como la superficie del sol sería suponer que las estrellas no han estado iluminando desde siempre, sino que se encendieron en un determinado instante pasado finito.
De acuerdo con distintas cosmologías primitivas y con la tradición judeo-cristiana-musulmana, el universo comenzó en cierto tiempo pasado finito, y no muy distante. Parecía necesaria una "Causa Primera"  (dentro del universo, uno siempre explica un acontecimiento como causado por algún otro acontecimiento anterior).
San Agustín en La ciudad de Dios señalaba que la civilización está progresando, por lo que el hombre, y quizás también el universo, no podía haber existido desde mucho tiempo atrás. De acuerdo con el libro del Génesis, aceptaba una fecha de unos 5.000 años antes de Cristo para la creación del universo (no está muy lejos del final del último período glacial, sobre el 10.000 a.C., que es cuando los arqueólogos suponen que realmente empezó la civilización.)
Aristóteles, y la mayor parte del resto de los filósofos griegos, no era partidario de la idea de la creación. Ellos creían que la raza humana y el mundo que la rodea habían existido, y existirían, por siempre. Los antiguos ya habían considerado el argumento descrito arriba acerca del progreso, y lo habían resuelto diciendo que había habido inundaciones periódicas u otros desastres que repetidamente situaban a la raza humana en el principio de la civilización.
Immanuel Kant en Crítica de la razón pura llamó a estas cuestiones antinomias de la razón pura. Si el universo no hubiera tenido un principio, habría habido un periodo de tiempo infinito anterior a cualquier acontecimiento, lo que él consideraba absurdo. Si el universo hubiera tenido un principio, habría habido un periodo de tiempo infinito anterior a él. Ambos argumentos se basan en la suposición implícita de que el tiempo continúa hacia atrás indefinidamente, tanto si el universo ha existido siempre como si no. Como veremos el concepto de tiempo no tiene significado antes del comienzo del universo. Esto ya había sido señalado en primer lugar por San Agustín. Cuando se le preguntó: ¿Qué hacía Dios antes de que creara el universo?, dijo que el tiempo era una propiedad del universo, y que el tiempo no existía con anterioridad al principio del universo.
En 1929 Edwin Hubble hizo la observación crucial de que, donde quiera que uno mire, las galaxias distantes se están alejando de nosotros. El universo se está expandiendo. Parece ser que hubo un tiempo, hace unos diez o veinte mil millones de años, en que todos los objetos estaban en el mismo lugar, y en el que la densidad del universo era infinita (big bang). Bajo tales condiciones, todas las leyes de la ciencia se desmoronarían. Si hubiera habido acontecimientos anteriores a este tiempo, no podrían afectar de ninguna manera a lo que ocurre en el presente. Uno podría decir que el tiempo tiene su origen en el big bang, en el sentido de que los tiempos anteriores simplemente no estarían definidos. En un universo inmóvil no existe la necesidad física de un principio. Si el universo se está expandiendo pueden existir poderosas razones físicas para que tenga que haber un principio. ¡Un universo de este tipo no excluye la existencia de un creador pero sí establece límites sobre cuándo éste pudo haber llevado a cabo su misión!.
Una teoría debe describir con precisión un amplio conjunto de observaciones, y debe ser capaz de predecir positivamente futuras observaciones. Cualquier teoría física es siempre provisional: nunca se puede probar. Pero si por el contrario se realiza alguna vez una nueva observación que contradiga la teoría, tendremos que abandonarla o modificarla.
En la práctica, lo que sucede es que se construye una nueva extensión de la teoría original.
El objetivo final de la ciencia es el proporcionar una única teoría que describa correctamente todo el universo. Es muy difícil construir una única teoría capaz de describir todo el universo.
Los científicos actuales describen el universo a través de dos teorías parciales fundamentales: la teoría de la relatividad general y la mecánica cuántica. Ellas constituyen el gran logro intelectual de la primera mitad de este siglo. La teoría de la relatividad general describe la fuerza de la gravedad y la estructura a gran escala del universo. La mecánica cuántica se ocupa de los fenómenos a escalas extremadamente pequeñas. Desafortunadamente estas dos teorías son inconsistentes entre sí: ambas no pueden ser correctas a la vez. Uno de los mayores esfuerzos de la física actual es la búsqueda de una teoría cuántica de la gravedad. Aún no se dispone de tal teoría, pero sí se conocen muchas de las propiedades que debe poseer. Podríamos esperar que las capacidades de razonamiento que la selección natural nos ha dado sigan siendo válidas en nuestra búsqueda de una teoría unificada completa.
Nuestra búsqueda no cesará hasta que poseamos una descripción completa del universo en que vivimos.


Capítulo 2      ESPACIO Y TIEMPO

Aristóteles decía que el estado natural de un cuerpo es estar en reposo. De ello se deducía que un cuerpo pesado debía caer más rápido que uno ligero, porque sufría una atracción mayor hacia la Tierra.
La tradición aristotélica también mantenía que se podría deducir todas la leyes que gobiernan el universo por medio del pensamiento puro: no era necesario comprobarlas por medio de la observación. Nadie antes de Galileo se preocupó de ver si los cuerpos con pesos diferentes caían con velocidades diferentes. Galileo comprobó que cada cuerpo aumentaba su velocidad al mismo ritmo, independientemente de su peso.
Las mediciones de Galileo sirvieron de base a Newton. El efecto real de una fuerza era el de cambiar la velocidad del cuerpo, en vez de simplemente ponerlo en movimiento. Siempre que sobre un cuerpo no actuara ninguna fuerza, éste se mantendría moviéndose en una línea recta con la misma velocidad. La aceleración disminuirá cuando aumente la masa (cantidad de materia) del cuerpo.
Un cuerpo que tenga doble peso sufrirá  una fuerza gravitatoria doble, pero al mismo tiempo tendrá una masa doble. De acuerdo con la segunda ley de Newton, estos dos efectos se cancelarán exactamente y la aceleración será la misma en ambos casos.
La falta de un estándar absoluto de reposo significaba que no se podía determinar si dos acontecimientos que ocurrieran en tiempo diferente, habían tenido lugar en la misma posición espacial. Por ejemplo, supongamos que en un tren, una bola de ping-pong está botando, moviéndose verticalmente hacia arriba y hacia abajo y golpeando la mesa dos veces en el mismo lugar con un intervalo de un segundo. Para un observador situado junto a la vía, los dos botes parecerán tener lugar con una separación de unos cuarenta metros, ya que el tren habrá recorrido esa distancia entre los dos botes. Así pues la no existencia de un reposo absoluto, significa que no se puede asociar una posición absoluta del espacio con un suceso.
Newton estuvo muy preocupado por esta falta de una posición absoluta, o espacio absoluto, como se le llamaba, porque no concordaba con su idea de un Dios absoluto. Rehusó aceptar la no existencia de un espacio absoluto, a pesar incluso de que estaba implicada por su propias leyes.
Tanto Aristóteles como Newton creían en el tiempo absoluto. Pensaban que se podía afirmar inequívocamente la posibilidad de medir el intervalo de tiempo entre dos sucesos sin ambigüedad, y que dicho intervalo sería el mismo para todos los que lo midieran. El tiempo estaba totalmente separado y era totalmente independiente del espacio.
El hecho de que la luz viaja a una velocidad finita, aunque muy elevada fue descubierto en 1676 por el astrónomo danés Ole Christensen Roemer. Observó que los tiempos en los que las lunas de Júpiter parecían pasar por detrás de éste no estaban regularmente espaciados.
Una verdadera teoría de la propagación de la luz no surgió hasta 1865 con James Clerk Maxwell. La teoría de Maxwell predecía que tanto las ondas de radio como las luminosas deberían viajar a una velocidad fija determinada. Las ondas de luz debían viajar a través del éter, al igual que las ondas de sonido lo hacen a través del aire. Diferentes observadores que se movieran con relación al éter verían acercarse la luz con velocidades distintas. En 1887, Albert Michelson y Edward Morley compararon la velocidad de la luz en la dirección del movimiento de la tierra, con la velocidad de la luz en la dirección perpendicular a dicho movimiento. ¡Ambas velocidades eran iguales!.
En 1905, Albert Einstein, señaló que la idea del éter era totalmente innecesaria, con tal que se estuviera dispuesto a abandonar la idea de un tiempo absoluto. Una proposición similar fue realizada por un destacado matemático francés, Henri Poincaré.
Las leyes de la ciencia deberían ser las mismas para todos los observadores en movimiento libre; ahora se extendía la idea para incluir también la teoría de Maxwell y la velocidad de la luz. Esta idea tan simple tiene algunas consecuencias extraordinarias. Quizás las más conocidas sean la equivalencia entre masa y energía, y la ley de que ningún objeto puede viajar a una velocidad mayor que la de la luz. Debido a esta  equivalencia, la energía que un objeto adquiere debido a su movimiento se añadirá a su masa incrementándola.
En otras palabras, cuanto mayor sea la velocidad de un cuerpo, más difícil será aumentar su velocidad. Este efecto sólo es realmente significativo para velocidades cercanas a la de la luz.
Sólo la luz, u otras ondas que no posean masa intrínseca pueden moverse a la velocidad de la luz.
En la teoría de Newton, si un pulso de luz es enviado de un lugar a otro, observadores diferentes estarían de acuerdo en el tiempo que duró el viaje (ya que el tiempo es un concepto absoluto), pero no siempre estarían de acuerdo en la distancia recorrida por la luz. Observadores diferentes, medirán por tanto velocidades de la luz diferentes. En relatividad, todos los observadores deben estar de acuerdo lo rápido que viaja la luz. Continuarán, no obstante sin estar de acuerdo en la distancia recorrida por la luz, por lo que ahora también deberán discrepar en el tiempo empleado. Cada observador debe tener su propia medida del tiempo, que es la que registraría un reloj que se mueve junto a él. Y relojes idénticos, moviéndose con observadores diferentes no tendrían por qué coincidir.
Cada observador podría usar un radar con el que medir el tiempo que transcurre hasta recibir el eco Figura 21XXX. Se dice que el tiempo del suceso es el tiempo medio entre el instante de emisión del pulso y el de recepción del eco. La distancia del suceso es igual a la mitad del tiempo transcurrido en el viaje completo de ida y vuelta, multiplicado por la velocidad de la luz. Ninguna medida de cualquier observador particular es más correcta que la de cualquier otro, sino que todas son equivalentes, y además están relacionadas entre sí.
Debemos aceptar que el tiempo no está completamente separado e independiente del espacio, sino que por el contrario se combina con él para formar un objeto llamado espacio-tiempo.
Un suceso se puede describir en función de cuatro números o coordenadas. Si un pulso de luz es emitido se irá extendiendo como una esfera de luz. De manera similar, la luz, al expandirse desde un suceso dado, forma un cono tridimensional en el espacio-tiempo cuatridimensional. Dicho cono se conoce como el cono de luz futuro del suceso. De la misma forma podemos dibujar otro cono, llamado el cono de luz pasado, el cual es el conjunto de sucesos, desde los que un pulso de luz es capaz de alcanzar el suceso dado.
Los conos de luz futuro y pasado de un suceso P dividen al espacio tiempo en tres regiones:
- El futuro absoluto. Es el conjunto de todos los sucesos que pueden en principio ser afectados por lo que sucede en P. Sucesos fuera del cono de luz de P no pueden ser alcanzados por señales provenientes de P.
- El pasado absoluto de P. Conjunto de todos los sucesos cuyas señales pueden alcanzar P
- El "resto". Fuera del futuro y del pasado.
Por ejemplo, si el Sol cesara de alumbrar en este mismo instante, ello no afectaría a las cosas de la tierra en el tiempo presente por estar en la región del resto del suceso de apagarse el Sol.
Si se ignoran los efectos gravitatorios, tal y como Eisntein y Poincaré hicieron en 1.905, uno tiene lo que se llama la teoría de la relatividad especial.
Sin embargo, la teoría era inconsistente con la teoría de la gravitación de Newton, que decía que los objetos se atraían mutuamente con una fuerza dependiente de la distancia entre ellos. Los efectos gravitatorios deberían viajar con una velocidad infinita, en vez de con una velocidad igual o menor que la de la luz, como la teoría de la relatividad especial requería. Einstein, en 1.915, propuso lo que hoy en día se conoce como teoría de la relatividad general. Hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo no sea plano, como previamente se había supuesto: el espacio-tiempo está curvado, o "deformado", por la distribución de masa y energía en él presente. Los cuerpos siguen la trayectoria más parecida a una línea recta en un espacio curvo, es decir, lo que se conoce como una geodésica. En relatividad general, los cuerpos siguen siempre líneas rectas, en el espacio-tiempo cuatridimensional; sin embargo, nos parece que se mueven a lo largo de trayectorias curvadas a lo largo de nuestro espacio tridimensional. (Es como ver la sombra de un avión volando sobre un terreno montañoso.
Mercurio sufre los efectos gravitatorios más fuertes, la relatividad general predice que el eje mayor de su elipse debería rotar alrededor del sol a un ritmo de un grado cada 10.000 años. Este efecto ya había sido observado antes de 1.915 y sirvió como una de las primeras confirmaciones de la teoría de Einstein.
La relatividad general predice que la luz debería ser desviada por los campos gravitatorios. La teoría predice que los conos de luz de puntos cercanos al Sol estarán torcidos hacia adentro, debido a la presencia de la mas del Sol. La luz de una estrella distante, al pasar cerca del Sol, será desviada un pequeño ángulo. Es posible observarlo así durante un eclipse solar.
Otra predicción de la relatividad general es que el tiempo debería transcurrir más lentamente cerca de un cuerpo de gran masa. Cuando la luz viaja hacia arriba en el campo gravitatorio terrestre, pierde energía, y por lo tanto, su frecuencia disminuye. A alguien situado arriba le parecería que todo lo que pasara abajo, en la Tierra, transcurriría más lentamente. Esta predicción fue comprobada en 1.962.
Antes de 1.915 se pensaba en el espacio y en el tiempo como si se tratara de un marco fijo en el que los acontecimientos tenían lugar, pero que no estaba afectado por lo que en él sucediera. En relatividad general no tiene sentido hablar del espacio y del tiempo fuera de los límites del universo. La idea de un universo esencialmente inalterable, había dado paso al concepto de un universo dinámico, en expansión, que parecía haber comenzado hace cierto tiempo finito, y que podría acabar en un tiempo finito en el futuro. Roger Penrose y yo mostramos cómo la teoría de la relatividad general de Einstein implicaba que el universo debía tener un principio y, posiblemente, un final.


Capítulo 3      EL UNIVERSO EN EXPANSIÓN

Algunas de las estrellas, llamadas fijas, cambian muy ligeramente sus posiciones con respecto a las otras cuando la Tierra gira alrededor del Sol. Esto se debe a que están relativamente cerca de nosotros. Ya en 1750 algunos astrónomos empezaron a sugerir que la Vía Láctea podría ser explicada por el hecho de que la mayor parte de las estrellas visibles estuvieran en una única configuración en forma de disco, un ejemplo de lo que hoy llamaríamos una galaxia espiral. Sólo unas décadas después, William Herschel confirmó esta idea.
En 1924 Edwin Hubble demostró que nuestra galaxia no era la única. Había de hecho muchas otras, con amplias regiones de espacio vacío entre ellas. Hubble advirtió que ciertos tipos de estrellas tienen siempre la misma luminosidad. Midiendo el brillo aparente de estrellas de este tipo, localizadas en otras galaxias, Hubble calculó las distancias a nueve galaxias diferentes. Vivimos en una galaxia que tiene un diámetro aproximado de cien mil años luz, y que está girando lentamente. Nuestro Sol está situado cerca del centro de uno de los brazos de la espiral.
Las estrellas están tan lejos de la Tierra que nos parecen simples puntos luminosos. La luz emitida por un objeto opaco incandescente tiene un aspecto característico que sólo depende de su temperatura. Podemos averiguar la temperatura de una estrella a partir de su espectro luminoso. Cada elemento químico absorbe un conjunto característico de colores muy específicos. Por ello se puede determinar exactamente qué elementos hay en la atmósfera de una estrella comparando los conjuntos de colores ausentes de cada elemento con el espectro de la estrella.
Al estudiar los espectros de estrellas de otras galaxias, encontramos un hecho peculiar: son análogos a los de estrellas cercanas, pero globalmente desplazados hacia el extremos del espectro correspondiente al color rojo. Sabemos, por otro lado, que si una fuente luminosa se aleja de nosotros, la frecuencia de las ondas que recibimos será menor que en el supuesto de una fuente estacionaria (Efecto Doppler, análogamente observable para los ondas sonoras).
Hubble publicó en 1929 que ni siquiera el corrimiento de las galaxias hacia el rojo es aleatorio, sino que es directamente proporcional a la distancia que nos separa de ellas. La distancia entre las diferentes galaxias está aumentando continuamente.
El universo se expande. Si se estuviera expandiendo muy lentamente, la fuerza de la gravedad frenaría finalmente la expansión y aquél comenzaría entonces a contraerse. Si se expandiera más deprisa, continuaría expandiéndose por siempre.
Friedmann hizo dos suposiciones muy simples sobre el universo: que el universo parece el mismo desde cualquier dirección desde la que se le observe, y que ello también sería cierto si se le observara desde cualquier otro lugar.
En 1965, dos físicos norteamericanos de los laboratorios de la Bell Telephone en Nueva Jersey, Arno Penzias y Robert Wisson, estaban probando un detector de microondas extremadamente sensible. Su detector captaba más ruido del que esperaban. El ruido extra era el mismo para cualquier dirección desde la que se observara, el ruido nunca varía más de una parte en diez mil.
Dicke y Peebles argumentaron que aún deberíamos ser capaces de ver el resplandor de los inicios del universo, porque la luz proveniente de lugares muy distantes estaría alcanzándonos ahora. Sin embargo, la expansión del universo implicaría que esta luz debería estar tan tremendamente desplazada hacia el rojo que nos llegaría hoy en día como radiación de microondas.
Existen en realidad tres tipos de modelos que obedecen a las dos suposiciones de Friedmann Figuras 3.2, 3.2 y 3.4. En el primer tipo la expansión acabaría frenándose hasta provocar el colapso. En el segundo la expansión no se invertiría nunca. Existe por último un tercer tipo de solución, en la que el universo se está expandiendo con la velocidad justa para evitar colapsarse. La velocidad con la que las galaxias se están separando se hace cada vez más pequeña, aunque nunca llega a ser nula.
En el primer tipo de modelos de Friedmann el espacio está curvado sobre sí mismo, al igual que la superficie de la Tierra. En el segundo tipo de modelo, el espacio está curvado al contrario, es decir, como la superficie de una silla de montar. Este caso, el espacio es infinito. En el tercer tipo el espacio no está curvado, (y por tanto también es infinito).
Necesitaríamos conocer el ritmo actual de expansión y la densidad media presente en el universo. El universo se expande entre un cinco y un diez por 10 cada mil millones de años. Cuando sumamos toda la materia oscura de las galaxias, y la existente entre los racimos de galaxias, obtenemos tan sólo la décima parte, aproximadamente, de la cantidad requerida par detener la expansión.
Todas las soluciones de Friedmann comparten el hecho de que en algún tiempo pasado (entre diez y veinte mil millones de años) la distancia entre galaxias vecinas debe haber sido cero. En aquel instante, que llamamos big bang, la densidad del universo y la curvatura del espacio-tiempo habrían sido infinitas. La teoría de la relatividad colapsa en lo que los matemáticos llaman una singularidad. Los sucesos anteriores al big bang no pueden tener consecuencias, por lo que no deberían formar parte de los modelos científicos del universo.
Evgeni Lifshitz e Isaac Khalatnikov, en 1963 sugirieron que cuando el universo se colapsó, las partículas que lo formaran podrían no haber colisionado todas entre sí, sino que se habrían entrecuzado y separado después, produciendo la expansión actual del universo. Retiraron su afirmación en 1970.
Roger Penrose demostró que una estrella que se colapsa bajo su propia gravedad está atrapada en una región cuya superficie se reduce con el tiempo a tamaño cero, en otras palabras, una singularidad contenida dentro de una región del espacio-tiempo llamada agujero negro.
El mismo argumento con el tiempo invertido demostró que cualquier universo en expansión, del tipo de Friedmann, debe haber comenzado en una singularidad.
Entre Penrose y yo, en 1970 probamos que debe haber habido una singularidad como la del big bang, con la única condición de que la relatividad general sea correcta y que el universo contenga tanta materia como observamos.
Como veremos más adelante, esta singularidad puede desaparecer una vez que los efectos cuánticos se tienen en cuenta.
La relatividad general sólo pretende ser una teoría parcial, de forma que lo que el teorema de la singularidad realmente muestra es que debió haber habido un tiempo, muy al principio del universo, en que éste era tan pequeño que ya no se pueden ignorar los efectos de pequeña escala de la otra gran teoría parcial del siglo XX, la mecánica cuántica.


Capítulo 4      EL PRINCIPIO DE INCERTIDUMBRE

La doctrina del determinismo científico fue ampliamente criticada por diversos sectores, que pensaban que infringía la libertad divina de intervenir en el mundo, pero, a pesar de ello, constituyó el paradigma de la ciencia hasta los primeros años de nuestro siglo.
De acuerdo con las leyes en las que se creía en aquel tiempo, un cuerpo caliente tendría que emitir ondas electromagnéticas con igual intensidad a todas las frecuencias. Dado que el número de ciclos por segundo es ilimitado, esto significaría entonces que la energía total irradiada sería infinita.
Planck sugirió en 1900 que la luz, los rayos X y otros tipos de ondas no podían ser emitidos en cantidades arbitrarias, sino sólo en ciertos paquetes que él llamó "cuantos". Cada uno de ellos poseía una cierta energía que era tanto mayor cuanto más alta fuera la frecuencia de las ondas, de tal forma que, para frecuencias suficientemente altas, la emisión de un único cuanto requeriría más energía que la que se podría obtener.
En 1926 Werner Heisenberg formuló su famoso principio de incertidumbre. Para poder predecir la posición y velocidad futuras de una partícula, hay que ser capaces de medir con precisión su posición y velocidad actuales. El modo obvio de hacerlo es iluminando con luz la partícula. Sin embargo, uno no podrá ser capaz de determinar la posición de la partícula con mayor precisión que la distancia entre dos crestas consecutivas de la onda luminosa, por lo que se utilizará luz de muy corta longitud, y, por tanto muy alta frecuencia. Pero, según la hipótesis de Planck, no se puede emitir una cantidad arbitrariamente pequeña de luz: se tiene que usar como mínimo un cuanto de luz. Este cuanto perturbará la partícula, cambiando su velocidad en una cantidad que no puede ser predicha. Además, cuanto con mayor precisión se mida la posición, menor habrá de ser la longitud de onda de la luz que se necesite y, por lo tanto, mayor será la energía del cuanto que se haya de usar. Así, la velocidad de la partícula resultará fuertemente perturbada. En otras palabras, cuanto con mayor precisión se trate de medir la posición de la partícula, con menor exactitud se podrá medir su velocidad, y viceversa. La incertidumbre nunca podrá ser más pequeña que una cierta cantidad, que se conoce como constante de Planck. El principio de incertidumbre de Heisenberg es una propiedad fundamental, ineludible, del mundo.
El principio de incertidumbre tiene profundas implicaciones sobre el modo que tenemos de ver el mundo. Marcó el final del sueño determinista. Parece mejor, en general, emplear el principio de economía conocido como "cuchilla de Occam" y eliminar todos los elementos de la teoría que no pueden ser observados. Esta aproximación llevó en 1920 a Heisenberg, Erwin Schrodinger y Paul Dirac a reformular la mecánica con una nueva teoría llamada mecánica cuántica, basada en el principio de incertidumbre. En esta teoría las partículas ya no poseen posiciones y velocidades definidas por separado, pues estas no podrían ser observadas. En vez de ello, las partículas tienen un estado cuántico, que es una combinación de posición y velocidad.
La mecánica cuántica no predice un  único resultado de cada observación. En su lugar, predice un cierto número de resultados posibles y nos da las probabilidades de cada  uno de ellos. Así pues, la mecánica cuántica  introduce una aleatoriedad en la ciencia. Einstein recibió el premio Nobel por su contribución  a la teoría cuántica. No obstante, Einstein nunca aceptó que el universo estuviera gobernado por el azar ("Dios no juega a  los dados"). Sin embargo, en ella se basa casi toda  la ciencia y la tecnología modernas. Las únicas  áreas de las  ciencias en las que la mecánica cuántica aún no ha sido adecuadamente incorporada son las de la gravedad y la estructura a gran escala del universo.
Existe una dualidad entre ondas y partículas en la mecánica cuántica: para algunos fines es útil pensar en las partículas como ondas, mientras que para otros es mejor pensar en las ondas como partículas. Los fenómenos de interferencia, refuerzo y cancelación de ondas, observables por ejemplo al pasar éstas por dos rendijas y chocar posteriormente con una pared Figura 4.2XXX. Las ondas provenientes de las dos rendijas no estarán en fase al llegar a la pantalla. En algunos lugares se cancelarán, y en otros se reforzarán mutuamente. El resultado es un característico diagrama de franjas luminosas y oscuras.
Lo más notable es que se obtiene exactamente el mismo tipo de franjas si se reemplaza la fuente luminosa por una fuente de partículas, tales como electrones, con la misma velocidad ( lo que significa que las ondas correspondientes poseen una única longitud de onda). Si sólo se tiene una rendija, no se obtiene franjas. Cabría pensar, por tanto, que la apertura de la otra  rendija simplemente aumentaría el número de electrones que chocan en la pantalla, pero debido a la interferencia, este número realmente disminuye en algunos lugares. En la realidad, aunque los electrones se envíen de uno en uno, las franjas siguen apareciendo. Así pues ¿cada electrón debe pasar a través de las dos rendijas al mismo tiempo!.
Al principio de este siglo se creyó que los átomos eran bastante parecidos a los planetas girando alrededor del Sol. Las leyes de la mecánica y la electricidad predecían, antes de que existiera la mecánica cuántica , que los electrones perderían energía y caerían girando en espiral, hasta que colisionaran con el núcleo. Niels Bohr, en 1913, sugirió que quizás los electrones no eran capaces de girar a cualquier distancia del núcleo central, sino sólo a ciertas distancias específicas. Si también se supusiera que sólo uno o dos electrones podían orbitar a cada una de estas distancias, se resolvería el problema del colapso del átomo.
Existirían ciertas órbitas cuya longitud correspondería a un número entero (es decir, un número no fraccionario) de longitudes de onda del electrón. Para estas órbitas las crestas de las ondas estarían en la misma posición en cada giro, de manera que las ondas se sumarían: estas órbitas corresponderían a las órbitas permitidas de Bohr.
Un modo interesante de visualizar la dualidad onda-partícula es a través del método conocido como suma sobre historias posibles, inventado por el científico norteamericano Richard Feynman. En esta aproximación, la partícula se supone que no sigue una única historia o  camino en el espacio-tiempo, como haría una teoría clásica, en el sentido de no cuántica. En vez de esto, se supone que la partícula va de A a B a través de todos los caminos posibles. A cada camino se le asocia un par de números: uno representa el tamaño de una onda, y el otro representa la posición en el ciclo.
La mecánica cuántica nos permite, en principio, predecir casi todos los fenómenos a nuestro alrededor, dentro de los límites impuestos por el principio de incertidumbre. (En la práctica los calculos son tan  complicados que no pueden realizarse.)
La teoría de la relatividad general de Einstein parece gobernar la estructura a gran escala del universo. No tiene en cuenta el principio de incertidumbre de la mecánica cuántica. Los campos gravitatorios que habitualmente experimentamos son muy débiles. El campo gravitatorio deberá ser muy intenso en, como mínimo dos situaciones: los agujeros negros y el big bang. En campos así de intensos, los  efectos de la mecánica cuántica tendrán que ser importantes. Así, en cierto sentido, la relatividad general clásica, al predecir puntos de densidad infinita, predice su propia caída, igual que la mecánica clásica predijo su caída al sugerir que los átomos deberían colapsarse hasta alcanzar una densidad infinita.


Capítulo 5      LAS PARTÍCULAS ELEMENTALES Y LAS FUERZAS DE LA NATURALEZA

Aristóteles creía que la materia era continua. Demócrito sostenía que la materia era inherentemente granular y que todas las cosas  estaban compuestas por átomos. En 1803. John Dalton señaló que el hecho de que los compuestos químicos siempre se combinaran en ciertas proporciones podía ser explicado mediante el agrupamiento de átomos para formar otras unidades llamadas moléculas. Einstein en 1905 señaló cómo el movimiento browniano podía ser explicado por el efecto de las colisiones de los átomos del líquido con las partículas de polvo.
En 1911 Rutherford mostró que los átomos de la materia tienen verdaderamente una estructura interna: están formados por un núcleo extremadamente pequeño y con carga positiva, alrededor del cual gira un cierto número de electrones. Dedujo esto analizando el modo en que las partículas alfa, que son partículas con carga positiva emitidas por átomos radioactivos, son desviadas al colisionar con los átomos.
Hasta hace veinte años se creía que los protones y los neutrones eran partículas elementales, pero en realidad estaban formados por partículas más pequeñas. Estas partículas fueron denominadas quarks. Existe un cierto número de variedades de quarks: Se cree que hay como mínimo seis flavors ['sabores'], que llamamos up, down, strange, charmed, bottom, y top ['arriba', 'abajo', 'extraño', 'encanto', 'fondo' y 'cima']. Cada flavor puede tener uno de los tres posibles "colores", rojo, verde y azul. Un protón contiene dos quark up y un quark down; un neutrón contiene dos down y uno up. Se pueden crear partículas constituidas por los otros quarks (strange, charmed, bottom, y top), pero todas ellas poseen una masa mucho mayor y decaen muy rápidamente en protones y neutrones.
En el experimento de Rutherford, las partículas alfa tenían energías de millones de electrón-voltios. ¿Pueden las partículas elementales,  conforme obtenemos energías mayores, estar formadas por partículas aún más pequeñas?.
Usando la dualidad onda-partículas, todo en el universo, incluyendo la luz y la gravedad, puede ser descrito en términos de partículas. Estas partículas tienen una propiedad llamada espín. Lo que nos dice realmente el espín de una partícula es cómo se muestra la partícula desde distintas direcciones. Una partícula de espín 0 es como un punto: parece la misma  desde todas las direcciones. Una partícula de espín 1 es como una flecha: sólo si se la gira una vuelta completa la partícula parece la misma. Una partícula de espín 2 es como una flecha con dos cabezas: parece la misma si se gira media vuelta. Partículas de espines más altos parecen las mismas si son giradas una fracción más pequeña de una vuelta completa. Existen partículas que no parecen las mismas si se las gira justo una vuelta: hay que girarlas dos vueltas completas. Se dice que tales partículas poseen espín 1/2 Figura 5.1.
Todas las partículas conocidas del universo se pueden dividir en dos grupos: partículas de espín 1/2, las cuales forman la materia del universo, y partículas de espín 0,1 y 2, las cuales, dan lugar a las fuerzas entre las partículas materiales. Las partículas materiales obedecen el principio de exclusión de Pauli, enunciado en 1925: Dos partículas similares no pueden existir en el mismo estado, es decir, que no pueden tener ambas la misma posición y la misma velocidad, dentro de los límites fijados por el principio de incertidumbre. El principio de exclusión explica por qué las partículas materiales no colapsan a un estado de muy alta densidad.
Un entendimiento adecuado del electrón y de las otras partículas de espín 1/2 no llegó hasta 1928 gracias a Paul Dirac. La teoría de Dirac fue la primera que era a la vez consistente con la mecánica cuántica y con la teoría de la relatividad especial. Explicó matemáticamente por qué el electrón tenía espín 1/2. También predijo que el electrón debería tener una pareja: el antielectrón o positrón. Hoy en día sabemos que cada partícula tiene su antipartícula, con la que puede aniquilarse. (En el caso de partículas portadoras de fuerzas, las antipartículas son las partículas mismas). La cuestión de por qué parece haber muchas más partículas que antipartículas a nuestro alrededor es extremadamente importante.
Las partículas portadoras de fuerza no obedecen el principio de exclusión.  Las partículas portadoras de fuerza que se intercambian entre sí las partículas materiales son partículas virtuales porque, al contrario que las partículas "reales", no pueden ser descubiertas directamente por un detector de partículas.
Las partículas portadoras de fuerza se pueden agrupar en cuatro categorías. La primera categoría es la fuerza gravitatoria. Toda partícula la experimenta de acuerdo con su masa o energía. La gravedad es la más débil, con diferencia, de las cuatro fuerzas. Puede actuar a grandes distancias y es siempre atractiva. Desde el punto de vista mecánico-cuántico la fuerza entre dos partículas materiales se representa trasmitida por una partícula de espín 2 llamada gravitón, que no posee masa propia.
La segunda categoría es la fuerza electromagnética, que interactúa con las partículas cargadas. Es un 1 con 42 ceros de veces mayor que la fuerza gravitatoria. La atracción electromagnética se representa causada por el intercambio de un gran número de partículas virtuales sin masa de espín 1, llamadas fotones. Los fotones que son intercambiados son partículas virtuales. No obstante, cuando un electrón cambia de una órbita permitida a otra más cercana al núcleo, se libera energía, emitiéndose un fotón real, que puede ser observado por el ojo o una película fotográfica. Si un fotón real colisiona con un átomo puede cambiar a un electrón a una órbita más cercana al núcleo. Este proceso consume la energía del fotón, por tanto lo absorbe.
La tercera categoría es la llamada fuerza nuclear débil, que es la responsable de la radioactividad y que actúa sobre todas las partículas materiales de espín 1/2, pero no sobre las partículas de espín 0, 1 ó 2, tales como fotones y gravitones. Abdus Salam y Steven Weinberg, propusieron una teoría que unificaba esta interacción con la fuerza electromagnética, de la misma manera que Maxwell había unificado la electricidad y el magnetismo unos cien años antes. Sugirieron que además del fotón había otras tres partículas de espín 1, conocidos colectivamente como bosones vectoriales masivos, W+, W‑ y Z0, que trasmiten la fuerza débil; cada una posee una masa de  unos 100 GeV. La teoría propone una propiedad conocida  como ruptura de simetría espontánea. A bajas energías parece ser que un cierto número de partículas totalmente diferentes es, en realidad, el mismo tipo de partícula, solo que en estados diferentes. A energías mucho mayores de 100 GeV, las tres nuevas partículas y el fotón se comportarían todas de una manera similar. Pero a energías más bajas, que se dan en la mayoría de las situaciones normales, esta simetría entre las partículas se rompería. W+, W‑ y Z0 adquirirían grandes masas, haciendo que la fuerza que trasmiten fuera de muy corto alcance.
La cuarta categoría de fuerza es la interacción nuclear fuerte, que mantiene a los quarks unidos en el protón y el neutrón, y a los protones y neutrones juntos en los núcleos de los átomos. Se cree que esta fuerza es trasmitida por otra partícula de espín 1, llamada gluón, que sólo interactúa consigo misma y con los quarks.  La interacción nuclear posee una curiosa propiedad llamada confinamiento: siempre liga a la partículas en combinaciones tales que el conjunto total no tiene color. No se puede tener un único quark aislado porque tendría un color.
Por el contrario, un quark rojo tiene que juntarse con un quark verde y uno azul por medio de una "cuerda" de gluones. Un triplete así, constituye un protón o un neutrón. Otra posibilidad es un par consistente en un quark y un antiquark  (rojo + antirrojo, o verde + antiverde, o azul + antiazul = blanco). Tales combinaciones forman las partículas conocidas como mesones, que son inestables porque el quark y el antiquark se pueden aniquilar entre sí, produciendo electrones y otras partículas. Similarmente el confinamiento impide que se tengan gluones aislados, porque los gluones en sí también tienen color. Una colección de gluones cuyos colores se sumen para dar el blanco forman una partícula inestable llamada bola de gluones.
Sin embargo a altas energías la interacción fuerte se hace mucho menos intensa, y los quarks y los gluones se comportan casi como partículas libres.
El éxito de la unificación de las fuerzas electromagnéticas y nucleares débiles produjo un cierto número de intentos de combinar estas dos fuerzas con la interacción nuclear fuerte, en lo que se ha dado en llamar teorías de la gran unificación (TGU). A determinada energía muy alta, llamada energía de la gran unificación, estas tres fuerzas deberían tener todas la misma intensidad y sólo ser, por tanto, aspectos diferentes de una misma fuerza. Las diferentes partículas materiales de espín 1/2 como los quarks y los electrones, también serían esencialmente iguales y se conseguiría así otra unificación.
El valor de la energía de la gran unificación no se conoce demasiado bien, pero probablemente tendría que ser como mínimo de mil billones de GeV. Así pues, es imcomprobable. A pesar de ello, existen consecuencias a baja energía de la teoría que sí pueden ser comprobadas.
La más interesante de ellas es la predicción de que los protones pueden decaer espontáneamente en partículas más ligeras, tales como antielectrones. La probabilidad de que esto le ocurra espontáneamente a determinado protón es mínima, pero se pueden aumentar las probabilidades de detectar una desintegración observando gran cantidad de materia. Ninguno de los experimentos llevados a cabo han producido una evidencia definitiva sobre el decaimiento del protón o del neutrón.
Puede ser que nuestra propia existencia sea una consecuencia del proceso inverso, la producción de protones, o simplemente de quarks, a partir de una situación inicial en la que no hubiese más que quarks y antiquarks, que es la manera más natural de imaginar que empezó el universo.
Si hubiera extensas regiones de antimateria en nuestra galaxia, esperaríamos observar grandes cantidades de radiación proveniente de los límites entre las regiones de materia y antimateria, en donde muchas partículas colisionarían con sus antipartículas, y se aniquilarían entre sí, desprendiendo radiación de alta energía.
Parece inverosímil que algunas galaxias fueran de materia y otras de antimateria. ¿Por qué debería haber tantísimos más quarks que antiquarks?. Las leyes de la física no son exactamente las mismas para partículas que para antipartículas.
Hasta 1956 se creía que las leyes de la física poseían tres simetrías independientes llamadas C, P y T. La simetría C significa que las leyes son las mismas para partículas y para antipartículas. La simetría P implica que las leyes son las mismas para una situación cualquiera y para su imagen especular. La simetría T significa que si se invierte la dirección del movimiento de todas las partículas y antipartículas, el sistema volvería a ser igual a como fue antes: en otras palabras, las leyes son las mismas en las direcciones hacia adelante y hacia atrás del tiempo.
Tsung-Dao Lee y Chen Ning Yang sugirieron que la fuerza débil no posee de hecho la simetría P. Se encontró también que la fuerza débil no poseía la simetría C. Sin embargo parecía que la fuerza débil sí poseía la simetría combinada CP. Sin embargo, en 1964 Cronin y Val Fitch descubrieron que ni siquiera la simetría CP se conservaba en la desintegración de ciertas partículas llamadas mesones‑K.
Existe un teorema matemático según el cual cualquier teoría que obedezca a la mecánica cuántica y a la relatividad debe siempre poseer la simetría combinada CPT. Pero Cronin y Fitch probaron que si se reemplazaban las partículas por antipartículas y se tomaba la imagen especular, pero no se invertía la dirección del tiempo entonces el universo no se comportaría igual. Las leyes de la física tienen que cambiar, por lo tanto, si se invierte la dirección del tiempo: no poseen la simetría T.
Podría ocurrir que, conforme el universo se expande, estas fuerzas convirtieran más antielectrones en quarks que electrones en antiquarks.
Las teorías de gran unificación no incluyen a la fuerza de la gravedad. Lo cual no importa demasiado porque la gravedad es tan débil que sus efectos pueden normalmente ser despreciados cuando estudiamos partículas o átomos.  Sin embargo el hecho de que sea algo a la vez de largo alcance y siempre atractiva significa que sus efectos se suman. Así, para un número de partículas materiales suficientemente grande, las fuerzas gravitatorias pueden dominar sobre todas las demás. Por ello la gravedad determina la evolución del universo. Incluso para objetos del tamaño de una estrella, la fuerza atractiva de la gravedad puede dominar sobre el resto de las fuerzas y hacer que la estrella se colapse. Mi trabajo en los años 70 sobre los agujeros negros nos condujo a vislumbrar la forma que tendría una venidera teoría cuántica de la gravedad.


Capítulo 6      LOS AGUJ.EROS NEGROS

El término agujero negro fue acuñado en 1969 por John Wheeler como la descripción gráfica de una idea que se remonta hacia atrás un mínimo de doscientos años, a una época en que había dos teorías sobre la luz: una, preferida por Newton, que suponía que la luz estaba compuesta por partículas, y la otra que asumía que estaba formada por ondas. Debido a la dualidad onda/corpúsculo de la mecánica cuántica, la luz puede ser considerada como una onda y como una partícula.
John Michell escribió en 1783 que una estrella que fuera lo suficientemente masiva y compacta tendría un campo gravitatorio tan intenso que la luz no podría escapar. Una sugerencia similar fue realizada unos años después por Laplace en la primera edición de su El sistema del mundo. Con la teoría ondulatoria, que se imponía, no estaba claro si la luz sería afectada por la gravedad.
No es realmente consistente tratar la luz como las balas en la teoría de la gravedad de Newton, porque la velocidad de la luz es fija.
Recordemos el ciclo vital de una estrella. Una estrella se forma cuando una gran cantidad de gas, principalmente hidrógeno, comienza a colapsar sobre sí mismo debido a su atracción gravitatoria. Conforme se contrae, sus átomos comienzan a chocar. Con el tiempo el gas estará tan caliente que cuando los átomos de hidrógeno choquen ya no saldrán rebotados, sino que se fundirán formando helio. El calor resultante expandirá los átomos equilibrando la acción gravitatoria en un cierto tamaño, que permanecerá aproximadamente constante durante mucho tiempo. Finalmente la estrella consumirá todo su hidrógeno y los otros combustibles nucleares. Paradójicamente, cuanto más combustible posee una estrella al principio, más pronto se le acaba, pues mientras más caliente esté, más rápidamente utilizará su combustible. Nuestro Sol tiene probablemente suficiente combustible para otros cinco mil millones de años aproximadamente, pero estrellas más masivas pueden gastar todo su combustible en tan sólo cien millones de años. Cuando una estrella se queda sin combustible empieza a enfriarse y por lo tanto a contraerse. Lo que puede sucederle a partir de ese momento sólo empezó a entenderse al final de la década de 1920.
Subrahmanyan Chandrasekhar, en 1918 propuso que cuando la estrella se reduce en tamaño, las partículas materiales están muy cerca unas de otras, y así, de acuerdo con el principio de exclusión de Pauli, tienen que tener velocidades muy diferentes. Esto hace que se alejen unas de otras, lo que tiende a expandir a la estrella. Esta puede mantenerse con un radio constante, debido a un equilibrio entre la atracción de la gravedad y la repulsión que surge del principio de exclusión, de la misma manera que antes la gravedad era compensada por el calor.
Sin embargo, existe un límite a la repulsión que el principio de exclusión puede proporcionar. La teoría de la relatividad limita la diferencia máxima entre las velocidades de las partículas materiales de la estrella a la velocidad de la luz. Esto significa que cuando la estrella fuera suficientemente densa, la repulsión debida al principio de exclusión sería menor que la atracción de la gravedad. Chandrasekhar calculó que una estrella fría de más de aproximadamente una vez y media la masa del Sol no sería capaz de soportar su propia gravedad. (A esta masa se la conoce hoy en día como el límite de Chandrasekhar).
Si una estrella posee una masa menor que el límite de Chandrasekhar, puede finalmente cesar de contraerse y estabilizarse en un posible estado final, como una estrella enana blanca, con un radio de unos pocos miles de kilómetros y una densidad de decenas de toneladas por centímetro cúbico. Landau señaló que existía otro posible estado final para una estrella, también con una masa límite de una o dos veces la masa del Sol, pero mucho más pequeña incluso que una enana blanca. Estas estrellas se mantendrían gracias a la repulsión debida al principio de exclusión entre neutrones y protones, en vez de entre electrones. Se les llamó por eso estrellas de neutrones. Tendrían un radio de unos quince kilómetros, y una densidad de decenas de millones de toneladas por centímetro cúbico. En la época en que fueron predichas, no había forma de poder observarlas.
Estrellas con masas superiores al límite de Chandrasekhar tienen, por el contrario un gran problema cuando se les acabe el combustible. En algunos casos consiguen explotar, o se las arreglan para desprenderse de la suficiente materia como para reducir su peso por debajo del límite; pero es difícil pensar que esto ocurra siempre. Einstein y la mayoría de los científicos pensaron que simplemente era imposible que una estrella pudiera colapsarse y convertirse en un punto.
Hacia 1939 Einstein, en un trabajo relativamente olvidado a raíz de la segunda guerra nuclear, sugirió que el campo gravitatorio de la estrella cambia los caminos de los rayos de luz en el espacio-tiempo, respecto a los que hubieran sido si la estrella no hubiera estado presente. Los conos de luz se inclinan ligeramente hacia adentro cerca de la superficie de la estrella. Esto hace más difícil que la luz escape, y la luz se muestra más débil y más roja para un observador lejano. Finalmente, cuando la estrella se ha reducido hasta un radio crítico, el campo gravitatorio llega a ser tan intenso, que los conos de luz se inclinan tanto hacia adentro que la luz ya no puede escapar. Tampoco lo puede hacer ningún otro objeto. Por lo tanto, se tiene un conjunto de sucesos, una región del espacio-tiempo, desde donde no se puede escapar y alcanzar a un observador lejano. Esta región es lo que hoy en día llamamos un agujero negro. Su frontera se denomina el horizonte de sucesos y coincide con los caminos de los rayos luminosos que están justo a punto de escapar del agujero negro, pero no lo consiguen. Señales periódicas emitidas desde una estrella que estuviera a punto de alcanzar el radio crítico, serían detectadas por un observador lejano, con un intervalo cada vez mayor, a la par que la luz de la estrella llegaría cada vez más débil y más roja, hasta la señal emitida justo en el momento en que la estrella redujese su radio por debajo del crítico, que se haría esperar eternamente.
En 1965, Penrose y yo demostramos que de acuerdo con la relatividad general, debe haber una singularidad de densidad y curvatura del espacio-tiempo infinitas dentro de un agujero negro. Las leyes de la ciencia fallarían totalmente. Penrose propuso la hipótesis de la censura cósmica. Las singularidades están ocultas por medio de un horizonte de sucesos. Protege a los observadores de la crisis de predicción que ocurre en la singularidad.
Existen algunas soluciones de las ecuaciones de la relatividad general en las que le es posible a un observador ver una singularidad desnuda, pero evitar chocar con ella, y en vez de esto, caer en un agujero de gusano, para salir en otra región del universo. Estas soluciones son altamente inestables, como para que un observador no las perturbe. Por lo tanto para tal observador la singularidad estaría siempre en su futuro, y nunca en su pasado. La versión fuerte de la censura cósmica nos dice que las singularidades siempre estarían, bien enteramente en el futuro, como las singularidades de colapsos gravitatorios, o bien enteramente en el pasado, como el big bang.
El horizonte de sucesos actúa como una membrana unidireccional. Cualquier cosa o persona que cae a través del horizonte de sucesos pronto alcanzará la región de densidad infinita y el final del tiempo.
Se podría suponer que la evolución del agujero, dependerá de su estructura interna y los complicados movimientos de gases en su interior. Si los agujeros negros fueran tan complicados como los objetos que se colapsaron para formarlos, podría ser difícil predecir algo sobre su comportamiento.
En 1967 Werner Israel revolucionó el panorama demostrando que los agujeros negros sin rotación deberían ser muy simples; eran perfectamente esféricos, su tamaño sólo dependía de su masa, y dos agujeros negros cualesquiera con la misma masa serían idénticos.
En 1963 Kerr había encontrado un conjunto de soluciones a las ecuaciones de la relatividad general que describían agujeros negros en rotación. Estos giran a un ritmo constante, y su tamaño y forma sólo dependen de su masa y de su velocidad de rotación (Se achatan como la tierra).
Hacia 1973 se llegó a demostrar que después de un colapso gravitatorio, un agujero negro puede rotar, pero no puede tener pulsaciones. Todo esto implicaba que una gran cantidad de información sobre el cuerpo colapsado se debe perder cuando se forma el agujero negro, porque después de ello, todo lo que se puede medir del cuerpo es la masa y la velocidad de rotación.
Toda la teoría se desarrolla en gran detalle como un modelo matemático. La primera observación que coincide con la teoría fue Cygnus X‑1, una estrella visible que gira alrededor de un compañero invisible, con una fuerte emisión de rayos X, observada con un enorme corrimiento hacia el rojo en 1975.
En la larga historia del universo muchas estrellas deben haber consumido todo su combustible nuclear, por lo que habrán tenido que colapsarse. La atracción gravitatoria extra de un número grande de agujeros negros podría explicar porqué nuestra galaxia gira a la velocidad con que lo hace: la masa de las estrellas visibles es insuficiente para explicarlo.
Tenemos alguna evidencia de que existe un agujero negro mucho mayor, con una masa de aproximadamente cien mil veces la del Sol, en el centro de nuestra galaxia.
Se piensa que agujeros negros similares, pero más grandes, con masas de unos cien millones de veces la del Sol, existen en el centro de los quasars. Cuando la materia cayera en espiral hacia el agujero negro, haría girar a éste en la misma dirección, haciendo que desarrollara un campo magnético. Partículas de altísimas energías se generarían cerca del agujero negro, a causa de la materia que caería. El campo magnético sería tan intenso que podría enfocar a esas partículas en chorros inyectados hacia afuera, a lo largo del eje de rotación del agujero negro, en las direcciones de sus polos norte y sur. Tales chorros son ciertamente observables en cierto número de galaxias y quasars.
Podría haber agujeros negros con masas mucho menores. No podrían formarse por un colapso gravitatorio, pero sí si la materia fuera comprimida a enorme densidad por grandes presiones externas. Tales agujeros de poca masa podrían haberse formado en las altas temperaturas y presiones del universo en una fase muy inicial. Los agujeros negros se habrían formado únicamente si el universo inicial no hubiera sido liso y uniforme. Y hoy en día se sabe que debieron existir algunas irregularidades, pues de los contrario, la materia seguiría siendo uniforme. No sabemos la cantidad de agujeros negros que estas irregularidades pudieron generar.
Pero como aprenderemos en el siguiente capítulo, los agujeros negros no son realmente negros después de todo: irradian como un cuerpo caliente, y cuanto más pequeños son, más irradian. Así, los pequeños quizás sean más fáciles de detectar que los grandes.


Capítulo 7      LOS AGUJEROS NEGROS NO SON TAN NEGROS

Antes de 1970, mi investigación se había concentrado en si había habido o no una singularidad en el big bang.
En un agujero negro, el horizonte de sucesos está formado por los caminos en el espacio-tiempo de los rayos de luz que justamente no consiguen escapar del agujero negro, y que se mueven eternamente sobre esa frontera. Una noche comencé a pensar en esto, mientras me acostaba. Mi enfermedad convierte esta operación en un proceso bastante lento. De repente, comprendí que los caminos de estos rayos nunca podrían aproximarse entre sí. Si así lo hicieran, acabarían chocando, y absorbidos por el agujero. Así, los caminos de los rayos luminosos en el horizonte de sucesos tienen que moverse siempre o paralelos o alejándose entre sí. Otro modo de ver esto es imaginando que el horizonte de sucesos es como el perfil de una sombra (la sombra de la muerte inminente.) Si la fuente de luz es muy lejana, se observará que los rayos de luz no se están aproximando entre sí.
Si los rayos nunca pueden acercarse entre ellos, el área del horizonte de sucesos podría o permanecer constante o aumentar con el tiempo, pero nunca podría disminuir, porque esto implicaría que al menos algunos de los rayos de luz de la frontera tendrían que acercarse entre sí. De hecho, el área aumentará siempre que algo de materia o radiación caiga en el agujero negro. Si dos agujeros negros chocasen entre sí, el área del horizonte de sucesos del agujero negro resultante sería igual o mayor que la suma de las áreas de los originales. Esta propiedad de la no disminución del área, produce una restricción importante de los comportamientos posibles de los agujeros negros. Me excitó tanto este descubrimiento, que casi no pude dormir aquella noche.
El comportamiento no decreciente del área de un agujero negro recordaba el comportamiento de una cantidad física llamada entropía, que mide el grado de desorden de un sistema. Se puede crear orden a partir del desorden (por ejemplo uno puede pintar su casa), pero esto requiere un consumo de esfuerzo o energía, y por lo tanto disminuye la cantidad de energía ordenada obtenible.
Un enunciado preciso de esta idea se conoce como segunda ley de la termodinámica. Dice que la entropía de un sistema aislado siempre aumenta, y que cuando dos sistemas se juntan, la entropía del sistema combinado es mayor que la suma de las entropías de los sistemas individuales.
La segunda ley de la termodinámica tiene un status algo diferente al de las restantes leyes de la ciencia, como la de la gravedad de Newton por citar un ejemplo, porque no siempre se verifica, aunque sí en la inmensa mayoría de los casos. Sin embargo, si uno tiene un agujero negro, parece existir una manera más fácil de violar la segunda ley: simplemente lanzando al agujero negro materia con gran cantidad de entropía. Al no poder comprobar 5qué entropía existe en el interior del agujero, no podemos demostrar que la entropía total, dentro y fuera del agujero, ha aumentado.
Bekenstein sugirió que el área del horizonte de sucesos era una medida de la entropía del agujero negro. Cuando materia portadora de entropía cae en un agujero negro, el área de su horizonte de sucesos aumenta. Esta sugerencia parecía evitar el que la segunda ley de la termodinámica fuera violada. Sin embargo, había un error fatal. Si un agujero negro tuviera entropía, entonces también tendría que tener una temperatura. Pero un cuerpo a una temperatura particular debe emitir radiación a un cierto ritmo. Pero por su propia definición, los agujeros negros son objetos que se supone que no emiten nada.
En septiembre de 1973, durante una visita mía a Moscú, Zeldovich y Staronbinsky. Me convencieron de que, de acuerdo con el principio de incertidumbre, los agujeros negros en rotación deberían crear y emitir partículas. Cuando hice el cálculo, encontré, para mi sorpresa y enfado, que incluso los agujeros negros sin rotación debería crear partículas a un ritmo estacionario. Diversos cálculos posteriores confirman que un agujero negro debería emitir partículas y radiación como si fuera un cuerpo caliente con una temperatura que sólo depende de la masa del agujero negro: cuanto mayor sea la masa, tanto menor será la temperatura.
Las partículas no provienen del agujero negro, sino del espacio "vacío" justo fuera del horizonte de sucesos del agujero negro, espacio que consideramos no puede estar totalmente vacío, pues en ese caso, el valor de todos los campos (como el electromagnético o el gravitatorio) valdrían exactamente cero, y la velocidad de su cambio también sería exactamente cero. Pero debe haber una cierta cantidad mínima, debida a la incertidumbre (fluctuaciones cuánticas), del valor del campo. Uno puede imaginar estas fluctuaciones como pares de partículas de luz o de gravedad que aparecen juntas en un instante determinado, se separan, y luego se vuelven a juntar, aniquilándose entre sí. Estas son partículas virtuales. El principio de incertidumbre predice que habrá pares similares de partículas materiales virtuales, como electrones o quarks. En este caso, sin embargo, un miembro del par será una partícula y el otro una antipartícula (las antipartículas de la luz y de la gravedad son las mismas que las partículas).
Como la energía no puede ser creada de la nada, uno de los componentes de un par partícula/antipartícula tendrá energía positiva y el otro energía negativa. El campo gravitatorio dentro de un agujero negro es tan intenso que incluso una partícula real puede tener allí energía negativa. Es, por lo tanto, posible, para la partícula virtual con energía negativa, si está presente un agujero negro, caer en el agujero y convertirse en una partícula o antipartícula real. Su desamparado compañero puede caer asimismo en el agujero negro. O, al tener energía positiva, puede escaparse de las cercanías del agujero como una partícula o antipartícula real. Para un observador lejano, parecerá haber sido emitida desde el agujero negro. Cuanto más pequeño sea el agujero negro, menor será la distancia que la partícula con energía negativa tendrá que recorrer antes de convertirse en una partícula real y, por consiguiente, mayores serán la velocidad de emisión y la temperatura aparente del agujero negro.
La energía positiva de la radiación sería compensada por un flujo hacia el agujero negro de partículas con energía negativa. Por la famosa ecuación de Einstein, sabemos que la energía es proporcional a la masa. Un flujo de energía negativa hacia el agujero negro reduce, por lo tanto su masa. Conforme el agujero negro pierde masa, el área de su horizonte de sucesos disminuye, pero la consiguiente disminución de entropía del agujero negro es compensada de sobra por la entropía de la radiación emitida, y así, la segunda ley nunca es violada.
Además, cuanto más pequeña sea la masa del agujero negro, tanto mayor será su temperatura. Así, cuando el agujero negro pierde masa, su temperatura y su velocidad de emisión aumentan y, por lo tanto, pierde masa con más rapidez. Lo que sucede cuando la masa del agujero negro se hace extremadamente pequeña no está claro, pero la suposición más razonable es que desaparecería completamente en una tremenda explosión final de radiación.
Un agujero negro con una masa de unas pocas de veces la masa del Sol tendría una temperatura de sólo diez millonésimas de grado. Esto es mucho menos que la temperatura de la radiación de microondas que llena el universo (aproximadamente 2,7º) por lo que tales agujeros emitirán incluso menos de lo que absorben. Si el universo está condenado a seguir expandiéndose por siempre, la temperatura de la radiación de microondas disminuirá y con el tiempo será menor que la de un agujero negro de esas características, que entonces empezaría a perder masa. Pero, a esa temperatura, para que se evaporasen completamente habría de pasar un periodo muchísimo más largo que la edad del universo.
Podrían existir agujeros negros primitivos con una masa mucho más pequeña, debidos a las irregularidades en las etapas iniciales del universo. Estos agujeros tendrían una mayor temperatura y emitirían radiación a un ritmo mucho mayor. Un agujero negro con una masa inicial de mil millones de toneladas tendría una vida media aproximadamente igual a la edad del universo. Los agujeros negros primitivos con masas iniciales menores que la anterior ya se habrían evaporado completamente, pero aquellos con masas ligeramente superiores aún estarían emitiendo radiación en forma de rayos X y rayos gamma, análogos a las ondas luminosas pero con una longitud de onda más corta. Tales agujeros apenas merecen el apelativo de negros: son realmente blancos incandescentes y emiten energía a un ritmo de unos diez mil megavatios.
Estudiando el fondo de rayos gamma en el universo, que pudo ser generado por procesos distintos a los agujeros negros primitivos, no obtenemos evidencia positiva de los mismos, pero sí calculamos el número máximo de los posiblemente existentes, unos 300 por año-luz cúbico. Este límite implica que los agujeros negros primitivos podrían constituir como mucho la millonésima parte de la materia del universo. Pero dado que la gravedad atraería a los agujeros negros hacia la materia, éstos deberían estar, en general, alrededor y dentro de las galaxias. El estudio de la radiación limita el número de los existentes por término medio en el universo, pero no limita los existentes en nuestra propia galaxia. Si hubiera, por ejemplo un millón de veces más que por término medio, entonces el más cercano podría estar a la misma distancia que Plutón. Desde luego si este agujero negro llegara al final de su existencia y explotara, sería fácil detectar el estallido final de radiación, pero a su vez es poco probable que su final llegara en los próximos años. Y para detectar su radiación antes del final, necesitaríamos detectores de rayos gamma mucho mayores que los existentes.
Aunque la búsqueda de agujeros negros primitivos resulte negativa, aún nos dará una valiosa información acerca de los primeros instantes del universo. Sólo el hecho de que el universo fuera muy regular y uniforme, con una alta presión, puede explicar la ausencia de una cantidad observable de agujeros negros primitivos.


Capítulo 8      EL ORIGEN Y EL DESTINO DEL UNIVERSO

Para describir los primeros instantes del universo se ha usado el modelo llamado del big bangcaliente. Conforme el universo se expande, toda materia o radiación existente en él se enfría. (Cuando el universo duplica su tamaño, su temperatura se reduce a la mitad.) A temperaturas muy altas, las partículas se estarían moviendo tan deprisa que podrían vencer cualquier atracción entre ellas debida a fuerzas nucleares o electromagnéticas. Incluso los tipos de partículas que existiesen en el universo dependerían de la temperatura. A temperaturas suficientemente altas, las partículas tendrían tanta energía que cada vez que colisionasen se producirían muchos pares partícula/antipartícula diferentes.
Un segundo después del big bang, la temperatura habría descendido a alrededor de diez mil millones de grados (unas mil veces la temperatura en el centro del Sol). En ese momento, el universo habría contenido fundamentalmente fotones, electrones, neutrinos (partículas extremadamente ligeras que son afectadas solamente por la fuerza débil y por la gravedad) y sus antipartículas, junto con algunos protones y neutrones. A medida que el universo continuaba expandiéndose, la mayor parte de los electrones y los antielectrones se habrían aniquilado mutuamente para producir más fotones, quedando solamente unos pocos electrones. Los neutrinos y los antineutrinos, sin embargo, no se habrían aniquilado unos a otros, porque estas partículas interaccionan entre ellas y con otras partículas muy débilmente. Todavía hoy deberían estar por ahí. Podrían ser una forma de materia oscura, con suficiente atracción gravitatoria como para detener la expansión del universo y provocar que se colapse de nuevo.
Alrededor de cien segundos después del big bang, la temperatura habría descendido a mil millones de grados, que es la temperatura en el interior de las estrellas más calientes. Protones y neutrones, en base a la interacción nuclear fuerte, habrían comenzado a combinarse juntos para producir los núcleos de átomos de deuterio (hidrógeno pesado), y posteriormente de helio, y en pequeñas cantidades de litio y berilio. Los restantes neutrones se habrían desintegrado en protones.
Esta imagen de una etapa temprana caliente del universo la propuso por primera vez el científico George Gamow, en un artículo en que hizo la notable predicción de que la radiación en forma de fotones procedente de las etapas tempranas muy calientes del universo debe permanecer todavía hoy, con su temperatura reducida a sólo unos pocos grados por encima del cero absoluto. Fue esta radiación la que Penzias y Wilson encontraron en 1965. Estamos bastante seguros de que tenemos la imagen correcta, al menos a partir de aproximadamente un segundo después del big bang.
Tan sólo unas horas después del big bang la producción de helio y de otros elementos se habría detenido. Después, durante el siguiente millón de años, los núcleos no tendría suficiente energía para vencer la atracción electromagnética, y habría comenzado a combinarse para formar átomos.
En regiones ligeramente más densas que la media, la expansión habría sido retardada por la atracción gravitatoria extra, y algunas habrían empezado a colapsar de nuevo. El tirón gravitatorio podría empezar a hacerlas girar ligeramente. Finalmente, cuando la región se hiciera suficientemente pequeña, estaría girando lo suficientemente deprisa como para compensar la atracción de la gravedad, y de este modo habrían nacido las galaxias giratorias en forma de disco. Otras regiones evolucionarían hacia objetos ovalados llamados galaxias elípticas. En ellas, la región dejaría de colapsarse parque partes individuales de la galaxias estarían girando de forma estable alrededor de su centro, aunque la galaxia en su conjunto no tendría rotación.
El gas de hidrógeno y helio de las galaxias se disgregaría en nubes más pequeñas que comenzarían a colapsarse debido a su propia gravedad. La temperatura del gas aumentaría, hasta iniciar reacciones de fusión nuclear. Se empezaría a convertir el hidrógeno en más helio, y el calor desprendido aumentaría la presión, lo que impediría continuar la contracción. Estas nubes permanecerían estables en este estado durante mucho tiempo, como estrellas del tipo de nuestro Sol. Las estrellas con una masa mayor necesitarían estar más calientes para compensar su atracción gravitatoria más intensa, lo que aceleraría las reacciones de fusión, pudiendo llegar a consumir su combustible en un tiempo tan corto como cien millones de años. Se contraerían entonces ligeramente, y, al calentarse más, empezarían a convertir el helio en elementos más pesados como carbono u oxígeno. Esto, sin embargo, no liberaría mucha más energía, de modo que se produciría una crisis. Parece probable que las regiones centrales de la estrella colapsarían hasta un estado muy denso, tal como una estrella de neutrones o un agujero negro. Las regiones externas de la estrella podrían a veces ser despedidas en una tremenda explosión llamada supernova, que superaría en brillo a todas las demás estrellas juntas de su galaxia. Algunos de los elementos más pesados producidos hacia el final de la vida de la estrella serían arrojados de nuevo al gas de la galaxia, y proporcionarían parte de la materia prima para la próxima generación de estrellas. Nuestro Sol contiene alrededor de un 2 por 100 de esos elementos más pesados, ya que es una estrella de la segunda o tercera generación, formada hace unos cinco mil millones de años a partir de una nube giratoria de gas que contenía los restos de supernovas anteriores. Una pequeña cantidad de los elementos más pesados se acumularon juntos para formar los cuerpos que ahora giran alrededor del Sol como planetas al igual que la Tierra.
La tierra estaba inicialmente muy caliente y sin atmósfera. Con el tiempo se enfrió y adquirió una atmósfera mediante la emisión de gases de las rocas. Ésta no contenía nada de oxígeno, sino una serie de gases venenosos para nosotros, como el sulfuro de hidrógeno. Formas de vida primitivas se desarrollaron en los océanos, formando macromoléculas, capaces de reunir otros átomos del océano para formar estructuras similares. Algunos errores habrían producido nuevas macromoléculas, incluso mejores para reproducirse a sí mismas. Las primeras formas primitivas de vida consumirían diversos materiales, incluyendo sulfuro de hidrógeno, y desprenderían oxígeno. Esto cambió gradualmente la atmósfera, y permitió el desarrollo de formas de vida superiores.
Esta visión de un universo inicialmente muy caliente y enfriándose gradualmente deja varias cuestiones importantes sin contestar:
1) ¿Por qué estaba el universo primitivo tan caliente?
2) ¿Por qué es el universo tan uniforme a gran escala?. En este tipo de modelos no habría habido tiempo suficiente para la luz ni ninguna otra información fuesen desde una región distante a otra. La única razón para que pudiesen regiones distantes haber alcanzado la misma temperatura es que por alguna razón inexplicada, comenzasen ya a la misma temperatura.
3) ¿Por qué comenzó el universo con una velocidad de expansión tan próxima a la velocidad crítica que separa los modelos que se colpasan de nuevo, de aquellos modelos que se expansionan indefinidamente. Si la velocidad de expansión un segundo después del big bang hubiese sido menor, incluso en una parte en cien mil billones, el universo se habría colapsado de nuevo antes de que hubiese alcanzado nunca su tamaño actual.
4) A pesar de que el universo sea tan uniforme y homogéneo a gran escala, contiene irregularidades locales. ¿Cuál fue el origen de esas fluctuaciones de densidad?.
Toda la historia de la ciencia ha consistido en una comprensión gradual de que los hechos no ocurren de una forma arbitraria, sino que reflejan un cierto orden subyacente, el cual puede estar o no divinamente inspirado. Sería sencillamente natural suponer que este orden debería aplicarse no solo a las leyes, sino también a las condiciones en la frontera del espacio-tiempo que especificarían el estado inicial del universo. Debería haber algún principio que escogiera un estado inicial, y por lo tanto un modelo para representar nuestro universo.
Una posibilidad es lo que se conoce como condiciones de contorno caóticas. Estas suponen implícitamente o bien que el universo es espacialmente infinito o bien que hay infinitos universos. Esto significaría que el universo primitivo habría sido probablemente muy caótico e irregular, debido a que hay muchas más configuraciones del universo caóticas y desordenadas que uniformes y ordenadas. (Si cada configuración es igualmente probable, es verosímil que el universo comenzase en un estado caótico y desordenado, simplemente porque abundan más estos estados).
Si el universo fuese verdaderamente infinito espacialmente, o si hubiese infinitos universos, habría probablemente en alguna parte algunas grandes regiones que habrían comenzado de una manera suave y uniforme. ¿Podría ocurrir que nosotros estuviésemos viviendo en una región que simplemente, por casualidad, es suave y uniforme. Esto constituye un ejemplo de aplicación de lo que se conoce como el principio antrópico: "vemos el universo en la forma que es porque nosotros existimos".
La versión débil del principio antrópico dice que en un universo que es grande o infinito en el espacio y/o en el tiempo, las condiciones necesarias para el desarrollo de vida inteligente se darán solamente en ciertas regiones que están limitadas en el tiempo y en el espacio. Los seres inteligentes de estas regiones no deben, por lo tanto, sorprenderse si observan que su localización en el universo satisface las condiciones necesarias para su existencia.
La versión fuerte del principio propone que o hay muchos universos diferente, o muchas regiones diferentes de un único universo, cada uno/a con su propia configuración inicial y, tal vez, con su propio conjunto de leyes de la ciencia. Solamente  en los pocos universos que son como el nuestro se desarrollarían seres inteligentes que se harían la siguiente pregunta: ¿por qué es el universo como lo vemos?. La respuesta, entonces, es simple: si hubiera sido diferente, ¡nosotros no estaríamos aquí!.
Las leyes de la ciencia, tal como las conocemos actualmente, contienen muchas cantidades fundamentales. como la magnitud de la carga eléctrica del electrón y la relación entre las masas del protón y del electrón. Puede ser que un día descubramos una teoría unificada completa que prediga todas esas cantidades, pero también es posible que algunas, o todas ellas, varíen de un universo a otro, o dentro de uno único. Los valores de estas cantidades parecen haber sido ajustados sutilmente para hacer posible el desarrollo de la vida.
Pueden ponerse varias objeciones. ¿En qué sentido puede decirse que existen universos diferentes?. Si están realmente separados unos de otros, lo que ocurra en otro universo no puede tener ninguna consecuencia observable en el nuestro. Debemos eliminarlos de la teoría. Si hay diferentes regiones de un único universo, las leyes de la ciencia tendrían que ser las mismas en cada región, porque de otro modo uno no podría moverse con continuidad de una región a otra. En este caso las únicas diferencias entre las regiones estarían en sus configuraciones iniciales y, por lo tanto, el principio antrópico fuerte se reduciría al débil.
Si el modelo del big bang caliente fuese correcto desde el principio del tiempo, el estado inicial del universo tendría que haber sido elegido verdaderamente con mucho cuidado.
En un intento de encontrar un modelo del universo en el cual muchas configuraciones iniciales diferentes pudiesen haber evolucionado hacia algo parecido al universo actual, un científico del MIT, Alan Guth, sugirió que el universo primitivo podría haber pasado por un periodo de expansión muy rápida. Esta expansión se llamaría "inflacionaria", dando a entender que hubo un momento en que el universo se expandió a un ritmo creciente, en vez del ritmo decreciente al que lo hace hoy día.
Hay algo así como un 1 con ochenta y cinco ceros detrás de partículas en la región del universo que nosotros podemos observar. En la teoría cuántica, las partículas pueden ser creadas a partir de la energía en la forma de pares partícula/antipartícula. Pero esto simplemente plantea la cuestión de dónde salió la energía. La respuesta es que la energía total del universo es exactamente cero. La materia del universo está hecha de energía positiva. Sin embargo, toda la materia está atrayéndose a sí misma mediante la gravedad. Dos pedazos de materia que estén próximos el uno al otro, tienen menos energía que los dos mismos trozos muy separados, porque se ha de gastar energía para separarlos en contra de la fuerza gravitatoria que los está uniendo. Así, en cierto sentido, el campo gravitatorio tiene energía negativa. En el caso de un universo que es aproximadamente uniforme en el espacio, puede demostrarse que esta energía gravitatoria negativa, cancela exactamente a la energía positiva correspondiente a la materia.
Por consiguiente, el universo podría duplicar la cantidad de energía positiva de materia y también duplicar la energía gravitatoria negativa sin violar la conservación de la energía. Esto no ocurre en la expansión normal del universo, en la que la densidad de energía de la materia disminuye a medida que el universo se hace más grande. Sí ocurre, sin embargo en la expansión inflaccionaria, porque la densidad de energía permanece constante mientras que el universo se expande.
Debería haber algún mecanismo que eliminase a la gran constante cosmológica efectiva y que, por lo tanto, modificase la velocidad de expansión de acelerada a frenada por la gravedad, como la que tenemos hoy en día. En la expansión inflaccionaria uno podría esperar que finalmente se rompiera la simetría entre las fuerzas del mismo modo que el agua sobreenfriada al final se congela. La energía extra del estado sin ruptura de simetría sería liberada entonces y calentaría al universo de nuevo, hasta una temperatura justo por debajo de la temperatura crítica en la que hay simetría entre las fuerzas. El universo continuaría entonces expandiéndose y se enfriaría exactamente como en el modelo del big bang caliente, pero ahora habría una explicación de por qué el universo se está expandiendo justo a la velocidad crítica y por qué diferentes regiones tienen la misma temperatura.
En la idea original de Guth se suponía que la transición de fase ocurría de forma repentina, de una manera similar a como aparecen los cristales de hielo en el agua muy fría. La idea suponía que se habrían formado "burbujas" de la nueva fase de simetría rota en la fase antigua.
Andrei Linde proponía que si las burbujas fuesen tan grandes que nuestra región del universo estuviese toda ella contenida dentro de una única burbuja, la transición de una situación con simetría a otra sin ella tuvo que ocurrir muy lentamente dentro de la burbuja.
Probé que, en lugar de eso, la simetría se habría roto al mismo tiempo en todas partes, en vez de solamente dentro de las burbujas. Ello conduciría a un universo uniforme.
Yo y otras personas mostramos que el nuevo modelo inflaccionario, al menos en su forma original, predecía variaciones en la temperatura de la radiación de fondo de microondas mucho mayores de las que se observan.
Un modelo mejor, llamado modelo inflaccionario caótico, fue propuesto por Linde en 1983. En él no se produce ninguna transición de fase o sobreenfriamiento. En su lugar, hay un campo de espín 0, el cual, debido a fluctuaciones cuánticas, tendría valores grandes en algunas regiones del universo primitivo. La energía del campo en esas regiones se comportaría como una constante cosmológica. Tendría un efecto gravitatorio repulsivo, y, de ese modo, haría que esas regiones se expandiesen de una forma inflaccionaria. A medida que se expandiesen, la energía del campo decrecería en ellas lentamente, hasta que la expansión inflaccionaria cambiase a una expansión como la del modelo del big bang caliente.
Este trabajo sobre modelos inflacionarios mostró que el estado actual del universo podría haberse originado a partir de un número bastante grande de configuraciones iniciales diferentes, demostrando que el estado inicial de la parte del universo que habitamos no tuvo que ser escogido con gran cuidado. No puede ser, sin embargo, que cualquier configuración inicial hubiese conducido a un universo como el que observamos. Incluso el modelo inflacionario no nos dice por qué la configuración inicial no fue de un tipo tal que produjese algo muy diferente de lo que observamos.
Para poder predecir cómo debió haber empezado el universo, se necesitan leyes que sean válidas en el principio del tiempo. Los teoremas de la singularidad, lo que realmente demuestran es que el campo gravitatorio se hace tan fuerte que los efectos gravitatorios cuánticos se hacen importantes: la teoría clásica no constituye ya una buena descripción del universo. Por lo tanto, es necesario utilizar una teoría cuántica de la gravedad para discutir las etapas muy tempranas del universo. Como veremos, no es necesario postular nuevas leyes para las singularidades, porque no tiene que haber ninguna singularidad en la teoría cuántica.
No poseemos todavía una teoría completa y consistente que combine la mecánica cuántica y la gravedad. Una de sus características es que debe incorporar la idea de Feynman de formular la teoría cuántica en términos de una suma sobre historias. En este enfoque, una partícula no tiene simplemente una historia única. En lugar de esto, se supone que sigue todos los caminos posibles en el espacio-tiempo, y que con cada una de esas historias está asociada una pareja de números, uno que representa el tamaño de una onda y el otro que representa su posición en el ciclo (su fase). Cuando uno trata realmente de calcular esas sumas, sin embargo, tropieza con problemas técnicos importantes. La única forma de sortearlos consiste en la siguiente receta peculiar: hay que sumar las ondas correspondientes a historias de la partícula que no están en el tiempo "real" que usted y yo experimentamos, sino que tienen lugar en lo que se llama tiempo imaginario. Esto tiene un efecto interesante sobre el espacio-tiempo: la distinción entre tiempo y espacio desaparece completamente. Dado un espacio-tiempo en el que los sucesos tienen valores imaginarios de la coordenada temporal, se dice de él que es euclídeo, en memoria de Euclides, que fundó el estudio de la geometría de superficies bidimensionales.
Una segunda característica que creemos que tiene que formar parte de cualquier teoría definitiva es la idea de Eisntein de que el campo gravitatorio se representa mediante un espacio-tiempo curvo: las partículas tratan siempre de seguir el camino más parecido posible a una línea recta en un espacio curvo.
En la teoría clásica de la gravedad, basada en un espacio-tiempo real, hay solamente dos maneras en las que puede comportarse el universo: o ha existido durante un tiempo infinito, o tuvo un principio en una singularidad dentro de algún tiempo finito en el pasado.
En la teoría cuántica de la gravedad, por otra parte, surge una tercera posibilidad. Debido a que se emplean espacio-tiempos euclídeos, en los que la dirección del tiempo está en pie de igualdad con las direcciones espaciales, es posible que el espacio-tiempo sea finito en extensión y que, sin embargo, no tenga ninguna singularidad que forme una frontera o borde. El espacio-tiempo sería como la superficie de la tierra, solo que con dos dimensiones más.
No existiría ninguna singularidad en la que las leyes de la ciencia fallasen. Se podría decir: "la condición de contorno del universo es que no tiene frontera". El universo estaría completamente autocontenido y no se vería afectado por nada que estuviese fuera de él. No sería creado ni destruido. Fue en una conferencia en el Vaticano donde propuse por primera vez esta idea de ausencia de frontera, y sus implicaciones sobre el papel de Dios no fueron en general apreciadas.
Entonces yo no sabía cómo utilizar la idea de "ninguna frontera" para hacer predicciones acerca del universo.
Cualquier modelo que describiese el universo entero en detalle sería demasiado complicado matemáticamente para que fuésemos capaces de calcular predicciones exactas. Cada historia de las que intervienen en la suma sobre historias describirá no solo el espacio-tiempo, sino también todo lo que hay en él, incluyendo cualquier organismo complicado, como seres humanos.
Este enfoque sería más satisfactorio si se pudiese demostrar que nuestro universo no es simplemente una de las posibles historias sino una de las más probables. Pero hay una familia particular de historias que son mucho más probables que las otras. Estas historias pueden imaginarse mentalmente como si fuesen la superficie de la Tierra, donde la distancia al polo norte representaría el tiempo imaginario, y el tamaño de un círculo a distancia constante del polo norte representaría el tamaño espacial del universo. A pesar de que el universo tendría un tamaño nulo en los polos, estos puntos no serían más singulares de lo que lo son los polos norte y sur sobre la Tierra.
En el tiempo real, el universo tiene un principio y un final en singularidades que forman una frontera para el espacio-tiempo y en las que las leyes de la ciencia fallan. Pero en el tiempo imaginario no hay singularidades o fronteras. Solamente si pudiésemos hacernos una representación del universo en términos del tiempo imaginario no habría ninguna singularidad. Así que tal vez, lo que llamamos tiempo imaginario es realmente más básico, y lo que llamamos real es simplemente una idea que inventamos para ayudarnos a describir como pensamos que es el universo.
También puede utilizarse la suma sobre historias, junto con la propuesta de ninguna frontera, para averiguar qué propiedades del universo es probable que se den juntas. Por ejemplo la característica de expansión en todas direcciones aproximadamente a la misma velocidad, junto con el valor actual de la densidad del universo. En los modelos simplificados examinados, esta probabilidad resulta ser alta.
Un problema particularmente interesante es el referente al valor de las pequeñas desviaciones respecto de la densidad uniforme en el universo primitivo. Si utilizamos la condición de que no haya ninguna frontera, encontramos que el universo tuvo, de hecho, que haber comenzado justamente con la mínima no uniformidad posible, permitida por el principio de incertidumbre. El universo habría sufrido entonces un periodo de rápida expansión. como  en los modelos inflacionarios. Durante este periodo las no uniformidades iniciales se habrían amplificado hasta hacerse lo suficientemente grandes como para explicar el origen de las estructuras que observamos a nuestro alrededor.
De este modo, todas las complicadas estructuras que vemos en el universo podrían ser explicadas mediante la condición de ausencia de frontera para el universo, junto con el principio de incertidumbre de la mecánica cuántica. ¿Qué lugar queda, entonces, para un creador?.


Capítulo 9      LA FLECHA DEL TIEMPO

Hasta comienzos de este siglo la gente creía en el tiempo absoluto. En relatividad, cada observador tiene su propia medida del tiempo, la registrada por un reloj que él llevase consigo.
Cuando se intentaba unificar la gravedad con la mecánica cuántica se tuvo que introducir la idea de un tiempo "imaginario". Este sería indistinguible de las direcciones espaciales. No puede haber ninguna diferencia importante entre las direcciones hacia adelante y hacia atrás del tiempo imaginario. Por el contrario, en el tiempo "real", hay una diferencia muy grande entre las direcciones hacia adelante y hacia atrás, como todos sabemos. ¿Por qué recordamos el pasado, pero no el futuro?.
Las leyes de la ciencia no distinguen entre el pasado y el futuro; no se modifican bajo la acción de las simetrías conocidas como C (partículas/antipartículas), P (izquierda/derecha) y T (adelante/atrás en el tiempo).
Si las leyes de la ciencia no se pueden modificar por la combinación de las simetrías C y P, y tampoco por la combinación de C, P y T, tienen también que permanecer inalteradas bajo la operación T sola.
Imagine un vaso de agua cayéndose de una mesa y rompiéndose en mil pedazos. La explicación de por qué nunca se observa el fenómeno contrario (pedazos y gotas de agua recomponiéndose y saltando para formar un vaso de agua sobre la mesa) suele ser que lo prohibe la segunda ley de la termodinámica. Un vaso intacto encima de la mesa es un estado de orden elevado, pero uno roto es desordenado. No se puede alcanzar aquel estado desde éste.
Hay al menos tres flechas del tiempo diferentes. Primeramente está la flecha termodinámica, que es la dirección del tiempo en la que el desorden o la entropía aumentan. Luego está la flecha psicológica, la dirección en la que nosotros sentimos que pasa el tiempo, la dirección en que recordamos el pasado pero no el futuro. Finalmente está la flecha cosmológica, la dirección del tiempo en la que el universo está expandiéndose en vez de contrayéndose.
Argumentaré que la flecha psicológica está determinada por la flecha termodinámica, y que ambas flechas apuntan siempre necesariamente en la misma dirección. Razonaré que únicamente cuando apuntan en la misma dirección es cuando las condiciones son adecuadas para el desarrollo de seres inteligentes que puedan hacerse la pregunta: ¿Por qué aumenta el desorden en la misma dirección del tiempo en que el universo se expande?
Es bastante difícil hablar de la memoria humana, pero es razonable admitir que la flecha para ordenadores es la misma que para seres humanos. El calor expelido por el ventilador del ordenador asegura que cuando se graba un número en la memoria, la cantidad total de desorden en el universo aumenta a pesar de todo. La dirección del tiempo en la que un ordenador recuerda el pasado es la misma que aquella en la que el desorden aumenta.
Todo esto hace que la segunda ley de la termodinámica sea casi trivial. El desorden aumenta con el tiempo porque nosotros medimos el tiempo en la dirección en la que el desorden crece.
Pero, ¿por qué debe existir la flecha termodinámica del tiempo?. O, en otras palabras, ¿por qué debe estar el universo en un estado de orden elevado en un extremo del tiempo, el extremo que llamamos el pasado? ¿Por qué no está en un estado de completo desorden en todo momento? Después de todo, esto podría parecer más probable. ¿Y por qué la dirección del tiempo en la que el desorden aumenta es la misma en la que el universo se expande?
En la teoría clásica de la relatividad general, no se puede predecir en que estado de orden o desorden comenzó el universo, debido al colapso de la teoría en la singularidad del big bang.
En una teoría cuántica de la gravedad para especificar el estado del universo habría que decir aún cómo se comportarían las historias posibles del universo en el pasado en la frontera del espacio-tiempo. Esta dificultad de tener que describir lo que no se sabe, ni se puede saber, podría evitarse únicamente si las historias satisficieran la condición de que no haya frontera: son finitas en extensión pero no tienen frontera, bordes o singularidades. En este caso, el principio del tiempo sería un punto regular, suave, del espacio-tiempo, y el universo habría comenzado su expansión en un estado muy suave y ordenado. No podría haber sido completamente uniforme, porque ello violaría el principio de incertidumbre. El universo se volvería grumoso y desordenado a medida que el tiempo pasase. Lo que explicaría la existencia de la flecha termodinámica del tiempo.
El colapso de una estrella para formar un agujero negro es bastante parecido a las últimas etapas del colapso de todo el universo. Al principio, yo creí que el desorden disminuiría con el tiempo cuando el universo se colapsase de nuevo. Las gentes morirían antes de nacer, después de un enjuvenecimiento fisiológico.
Esta idea es atractiva porque conlleva una bonita simetría entre las fases expansiva y contractiva, pero ¿se deduce esta idea de la condición de que no haya frontera, o es inconsistente con esa condición?. Llegué a una conclusión errónea en parte por la analogía con la superficie de la Tierra. Si se hace corresponder el principio del universo con el polo norte, entonces el final debería ser similar al principio. Sin embargo, los polos norte y sur corresponden al principio y final en el tiempo imaginario; en el tiempo real pueden ser muy diferentes el uno del otro.
Don Page señalo que la condición de que no haya frontera no exigía que la fase contractiva fuese necesariamente la inversión temporal de la fase expansiva. Uno de mis alumnos, Raymond Laflamme encontró que, en un modelo ligeramente más complicado, el colapso del universo era muy diferente de la fase de expansión. Me di cuenta de que había cometido un error: la condición de que no haya frontera implicaba que el desorden continuaría de hecho aumentando durante la contracción.
Volviendo a la flecha del tiempo, nos queda la cuestión de por qué observamos que las flechas termodinámica y cosmológica apuntan en la misma dirección?. Hacia el final de la fase expansiva todas las estrellas se habrán quemado, y los protones y neutrones se habrán desintegrado probablemente en partículas ligeras y radiación. El universo estará en un estado de desorden casi completo. No habría una flecha termodinámica clara del tiempo. Sin embargo, una flecha termodinámica clara es necesaria para que la vida inteligente funcione. La fase contractiva sería inadecuada debido a que no posee una flecha termodinámica clara del tiempo.
¿Qué se debe hacer cuando uno ha cometido un error como ése? Un ejemplo lo constituyó Einstein, quien llamó a la constante cosmológica, el error más grande de su vida.
El progreso de la raza humana ha creado un pequeño rincón de orden en un universo cada vez más desordenado. Si recuerda toda la información de este libro, el orden habrá aumentado en su cerebro en unos dos millones de unidades. Sin embargo, también habrá consumido unas mil calorías de energía ordenada en forma de alimento, lo cual haría que el desorden total del universo haya aumentado unos diez millones de veces el aumento del orden en su cerebro. En el próximo capítulo intentaremos aumentar el orden en este rincón.


Capítulo 10    LA UNIFICACIÓN DE LA FÍSICA

En última instancia, se tiene la esperanza de encontrar una teoría unificada, consistente, completa, que incluiría a todas las teorías parciales como aproximaciones, y que no necesitaría ser ajustada mediante la selección de los valores de algunos números arbitrarios. La búsqueda de una teoría como ésa se conoce como "la unificación de la física". Einstein empleó la mayor parte de sus últimos años en buscar esta teoría unificada. El se negaba a creer en la mecánica cuántica, pero parece ser que el  principio de incertidumbre es una característica fundamental del universo en que vivimos, y que una teoría de este tipo debe incorporar necesariamente este principio.
Las perspectivas de encontrar una teoría como esta son mejores ahora. Pero debemos guardarnos de un exceso de confianza: en 1928 el físico Max Born predijo que "la física, dado como la conocemos, estará terminada en seis meses". Pensó que tras el descubrimiento por Dirac de la ecuación que gobernaba el electrón, otra similar gobernaría el protón, la otra única partícula conocida entonces, y eso sería el final de la física teórica.
Las teorías parciales que gobiernan las fuerzas débil, fuerte y electromagnética, pueden combinarse en las llamadas teorías de gran unificación, o TGU. La principal dificultad para encontrar una teoría que unifique la gravedad con las otras fuerzas estriba en que la relatividad general es una teoría "clásica", esto quiere decir que no incorpora el principio de incertidumbre de la mecánica cuántica. Un primer paso, por consiguiente, consiste en combinar la teoría general con el principio de incertidumbre.
Un problema es que éste implica que el espacio "vacío" está lleno de pares de partículas y antipartículas virtuales. Estos pares tendrían una cantidad infinita de energía y, por consiguiente, a través de la famosa ecuación de Eisntein E = mc2, tendrían una cantidad infinita de masa. Similarmente se encuentran infinitos aparentemente absurdos en las otras teorías parciales, pero estos infinitos pueden ser suprimidos mediante un proceso de renormalización, que supone cancelar los infinitos introduciendo otros infinitos. Aunque esta técnica es bastante dudosa matemáticamente, parece funcionar en la práctica. La renormalización, sin embargo, implica que los valores reales de las masas y las intensidades de las fuerzas no pueden ser deducidos de la teoría, sino que han de ser escogidos para ajustarlos a las observaciones.
Al intentar incorporar el principio de incertidumbre a la relatividad general se dispone de sólo dos cantidades que pueden ajustarse: la intensidad de la gravedad y el valor de la constante cosmológica.
Hacia 1976 se sugirió una posible solución llamada "supergravedad". La idea consistía en combinar la partícula de espín 2, llamada gravitón, que transporta la fuerza gravitatoria, con ciertas partículas nuevas de espín 3/2, 1, 1/2 y 0, que, en cierto sentido podrían ser consideradas como diferentes aspectos de la misma "superpartícula. Los cálculos para su comprobación eran de una enorme complejidad.
Sin embargo, en 1984 se produjo un notable cambio de opinión en favor de lo que se conoce como teoría de cuerdas. Una partícula ocupa un punto del espacio en cada instante de tiempo. Así su historia puede representarse mediante una línea en el espacio-tiempo. Una cuerda ‑objeto que posee una longitud pero ninguna otra dimensión más‑, por el contrario, ocupa una línea en el espacio. Por tanto su historia en el espacio-tiempo es una superficie bidimensional llamada "la hoja del mundo". La hoja del mundo de una cuerda cerrada es un cilindro o tubo Figuras 10.1 y 10.2.
Dos fragmentos de una cuerda pueden juntarse para formar una única cuerda; en el caso de cuerdas abiertas simplemente se unen por los extremos Figuras 10.3, mientras que en el caso de cuerdas cerradas la unión es similar a las dos piernas de un par de pantalones juntándose Figuras 10.4. En las teorías de cuerdas, lo que anteriormente se consideraban partículas, se describen ahora como ondas viajando por la cuerda. La emisión o absorción de una partícula por otra corresponden a la división o reunión de cuerdas. Por ejemplo, la fuerza gravitatoria del Sol sobre la Tierra se describe en las teorías de partículas como causada por la emisión de un gravitón por una partícula en el Sol y su absorción por una partícula en la Tierra. En la teoría de cuerdas, ese proceso corresponde a un tubo o cañería en forma de H (la teoría de cuerdas, en cierto modo, se parece a la fontanería). Los dos lados verticales de la H corresponden a las partículas en el Sol y en la Tierra, y el larguero transversal corresponde al gravitón que viaja entre ellas Figuras 10.5.
La teoría de cuerdas tiene una historia curiosa. Se inventó a finales de los años 60 en un intento de encontrar una teoría  para describir la interacción fuerte. Para que esta teoría proporcionase el valor correcto para la interacción fuerte entre partículas, las cuerdas tenían que ser como tiras de goma con una tensión de alrededor de diez toneladas.
En 1974, Scherk y Schwarz publicaron un artículo en el que mostraban que la teoría de cuerdas podía describir la fuerza gravitatoria, pero sólo si la tensión en la cuerda fuese mucho más elevada.
En 1984 se desarrolló una nueva versión, las llamadas cuerdas "heteróticas", que parecía que podría ser capaz de explicar los tipos de partículas que observamos.
Las teorías de cuerdas también conducen a infinitos, pero se piensa que todos ellos desaparecerían en versiones como la de las cuerdas heteróticas. Las teorías de cuerdas, sin embargo, presentan un problema mayor: parecen ser consistentes ¡sólo si el espacio-tiempo tiene o diez o veintiséis dimensiones!.
¿Por qué no notamos todas esas dimensiones extra, si están realmente ahí?. La sugerencia es que las otras dimensiones están curvadas en un espacio muy pequeño, tanto que sencillamente no lo notamos.
Plantea, sin embargo otro problema importante. ¿Por qué deben estar arrolladas en un pequeño ovillo algunas de las dimensiones, pero no todas?. Presumiblemente, en el universo primitivo todas las dimensiones habrían estado muy curvadas. ¿Por qué solo se aplanaron una dimensión temporal y tres espaciales.
Una posible respuesta la encontraríamos en el principio antrópico. Dos dimensiones espaciales no parecen ser suficientes para permitir el desarrollo de seres complicados. Si una criatura bidimensional se comiese algo no podría digerirlo completamente, tendría que vomitar los residuos por el mismo camino por el que se los tragó, so pena de quedar ella misma escindida.
También habría problemas con más de tres dimensiones espaciales. La fuerza gravitatoria entre dos cuerpos disminuiría con la distancia más rápidamente de lo que lo hace en tres dimensiones. Las órbitas serían inestables: el Sol no podría existir en un estado estable, en el que la presión compensase a la gravedad. O se rompería o se colapsaría para formar un agujero negro.
Es probable que hacia final de siglo sepamos si la teoría de cuerdas constituye verdaderamente la muy codiciada teoría unificada de la física.
Pero, ¿puede haber en realidad una tal teoría unificada?. Con el advenimiento de la mecánica cuántica hemos llegado a reconocer que los acontecimientos no pueden predecirse con entera precisión.
En muchas ocasiones hemos realizado un nuevo tipo de observaciones, y para explicarlos hemos tenido que desarrollar una teoría más avanzada.
Parece que la gravedad puede poner un límite a esta sucesión de teorías. Si hubiese una partícula con una energía por encima de lo que se conoce como energía de Planck, diez millones de billones de GeV, su masa estaría tan concentrada que se amputaría ella misma del resto del universo y formaría un pequeño agujero negro. Parece que la sucesión de teorías más y más refinadas debe tener algún límite a medida que vamos a energías cada vez más altas, por lo tanto, debe existir alguna teoría definitiva del universo.
Nunca podríamos llegar a estar suficientemente seguros de haber encontrado verdaderamente la teoría correcta. Pero si la teoría fuese matemáticamente consistente e hiciese predicciones que concordasen siempre con las observaciones podríamos estar razonablemente seguros de que se trataría de la teoría correcta. En la época de Newton, era posible, para una persona instruida abarcar todo el conocimiento humano, al menos en término generales. Si se descubriese una teoría unificada completa, sería sólo una cuestión de tiempo el que fuese digerida del mismo modo y enseñada en las escuelas al menos en términos generales.
Incluso si descubriésemos una teoría unificada completa, no significaría que fuésemos capaces de predecir acontecimientos en general, por dos razones. La primera, el principio de incertidumbre es menos restrictiva que la segunda: No podríamos resolver exactamente las ecuaciones de la teoría excepto en situaciones muy sencillas. (Incluso no podemos resolver exactamente el movimiento de tres cuerpos en la teoría de la gravedad de Newton, y la dificultad aumenta con el número de cuerpo y la complejidad de la teoría). Conocemos las leyes básicas que subyacen bajo toda la química y la biología. Ciertamente, aún no hemos reducido estas disciplinas al estado de problemas resueltos. Una teoría unificada completa, consistente, es sólo el primer paso: nuestra meta es una completa comprensión de lo que sucede a nuestro alrededor y de nuestra propia existencia.


Capítulo 11    CONCLUSIÓN

En este libro he dado especial relieve a las leyes que gobiernan la gravedad, debido a que es la gravedad la que determina la estructura del universo a gran escala, a pesar de que es la más débil de las cuatro categorías de fuerzas.
Los científicos están demasiado ocupados con el desarrollo de nuevas teorías que describen cómo es el universo para hacerse la pregunta de por qué. Los filósofos redujeron tanto el ámbito de sus indagaciones que Wittgenstein, el filósofo más famoso de este siglo, dijo "la única tarea que le queda a la filosofía es el análisis del lenguaje".
No obstante, si descubrimos una teoría completa, con el tiempo habrá de ser, en sus líneas maestras, comprensible para todos. Entonces todos, filósofos, científicos y la gente corriente, seremos capaces de tomar parte en la discusión de por qué existe el universo y por qué existimos nosotros.


Albert Einstein

La primera actividad política de Einstein tuvo lugar durante la primera guerra mundial, cuando era profesor en Berlín, sumándose a las manifestaciones antibélicas y alentando a que la gente rechazase el servicio militar obligatorio.
La segunda gran causa de Einstein fue el sionismo. En 1933 Hitler llegó al poder. Einstein declaró que no regresaría a Alemania. Ante la amenaza nazi, Einstein renunció al pacifismo, y, finalmente propuso que los Estados Unidos construyesen su propia bomba nuclear.
En 1952, al serle ofrecida la presidencia del estado de Israel, rehusó, quizás porque "las ecuaciones son más importantes para mí, porque la política es para el presente, pero una ecuación es para la eternidad.

Galilleo Galilei

Galileo fue uno de los primero en sostener que el hombre podía llegar a comprender cómo funciona el mundo, y, además podía hacerlo observando el mundo real.
La Iglesia, en 1616 declaró al copernicanismo "falso y erróneo", y ordenó a Galileo no "defender o sostener" la doctrina nunca más. Galileo se sometió.
En 1623 consiguió obtener permiso para escribir un libro discutiendo las teorías aristotélica y copernicana, el Diálogo sobre los dos máximos sistemas del mundo, publicado en 1632. La inquisición, a pesar del permiso, lo sentenció a prisión domiciliaria de por vida y le ordenó que renunciase públicamente al copernicanismo. Galileo se sometió.
Cuatro años antes de su muerte el manuscrito de su segundo libro fue pasado de contrabando a Holanda. Este trabajo, Dos nuevas ciencias iba a constituir la génesis de la física moderna.

Isaac Newton

Isaac Newton no era un hombre afable. Tras la publicación de los Principia Mathematica había ascendido rápidamente en importancia pública.
Mantuvo una disputa seria con Leibniz sobre la autoría del cálculo, herramienta matemática fundamental en la física moderna.
Newton había abandonado ya Cambridge y la vida universitaria. Fue finalmente recompensado con el lucrativo puesto de director de la Real Casa de la Moneda, dirigiendo con éxito una campaña contra la falsificación que llevó incluso varios hombres a la horca.


GLOSARIO

aceleración: Ritmo al que cambia la velocidad de un objeto.
acelerador de partículas: Máquina que, empleando electroimanes puede acelerar partículas cargadas en movimiento, dándoles más energía.
agujero negro: Región del espacio-tiempo de la cual nada, ni siquiera la luz, puede escapar, debido a la enorme intensidad de la gravedad (capítulo 6).
antipartícula: Cada tipo de partícula material tiene una antipartícula correspondiente. Cuando una partícula choca contra su antipartícula se aniquilan ambas, quedando sólo energía (páginas 99-100).
átomo: Unidad básica de la materia ordinaria, compuesta de un núcleo diminuto (consistente en protones y neutrones) rodeado por electrones que giran alrededor de él (página 88).
big bang: La singularidad en el principio del universo (página 73).
big crunch: La singularidad en el final del universo.
campo: Algo que existe a través de todo el tiempo y el espacio, en oposicion a una partícula que existe en un solo punto en un instante.
campo magnético: El responsable de las fuerzas magnéticas, actualmente incluido, junto con el campo eléctrico, dentro del campo electromagnético.
carga eléctrica: Propiedad de una partícula por la cual puede repeler (o atraer) a otras partículas que tengan una carga del mismo (u opuesto) signo.
cero absoluto: La temperatura más baja posible, en la cual una sustancia no contiene ninguna energía calorífica.
condición de que no haya frontera: Tesis de que el universo es finito, pero no tiene ninguna frontera (en el tiempo imaginario) (página 181).
cono de luz: Superficie en el espacio-tiempo que marca las posibles direcciones para los rayos de luz que pasan por un suceso dado (`página 47).
conservación de la energía: Ley de la ciencia que afirma que la energía (o su equivalente en masa) no puede ser creada ni destruida.
constante cosmológica: Recurso matemático empleado por Einstein para dar la espacio-tiempo una tendencia inherente a expandirse (página 65).
coordenadas: Números que especifican la posición de un punto en el espacio y en el tiempo ( página 44).
cosmología: Estudio del universo como un todo.
cuanto: Unidad indivisible, en la que las ondas pueden ser emitidas o absorbidas (página 82).
desplazamiento hacia el rojo: Enrojecimiento de la luz de una estrella que se está alejando de nosotros, debido al efecto Doppler (página 63).
dimensión espacial: Cualquiera de las tres dimensiones del espacio-tiempo que son espaciales, es decir, cualquiera excepto la dimensión temporal.
dualidad onda/partícula: En mecánica cuántica, concepto de que no hay distinción entre ondas y partícula; las partículas pueden a veces comportarse como ondas, y las ondas como partículas (página 85).
electrón: Partícula con carga eléctrica negativa que gira alrededor del núcleo de un átomo.
enana blanca: Estrella fría estable, mantenida por la repulsión debida al principio de exclusión entre electrones.
energía de la gran unificación: La energía por encima de la cual se cree que la fuerza electromagnética, la fuerza débil y la interacción fuerte se hacen indistinguibles unas de otras (página 107).
energía de unificación electrodébil: La energía (alrededor de 100 GeV) por encima de la cual la distinción entre la fuerza electromagnética desaparece (página 104).
espacio-tiempo: El espacio de cuatro dimensiones cuyos puntos son los sucesos (página 45).
espectro: Separación de, por ejemplo, una onda electromagnética en sus frecuencias componentes (página 62).
espín: Propiedad interna de las partículas elementales, relacionada con, pero no idéntica a, el concepto ordinario de giro (página 97).
estado estacionario: El que no cambia con el tiempo. Una esfera girando a un ritmo constante está estacionaria porque tiene una apariencia idéntica en cualquier instante, aunque no esté estática.
estrella de neutrones: Una estrella fría, mantenida por la repulsión debida al principio de exclusíon entre neutrones (página 119).
fase: En una onda, posición en su ciclo en un instante especificado: una medida de si está en una cresta, en un valle, o en algún punto entre ellos.
fotón: Un cuanto de luz.
frecuencia: Para una onda, número de ciclos completos por segundo.
fuerza nuclear débil: La segunda más débil de las cuatro fuerzas fundamentales, con un alcance muy corto. Afecta a todas las partículas materiales, pero no a las partícuasl portadoras de fuerzas (página 103).
fuerza electromagnética: La que se produce entre partículas con carga eléctrica, la segunda más fuerte de las cuatro fuerzas fundamentales (página 102).
fusión nuclear: Proceso en el que dos núcleos chocan y se funden para formar un único núcleo más pesado.
geodésica: El camino más corto (o más largo) entre dos puntos. (página 51).
horizonte de sucesos: Frontera de un agujero negro (página 121 y 125).
interacción nuclear fuerte: La más fuerte de las cuatro fuerzas fundamentales y la que tiene el alcance menor de todas. Mantiene juntos a los quarks dentro de los protones y los neutrones y une los protones y los neutrones para formar los núcleos de los átomos (página 105).
límite de Chandrasekhar: Máxima masa posible de una estrella fría estable, por encima de la cual, tiene que colapsar a un agujero negro (página 118-119).
longitud de onda: En una onda, distancia entre  dos valles o dos crestas adyacentes.
masa: Cantidad de materia de un cuerpo; su inercia o resistencia a la aceleración.
mecánica cuántica: Teoría desarrollada a partir del principio cuántico de Planck y del principio de incertidumbre de Heisenberg (capítulo 4).
neutrino: Partícula material elemental extremadamente ligera (posiblemente sin masa), que se ve afectada solamente por la fuerza débil y la gravedad.
neutrón: Partícula sin carga, muy similar al protón que representa aproximadamnete la mitad de las partículas en el núcleo de la mayoría de los átomos (página 95).
núcleo: Parte central del átomo, que consta sólo de protones y neutrones, mantenidos juntos por la interacción fuerte.
partícula elemental: La que se cree que no puede existir subdividida.
partícula virtual: En mecánica cuántica, partícula que no puede ser nunca detectada directamente, pero cuya existencia sí tiene efectos medibles (página 100-101).
peso: La fuerza ejercida sobre un cuerpo por un campo gravitatorio. Es proporcional, pero no igual, a su masa.
positrón: la antipartícula (cargada positivamente) del electrón.
principio antrópico: Vemos el universo de la forma que es porque, si fuese diferente no estaríamos aquí para observarlos (página 166).
principio cuántico de Planck: La idea de que la luz (o cualquier otra onda clásica) pueda ser emitida o absorbida solamente en cuantos discretos, cuya energía es proporcional a la frecuencia (página 82).
principio de exclusión: Dos partículas de espín 1/2 identicas no pueden tener (dentro de los límites establecidos por el principio de incertidumbre) la misma posición y la misma velocidad (página 98).
principio de incertidumbre: Nunca se puede estar totalmente seguro acerca de la posición y velocidad de una partícula; cuanto con más exactitud se conozca una de ellas con menos precisión puede conocerse la otra (página 82).
proporcional: "X es proporcional a Y" significa que cuando Y se multiplica por cualquier número, lo mismo le ocurre a X. "X es inversamente proporcional a Y" significa que cuando Y se multiplica por cualquier número, X de divide por ese número.
protón: Cada una de las partículas cargadas positivamente que constituyen aproximadamente la mitad de las partículas en el núcleo de la mayoría de los átomos (página 95).
quark: Partícula elemental (cargada) que siente la interacción fuerte. Protones y neutrones están compuestos cada uno por tres quarks (página 95).
radar: Sistema que emplea pulsos de ondas de radio para detectar la posición de objetos, midiendo el tiempo que un único pulso tarda en alcanzar el objeto y ser reflejado.
radiación de fondo de microondas: La procedente del brillo del universo primitivo caliente, en la actualidad tan fuertemente desplazada hacia el rojo que no aparece como luz, sino como microondas (ondas de radio con una longitud de onda de unos pocos centímetros) (página 68).
radiactividad: Descomposición espontánea de un núcleo atómico en otro.
rayo gamma: Ondas electromagnéticas de longitud de onda muy corta, producidas en la desintegración radioactiva o por colisiones de partículas elementales.
relatividad especial: Teoría de Einstein basada en que las leyes de la ciencia deben ser las mismas para todos los observadores que se mueven libremente, no importa cual sea su velocidad (página 50).
relatividad general: Teoría de Einstein basada en que las leyes de la ciencia deben ser las mismas para todos los observadores no importa como se estén moviendo. Explica la fuerza de la gravedad en términos de la curvatura de un espacio-tiempo de cuatro dimensiones (página 51).
segundo-luz (año-luz): Distancia recorrida por la luz en un segundo (o en un año).
singularidad: Un punto en el espacio-tiempo en el  cual la curvatura del espacio-tiempo se hace infinita (página  73).
singularidad desnuda: Singularidad del espacio-tiempo no rodeada por  un agujero negro (página 124).
suceso: Un punto en el espacio-tiempo, especificado por su tiempo y su lugar (página 44).
teorema de la singularidad: El que demuestra que tiene que existir una singularidad en determinadas circunstancias; en particular, que el universo tuvo que haber comenzado con una singularidad (páginas 76-78).
teorías de gran unificación (TGU): Las que unifican las fuerzas electromagnéticas, fuerte y débil (página 106).
tiempo imaginario: Tiempo medido utilizando números imaginarios (página 178).


 


ÍNDICE

AGRADECIMIENTOS.........................................................................................................
INTRODUCCIÓN.................................................................................................................
Capítulo 1 NUESTRA IMAGEN DEL UNIVERSO............................................................
Capítulo 2 ESPACIO Y TIEMPO.........................................................................................
Capítulo 3 EL UNIVERSO EN EXPANSIÓN.....................................................................
Capítulo 4 EL PRINCIPIO DE INCERTIDUMBRE..........................................................
Capítulo 5 LAS PARTÍCULAS ELEMENTALES Y LAS FUERZAS DE LA NATURALEZA
Capítulo 6 LOS AGUJEROS NEGROS..............................................................................
Capítulo 7 LOS AGUJEROS NEGROS NO SON TAN NEGROS....................................
Capítulo 8 EL ORIGEN Y EL DESTINO DEL UNIVERSO.............................................
Capítulo 9 LA FLECHA DEL TIEMPO.............................................................................
Capítulo 10 LA UNIFICACIÓN DE LA FÍSICA...............................................................
Capítulo 11 CONCLUSIÓN................................................................................................
ALBERT EINSTEIN...........................................................................................................
GALILLEO GALILEI.........................................................................................................
ISAAC NEWTON...............................................................................................................
GLOSARIO.........................................................................................................................
ÍNDICE ALFABÉTICO......................................................................................................

 

 

Fuente del documento: http://www.metodosytecnicas.com/uploads/tiempo.doc

Sitio para visitar: http://www.metodosytecnicas.com/

Autor del texto: no especificado en el documento de origen o se indique en el texto

Las letras son propiedad de sus respectivos autores y les damos las gracias por la oportunidad que nos brindan para conocer sus textos libres para fines ilustrativos y educativos. Si usted es el autor del texto y que está interesado para solicitar la eliminación del texto o la inserción de otra información envíe un correo electrónico después de que los controles adecuados que va a satisfacer su solicitud tan pronto como sea posible.

 

Historia del tiempo Stephen Hawking resumen

 

 

Los resúmenes, toma nota de los textos que figuran en nuestra página web se ponen a disposición de forma gratuita con fines didácticos de la ilustración, científica, social, civil y cultural a todos los posibles interesados de acuerdo con el concepto de uso justo, y con el 'objetivo de cumplimiento de la Directiva Europea 2001/29 / CE y del «arte. 70 de la ley 633/1941 sobre derechos de autor

La información médica y de la salud en este sitio es de carácter general y para propósitos informativos solamente y por lo tanto no puede en ningún caso sustituir el consejo de un médico (o un autorizado legalmente a la profesión).

 

Historia del tiempo Stephen Hawking resumen

 

 

Argumentos

Condiciones de uso, privacidad y las cookies

Contactos

Buscar en este sitio

 

 

Historia del tiempo Stephen Hawking resumen