No soy muy dado a usar este blog como púlpito para castigar a los diversos herejes anticientíficos que pululan por nuestra sociedad. Ya existen muchas y mejores bitácoras dedicadas a tal noble fin. Pero hoy voy a hacer una excepción con la página ¿Qué es la homeopatía?, una iniciativa destinada a agitar alguna que otra conciencia pseudocientífica. Puede que la homeopatía no sea la pseudociencia más peligrosa. Al fin y al cabo, sólo puede ser ejercida por médicos titulados (en caso contrario estaríamos hablando de un delito), pero sí que es la que goza de mayor prestigio en la actualidad, precisamente porque los homeópatas son médicos profesionales.
Por eso mismo representa un peligro de primer orden y debe ser combatida de forma enérgica. En su momento, los colegios de médicos vieron en la homeopatía una maravillosa forma de controlar el intrusismo de sanadores y demás delincuentes sanitarios al mismo tiempo que ampliaban las fronteras laborales de los colegiados. Desgraciadamente, está claro que se les ha ido de las manos. Utilizando la homeopatía como base y excusa, en los últimos años hemos visto la proliferación de varias terapias esotéricas (flores de Bach, acupuntura, etc.) ejercidas por profesionales de la sanidad. Lejos de servir como un dique de contención ante la anticiencia, la práctica de la homeopatía se ha revelado un verdadero caballo de Troya que ha permitido el avance de creencias magufas en muchos ambientes académicos.
Cada uno es libre de creer en cualquier superchería y gastarse el dinero en lo que quiera, pero no es de recibo que las instituciones públicas apoyen y subvencionen disciplinas pseudocientíficas. Porque unas administraciones que son incapaces de reconocer la diferencia entre ciencia y pseudociencia representan un gran peligro para toda la sociedad, especialmente a largo plazo.
El gran problema de "la comunidad escéptica" es que suele limitarse a predicar a los creyentes. Si estás leyendo estas líneas, es más que probable que pienses que la homeopatía es una pseudociencia sin ninguna base científica, así que no voy a gastar más tiempo reforzando tus convicciones. Pero si no es el caso, por favor, dirígete a este enlace, lee lo que allí pone, busca más información por la red y...piensa.
Showing posts with label Física. Show all posts
Showing posts with label Física. Show all posts
Tuesday, November 2, 2010
Monday, October 25, 2010
¿La materia oscura al fin?
La materia oscura forma el 23% de nuestro universo. Sabemos que está ahí y podemos comprobar sus efectos a grandes escalas, pero nadie ha conseguido saber de qué está hecha. Nadie. Ni los numerosos detectores creados ex profeso, ni los gigantescos aceleradores de partículas han aportado una prueba concluyente sobre su naturaleza.
O quizás las evidencias han estado todo este tiempo en los datos recogidos por alguno de los numerosos instrumentos que han investigado este enigma. Y eso es lo que parecen haber encontrado Dan Hooper y Lisa Goodenough (menudo apellido, añado yo) analizando los datos del telescopio espacial de rayos gamma Fermi (GLAST). Hooper es un científico que trabaja en el acelerador de partículas Fermilab y decidió usar la base de datos pública del observatorio de la NASA para estudiar este misterio.
Satélite Fermi (NASA).
Según la mayoría de modelos, las partículas de materia oscura -sean lo que sean- son sus propias antipartículas, es decir, si colisionan entre sí deberán desintegrarse generando rayos gamma y otras partículas. Es por esto que uno de los métodos para detectar la materia oscura consiste en observar los rayos gamma que vienen del centro de nuestra galaxia. Debido a la mayor densidad de materia oscura en esa zona, el número de las colisiones debe ser mayor, por lo que cabría esperar un exceso de radiación gamma u otras partículas proveniente de esa zona.
Y, efectivamente, el análisis de los datos de Fermi por Hooper y Goodenough detectó un exceso de rayos gamma originarios del centro galáctico consistentes con una partícula de materia oscura de tipo WIMP con una masa de 7,3-9,2 GeV (unas ocho veces más pesada que el protón). Esta masa concuerda con varios modelos propuestos de materia oscura anteriores, como el neutralino. No es la primera vez que se detecta un exceso de rayos gamma o partículas provenientes del centro de la Vía Láctea (¿se acuerdan de PAMELA o ATIC?), aunque los resultados de otras ocasiones podrían explicarse mediante fuentes naturales. En este caso, parece que la emisión de rayos gamma de los púlsares (estrellas de neutrones) o de los protones de los rayos cósmicos no se ajustan a los datos observados.

Espectro energético del exceso de rayos gamma (obsérvese las enormes barras de error a altas energías). La línea sólida en el espectro de la izquierda es el espectro de rayos gamma generado por un púlsar, las principales fuentes de rayos gamma en esta zona del espectro. La línea del espectro de la derecha es el espectro de desintegración de piones debido a los protones de los rayos cósmicos galácticos. Ninguno de los dos casos explica el exceso observado (Hooper et al.).
Pero no cantemos victoria aún. El exceso de rayos gamma de los datos de Fermi también podría ser debido a una fuente astronómica natural o a un defecto en el calibrado de los datos. Para resolver el misterio necesitamos -además de observaciones adicionales- observar la radiación sincrotrón generada por los electrones creados a partir de la aniquilación de las WIMPs. Si Hooper tiene razón, la partícula de materia oscura se desintegrará en tauones, que a su vez darían lugar a electrones que podrían ser acelerados por el campo magnético galáctico. Estos electrones emitirían radiación sincrotrón con un pico en 23 GHz. La "niebla" observada por el satélite WMAP podría ser una evidencia de la existencia de esta radiación.

La niebla de WMAP, ¿evidencia de la radiación sincrotrón generada por la aniquilación de materia oscura en el centro de nuestra galaxia?(fuente).
Todavía queda mucho para confirmar este descubrimiento, pero quizás hoy estamos un paso más cerca de saber de qué está hecha la cuarta parte del universo.
Más información:
O quizás las evidencias han estado todo este tiempo en los datos recogidos por alguno de los numerosos instrumentos que han investigado este enigma. Y eso es lo que parecen haber encontrado Dan Hooper y Lisa Goodenough (menudo apellido, añado yo) analizando los datos del telescopio espacial de rayos gamma Fermi (GLAST). Hooper es un científico que trabaja en el acelerador de partículas Fermilab y decidió usar la base de datos pública del observatorio de la NASA para estudiar este misterio.

Satélite Fermi (NASA).
Según la mayoría de modelos, las partículas de materia oscura -sean lo que sean- son sus propias antipartículas, es decir, si colisionan entre sí deberán desintegrarse generando rayos gamma y otras partículas. Es por esto que uno de los métodos para detectar la materia oscura consiste en observar los rayos gamma que vienen del centro de nuestra galaxia. Debido a la mayor densidad de materia oscura en esa zona, el número de las colisiones debe ser mayor, por lo que cabría esperar un exceso de radiación gamma u otras partículas proveniente de esa zona.
Y, efectivamente, el análisis de los datos de Fermi por Hooper y Goodenough detectó un exceso de rayos gamma originarios del centro galáctico consistentes con una partícula de materia oscura de tipo WIMP con una masa de 7,3-9,2 GeV (unas ocho veces más pesada que el protón). Esta masa concuerda con varios modelos propuestos de materia oscura anteriores, como el neutralino. No es la primera vez que se detecta un exceso de rayos gamma o partículas provenientes del centro de la Vía Láctea (¿se acuerdan de PAMELA o ATIC?), aunque los resultados de otras ocasiones podrían explicarse mediante fuentes naturales. En este caso, parece que la emisión de rayos gamma de los púlsares (estrellas de neutrones) o de los protones de los rayos cósmicos no se ajustan a los datos observados.

Espectro energético del exceso de rayos gamma (obsérvese las enormes barras de error a altas energías). La línea sólida en el espectro de la izquierda es el espectro de rayos gamma generado por un púlsar, las principales fuentes de rayos gamma en esta zona del espectro. La línea del espectro de la derecha es el espectro de desintegración de piones debido a los protones de los rayos cósmicos galácticos. Ninguno de los dos casos explica el exceso observado (Hooper et al.).
Pero no cantemos victoria aún. El exceso de rayos gamma de los datos de Fermi también podría ser debido a una fuente astronómica natural o a un defecto en el calibrado de los datos. Para resolver el misterio necesitamos -además de observaciones adicionales- observar la radiación sincrotrón generada por los electrones creados a partir de la aniquilación de las WIMPs. Si Hooper tiene razón, la partícula de materia oscura se desintegrará en tauones, que a su vez darían lugar a electrones que podrían ser acelerados por el campo magnético galáctico. Estos electrones emitirían radiación sincrotrón con un pico en 23 GHz. La "niebla" observada por el satélite WMAP podría ser una evidencia de la existencia de esta radiación.

La niebla de WMAP, ¿evidencia de la radiación sincrotrón generada por la aniquilación de materia oscura en el centro de nuestra galaxia?(fuente).
Todavía queda mucho para confirmar este descubrimiento, pero quizás hoy estamos un paso más cerca de saber de qué está hecha la cuarta parte del universo.
Más información:
- Dark Matter Annihilation in The Galactic Center As Seen by the Fermi Gamma Ray Space Telescope, Dan Hooper et al. (ArXiv, octubre 2010).
- Symmetry Breaking.
- Francis th(E) mule Science News.
Friday, June 11, 2010
Canarias desde el Envisat
Sí, ya sé que soy un poco pesado con las imágenes de Canarias desde el espacio, pero bueno, para algo tiene uno un blog, ¿no? En este caso, ahora podemos apreciar esta bella imagen en falso color del archipiélago captada el pasado 6 de junio por el satélite europeo Envisat:

Como suele ser habitual, podemos ver perfectamente el "mar de nubes" que se forma en la zona norte de las islas más altas cuando los vientos alisios sufren el efecto Föhn. Más curiosos son los vórtices von Kármán que genera el relieve de las islas y cuya visión suele generar gran placer a cualquier amante de la física de fluidos.

Como suele ser habitual, podemos ver perfectamente el "mar de nubes" que se forma en la zona norte de las islas más altas cuando los vientos alisios sufren el efecto Föhn. Más curiosos son los vórtices von Kármán que genera el relieve de las islas y cuya visión suele generar gran placer a cualquier amante de la física de fluidos.
Saturday, May 22, 2010
Las supernovas del calcio
En los últimos días ha recorrido la red una importante noticia astronómica: el descubrimiento de un nuevo tipo de supernova.
Para ponernos en situación, recordemos que hay dos clases principales de supernovas. Las del Tipo II (así como las de Tipo Ib y Ic) se crean cuando estrellas supergigantes (más de 8 masas solares) no pueden evitar el colapso del núcleo cuando éste supera la masa de Chandrasekhar. Por otro lado, las de Tipo Ia tienen lugar en sistemas binarios formados por una enana blanca de materia degenerada (principalmente oxígeno y carbono) que orbita junto a otra estrella. Cuando la compañera se convierte en gigante roja, su superficie supera el lóbulo de Roche y vierte materia sobre la enana blanca. Con el tiempo, la masa de la enana blanca supera el Límite de Chandrasekhar y el núcleo se colapsa, produciendo la explosión. Mientras que las supernovas de Tipo II dejan atrás un agujero negro o una estrella de neutrones, las de Tipo Ia no crean por lo general ningún remanente.
Pues bien, ¿cómo sería el nuevo tipo de supernova? Básicamente sería una supernova de Tipo Ia, pero con matices. En este caso tendríamos también un sistema binario formado por una enana blanca y otra estrella, pero, a diferencia del Tipo Ia, la mayor parte de materia que cae sobre la enana blanca sería helio en vez de hidrógeno. Esto se debe a que los vientos estelares han arrancado las capas superiores de la estrella compañera, dejando sólo el núcleo, que presenta mayor densidad de helio. El helio se acumularía sobre la enana blanca y, con el tiempo, se produciría una detonación resultado de la fusión explosiva de los distintos elementos de la pequeña estrella (helio, carbono y oxígeno). Como resultado, se generarían grandes cantidades de calcio y titanio, gran parte del cual sería expulsado al exterior. De hecho, la fuerte abundancia de calcio es la firma espectral de este tipo de supernovas. A diferencia de las SN Tipo Ia, es posible que algunos "trozos" del núcleo de la enana blanca sobreviviesen a la explosión como remanentes, lo que explicaría la poca cantidad de masa expulsada que se puede observar.

Así sería la supernova del nuevo tipo: la enana blanca (izqda.) acreta la materia rica en helio de su compañera hasta que se produce la explosión (Keck Observatory).

Espectro de SN 2005E, el modelo del nuevo tipo de supernovas (Perets et al.).
De confirmarse la existencia de este mecanismo de creación de supernovas, estas explosiones podrían explicar la anómala abundancia de calcio en nuestra región de la galaxia, abundancia que se traduce en un aparente exceso de este elemento en nuestro Sistema Solar y, por extensión, en nuestro planeta y nuestros huesos. De todas formas, a este respecto debemos recordar que este tipo de supernovas no sería el único que permite sintetizar el calcio que encontramos en los organismos terrestres.
La primera supernova de este tipo que se reconoció como tal fue la SN 2005E (en un principio catalogada como del Tipo Ib) y, desde entonces, ya se han asociado a este modelo numerosas explosiones. De hecho, y como suele ser habitual últimamente, esta "noticia" ha saltado a los medios no por su novedad, pues se lleva hablando de las supernovas ricas en calcio desde hace más de cinco años, sino porque recientemente han aparecido artículos en Nature (aquí y aquí) comparando los resultados de las observaciones de varias supernovas de este tipo, observaciones que parecen confirmar la existencia de este nuevo mecanismo de formación de supernovas. Hasta ahora existía una teoría alternativa que relacionaba este tipo de supernovas con las del Tipo II, pero los últimos resultados inclinan la balanza a favor del nuevo modelo con una enana blanca rica en helio.

Supernovas ricas en calcio (Perets et al.).
Más información:
Para ponernos en situación, recordemos que hay dos clases principales de supernovas. Las del Tipo II (así como las de Tipo Ib y Ic) se crean cuando estrellas supergigantes (más de 8 masas solares) no pueden evitar el colapso del núcleo cuando éste supera la masa de Chandrasekhar. Por otro lado, las de Tipo Ia tienen lugar en sistemas binarios formados por una enana blanca de materia degenerada (principalmente oxígeno y carbono) que orbita junto a otra estrella. Cuando la compañera se convierte en gigante roja, su superficie supera el lóbulo de Roche y vierte materia sobre la enana blanca. Con el tiempo, la masa de la enana blanca supera el Límite de Chandrasekhar y el núcleo se colapsa, produciendo la explosión. Mientras que las supernovas de Tipo II dejan atrás un agujero negro o una estrella de neutrones, las de Tipo Ia no crean por lo general ningún remanente.
Pues bien, ¿cómo sería el nuevo tipo de supernova? Básicamente sería una supernova de Tipo Ia, pero con matices. En este caso tendríamos también un sistema binario formado por una enana blanca y otra estrella, pero, a diferencia del Tipo Ia, la mayor parte de materia que cae sobre la enana blanca sería helio en vez de hidrógeno. Esto se debe a que los vientos estelares han arrancado las capas superiores de la estrella compañera, dejando sólo el núcleo, que presenta mayor densidad de helio. El helio se acumularía sobre la enana blanca y, con el tiempo, se produciría una detonación resultado de la fusión explosiva de los distintos elementos de la pequeña estrella (helio, carbono y oxígeno). Como resultado, se generarían grandes cantidades de calcio y titanio, gran parte del cual sería expulsado al exterior. De hecho, la fuerte abundancia de calcio es la firma espectral de este tipo de supernovas. A diferencia de las SN Tipo Ia, es posible que algunos "trozos" del núcleo de la enana blanca sobreviviesen a la explosión como remanentes, lo que explicaría la poca cantidad de masa expulsada que se puede observar.

Así sería la supernova del nuevo tipo: la enana blanca (izqda.) acreta la materia rica en helio de su compañera hasta que se produce la explosión (Keck Observatory).

Espectro de SN 2005E, el modelo del nuevo tipo de supernovas (Perets et al.).
De confirmarse la existencia de este mecanismo de creación de supernovas, estas explosiones podrían explicar la anómala abundancia de calcio en nuestra región de la galaxia, abundancia que se traduce en un aparente exceso de este elemento en nuestro Sistema Solar y, por extensión, en nuestro planeta y nuestros huesos. De todas formas, a este respecto debemos recordar que este tipo de supernovas no sería el único que permite sintetizar el calcio que encontramos en los organismos terrestres.
La primera supernova de este tipo que se reconoció como tal fue la SN 2005E (en un principio catalogada como del Tipo Ib) y, desde entonces, ya se han asociado a este modelo numerosas explosiones. De hecho, y como suele ser habitual últimamente, esta "noticia" ha saltado a los medios no por su novedad, pues se lleva hablando de las supernovas ricas en calcio desde hace más de cinco años, sino porque recientemente han aparecido artículos en Nature (aquí y aquí) comparando los resultados de las observaciones de varias supernovas de este tipo, observaciones que parecen confirmar la existencia de este nuevo mecanismo de formación de supernovas. Hasta ahora existía una teoría alternativa que relacionaba este tipo de supernovas con las del Tipo II, pero los últimos resultados inclinan la balanza a favor del nuevo modelo con una enana blanca rica en helio.

Supernovas ricas en calcio (Perets et al.).
Más información:
- A faint type of supernova from a white dwarf with a helium-rich companion, Perets et al. (Nature, 20 mayo 2010).
- A new type of stellar explosion, Perets et al. (junio 2009).
- A massive star origin for an unusual helium-rich supernova in an elliptical galaxy, Kawabata et al. (revisado en marzo de 2010).
- Publicado en Nature: La supernova SN 2005e no encaja entre los tipos ya conocidos, Francis (th)E Mule.
- Possible new type of supernovae puts calcium in your bones, Keck Observatory.
Friday, April 30, 2010
La materia oscura y el hielo de los asteroides
Como sabrán los que leen este blog de vez en cuando, los detalles de la divulgación de ciertas noticias científicas me fascinan. Es curioso cómo noticias anodinas son elevadas a la categoría de grandes descubrimientos científicos y sin embargo otras pasan completamente desapercibidas. Otras muchas son distorsionadas hasta terminar siendo irreconocibles y algunas son rescatadas de los baúles de las hemerotecas por causas que se me escapan.
Hoy me gustaría comentar un par de noticias que han recorrido la red a lomo de twiteos, feeds y demás exabruptos 2.0. La primera es la que tiene que ver con el descubrimiento de hielo fresco en el asteroide 24 Themis, aparecido en Nature. El descubrimiento es importante por inesperado, ya que para explicar la presencia de hielo puro en la superficie deben invocarse mecanismos erosivos (micrometeoritos) poco comprendidos hasta la fecha, ya que si no, debido a la distancia a la que se encuentra Themis del Sol, el hielo se habría sublimado en poco tiempo. Hasta aquí todo fantástico, pero el problema surge cuando leemos titulares del estilo de "los astrónomos descubren el primer asteroide cubierto de hielo", "se descubre un asteroide de materia orgánica y hielo" o "se descubre un asteroide de hielo que podría explicar el origen de la vida en la Tierra".
A ver, cualquiera que se informe un poco sobre los cuerpos menores del Sistema Solar (¿Wikipedia?) sabrá que no hay una línea clara que separe los asteroides de los cometas. Esa imagen mental que tenemos en la que los asteroides son cuerpos rocosos y los cometas bolas de hielo es acertada pero poco precisa. Existe todo un continuo de posibles objetos, con los asteroides "metálicos" en un extremo y los cometas helados en el otro. La presencia de materia orgánica (condritas carbonaceas) y hielos (no sólo de agua) en asteroides es algo de sobras conocido y muy común a medida que nos alejamos del Sol, aunque bien es cierto que en el caso del hielo "asteroidal" sólo se ha podido detectar desde la Tierra recientemente. Sin embargo, para la noticia de 24 Themis, todos los MCW (Mecanismos de Comprobación de la Wikipedia) fallaron uno tras otro, generándose una bola de nieve -nunca mejor dicho- que iba distorsionando y agigantando la noticia a cada titular. Lo sorprendente del caso de 24 Themis no es el hielo -y menos aún la materia orgánica-, sino la pureza del mismo teniendo en cuenta la distancia a la que se encuentra el asteroide. Pero lo más fuerte del caso es que no se trata siquiera de un descubrimiento nuevo, ya que los datos de 24 Themis se conocieron el año pasado, aunque es ahora cuando aparece el artículo en Nature. Una vez más, nos enfrentamos al Efecto Hielo (TM), que es aquél que tiene lugar cada vez que una noticia astronómica lleva asociada la palabra "hielo" o "agua". ¿Cuándo nos daremos cuenta de una vez por todas que el agua es uno de las sustancias más comunes del Sistema Solar?
La otra noticia que me ha sorprendido por su tratamiento mediático tiene que ver con la materia oscura, "eso" que compone el 32% de nuestro Universo y que no tenemos ni idea qué es. No en vano, muchos piensan que la materia oscura es el principal desafío de la física y la cosmología del siglo XXI. En cualquier caso, son muchos los experimentos en marcha para detectar partículas oscuras. Uno de ellos, DAMA, anunció recientemente que habían detectado una pequeña modulación anual en sus resultados preliminares, lo que implica que el movimiento de la Tierra alrededor del Sol podría estar influyendo en el flujo de partículas oscuras que llegan al experimento. Hasta aquí todo muy interesante, aunque en absoluto concluyente. Y es entonces cuando leo titulares como "descubierta la materia oscura" o "resuelto el misterio de la materia oscura". Es cierto que esta noticia no ha tenido la repercusión del hielo de Themis, pero no deja de ser sorprendente cómo se ha transformado la información inicial, especialmente teniendo en cuenta que, aún tomando como buenos los resultados preliminares de DAMA, todavía queda mucho para saber qué tipo de partículas forman la materia oscura. De hecho, los resultados podrían explicarse con dos tipos de partículas de características opuestas, unas masivas (más de 100 GeV) y otras muy ligeras (5-10 GeV). Aunque el marco teórico favorece a las partículas oscuras masivas, otros experimentos (CRESST) parecen descartarlas. En definitiva, nunca antes hemos estado más cerca de descubrir por primera vez alguna de estas partículas misteriosas, pero al mismo tiempo los resultados experimentales ponen en jaque a la inmensa mayoría de modelos teóricos. Por supuesto, una vez detectadas, habría que determinar cuál es su naturaleza (neutralinos, axiones, etc.).
Resumiendo, y aunque pueda ser paradójico, en esta era de la información instantánea cada vez se hace más difícil separar noticias realmente importantes de aquellas que no lo son tanto.
(Por cierto, el recomendable blog Experientia Docet también se hace eco de la noticia del hielo de 24 Themis).

¡Asteroides!.
Hoy me gustaría comentar un par de noticias que han recorrido la red a lomo de twiteos, feeds y demás exabruptos 2.0. La primera es la que tiene que ver con el descubrimiento de hielo fresco en el asteroide 24 Themis, aparecido en Nature. El descubrimiento es importante por inesperado, ya que para explicar la presencia de hielo puro en la superficie deben invocarse mecanismos erosivos (micrometeoritos) poco comprendidos hasta la fecha, ya que si no, debido a la distancia a la que se encuentra Themis del Sol, el hielo se habría sublimado en poco tiempo. Hasta aquí todo fantástico, pero el problema surge cuando leemos titulares del estilo de "los astrónomos descubren el primer asteroide cubierto de hielo", "se descubre un asteroide de materia orgánica y hielo" o "se descubre un asteroide de hielo que podría explicar el origen de la vida en la Tierra".
A ver, cualquiera que se informe un poco sobre los cuerpos menores del Sistema Solar (¿Wikipedia?) sabrá que no hay una línea clara que separe los asteroides de los cometas. Esa imagen mental que tenemos en la que los asteroides son cuerpos rocosos y los cometas bolas de hielo es acertada pero poco precisa. Existe todo un continuo de posibles objetos, con los asteroides "metálicos" en un extremo y los cometas helados en el otro. La presencia de materia orgánica (condritas carbonaceas) y hielos (no sólo de agua) en asteroides es algo de sobras conocido y muy común a medida que nos alejamos del Sol, aunque bien es cierto que en el caso del hielo "asteroidal" sólo se ha podido detectar desde la Tierra recientemente. Sin embargo, para la noticia de 24 Themis, todos los MCW (Mecanismos de Comprobación de la Wikipedia) fallaron uno tras otro, generándose una bola de nieve -nunca mejor dicho- que iba distorsionando y agigantando la noticia a cada titular. Lo sorprendente del caso de 24 Themis no es el hielo -y menos aún la materia orgánica-, sino la pureza del mismo teniendo en cuenta la distancia a la que se encuentra el asteroide. Pero lo más fuerte del caso es que no se trata siquiera de un descubrimiento nuevo, ya que los datos de 24 Themis se conocieron el año pasado, aunque es ahora cuando aparece el artículo en Nature. Una vez más, nos enfrentamos al Efecto Hielo (TM), que es aquél que tiene lugar cada vez que una noticia astronómica lleva asociada la palabra "hielo" o "agua". ¿Cuándo nos daremos cuenta de una vez por todas que el agua es uno de las sustancias más comunes del Sistema Solar?
La otra noticia que me ha sorprendido por su tratamiento mediático tiene que ver con la materia oscura, "eso" que compone el 32% de nuestro Universo y que no tenemos ni idea qué es. No en vano, muchos piensan que la materia oscura es el principal desafío de la física y la cosmología del siglo XXI. En cualquier caso, son muchos los experimentos en marcha para detectar partículas oscuras. Uno de ellos, DAMA, anunció recientemente que habían detectado una pequeña modulación anual en sus resultados preliminares, lo que implica que el movimiento de la Tierra alrededor del Sol podría estar influyendo en el flujo de partículas oscuras que llegan al experimento. Hasta aquí todo muy interesante, aunque en absoluto concluyente. Y es entonces cuando leo titulares como "descubierta la materia oscura" o "resuelto el misterio de la materia oscura". Es cierto que esta noticia no ha tenido la repercusión del hielo de Themis, pero no deja de ser sorprendente cómo se ha transformado la información inicial, especialmente teniendo en cuenta que, aún tomando como buenos los resultados preliminares de DAMA, todavía queda mucho para saber qué tipo de partículas forman la materia oscura. De hecho, los resultados podrían explicarse con dos tipos de partículas de características opuestas, unas masivas (más de 100 GeV) y otras muy ligeras (5-10 GeV). Aunque el marco teórico favorece a las partículas oscuras masivas, otros experimentos (CRESST) parecen descartarlas. En definitiva, nunca antes hemos estado más cerca de descubrir por primera vez alguna de estas partículas misteriosas, pero al mismo tiempo los resultados experimentales ponen en jaque a la inmensa mayoría de modelos teóricos. Por supuesto, una vez detectadas, habría que determinar cuál es su naturaleza (neutralinos, axiones, etc.).
Resumiendo, y aunque pueda ser paradójico, en esta era de la información instantánea cada vez se hace más difícil separar noticias realmente importantes de aquellas que no lo son tanto.
(Por cierto, el recomendable blog Experientia Docet también se hace eco de la noticia del hielo de 24 Themis).

¡Asteroides!.
Tuesday, April 27, 2010
Iluminando al Lunojod 1
Curiosa noticia: parece que por fin se ha conseguido iluminar el retrorreflector láser situado en el Lunojod 1. Durante la carrera lunar, Estados Unidos y la Unión Soviética dejaron en la superficie de nuestro satélite un total de cinco reflectores de este tipo. Tres de ellos -denominados LRR, Laser Ranging Retro-Reflector- fueron desplegados por los astronautas de las misiones Apolo 11, 14 y 15, mientras que otros dos iban a bordo de los dos Lunojod (Luna 17 y Luna 21) lanzados por la URSS en 1970 y 1973. Hasta ahora, los observatorios terrestres habían utilizado todos los reflectores excepto el del Lunojod 1. Aunque inicialmente este reflector funcionó perfectamente tras su aterrizaje, después de perder el contacto con el vehículo el 14 de septiembre de 1971 todos los intentos por iluminarlo desde la Tierra habían fracasado debido a que la posición exacta del vehículo era desconocida. Sin embargo, recientemente la sonda LRO (Lunar Reconnaissance Orbiter) pudo localizar a los dos vehículos automáticos soviéticos sobre la Luna, lo que ha permitido volver a iluminar, esta vez con éxito, el reflector del Lunojod 1. El equipo que lo ha logrado recibe el apropiado nombre de APOLLO (Apache Point Observatory Lunar Laser-ranging Operation), que actualmente utiliza el telescopio de 3,5 metros del Observatorio Apache Point, Nuevo México, para iluminar los reflectores lunares. Los investigadores de APOLLO llevaban dos años buscando infructuosamente al Lunojod 1 emitiendo pulsos láser sobre la región en la que alunizó el Lunojod 1. Finalmente, gracias a los datos del LRO, el pasado 22 de abril lograron recibir un pulso láser reflejado desde el aparato.
Los retrorreflectores láser de los Lunojod eran de construcción francesa y estaban formados por 14 prismas de 11 x 44 x 19 cm. Debido a su tamaño y diseño, estos reflectores son más efectivos que los de los Apolo durante la noche lunar, mientras que durante el día la situación se invierte. Los LRRR de los Apolo incluían prismas más pequeños, cien en el caso del Apolo 11 y 14, y trescientos en el Apolo y 15. El LRRR del Apolo 15 era unas tres veces más grande que los otros reflectores del Apolo.
Son necesarios un mínimo de tres reflectores para determinar la situación en el espacio de la Luna, cuatro para calcular la distorsión de las fuerzas de marea y cinco para aumentar la precisión de las medidas, de ahí el interés en localizar el reflector del Lunojod 1. En un principio, los experimentos con reflectores láser permitieron medir la distancia a nuestro satélite con una precisión de un milímetro, demostraron que la Luna se aleja de la Tierra a 38 mm por año y acotaron los modelos del interior lunar. Actualmente, el interés de estos experimentos radica en que pueden poner a prueba determinadas teorías físicas. Por ejemplo, se ha podido determinar que la constante de la gravitación universal (G) es, efectivamente, constante en el tiempo y que no ha variado desde que se apuntó por primera vez un láser al reflector del Apolo 11 en 1969, estableciendo un límite superior para la variación de la constante en 1/1013 al año. También se han comprobado las predicciones de la relatividad general y se han establecido límites a otras teorías. Desde la Tierra, los observatorios pueden determinar la posición de estos reflectores láser con un error de unos pocos centímetros.

Funcionamiento de la iluminación por láser de reflectores en la Luna (APOLLO).

Un láser es enviado hacia los reflectores láser lunares desde el observatorio McDonald (McDonald Observatory).

Lunojod 1 (Luna 17, 1970).

Situación del reflector láser en una maqueta del Lunojod.

El LRRR del Apolo 11 (NASA).



De arriba a abajo: los LRRR del Apolo 11, 14 y 15. El LRRR del Apolo 15 era tres veces más grande que los del Apolo 11 y 14 (NASA).

El Lunojod 1 en la superficie selenita (NASA)


La etapa de descenso del Luna 17 con las huellas del Lunojod 1 (NASA).

Ruta del Lunojod 1 (NASA/planetology.ru).
Los retrorreflectores láser de los Lunojod eran de construcción francesa y estaban formados por 14 prismas de 11 x 44 x 19 cm. Debido a su tamaño y diseño, estos reflectores son más efectivos que los de los Apolo durante la noche lunar, mientras que durante el día la situación se invierte. Los LRRR de los Apolo incluían prismas más pequeños, cien en el caso del Apolo 11 y 14, y trescientos en el Apolo y 15. El LRRR del Apolo 15 era unas tres veces más grande que los otros reflectores del Apolo.
Son necesarios un mínimo de tres reflectores para determinar la situación en el espacio de la Luna, cuatro para calcular la distorsión de las fuerzas de marea y cinco para aumentar la precisión de las medidas, de ahí el interés en localizar el reflector del Lunojod 1. En un principio, los experimentos con reflectores láser permitieron medir la distancia a nuestro satélite con una precisión de un milímetro, demostraron que la Luna se aleja de la Tierra a 38 mm por año y acotaron los modelos del interior lunar. Actualmente, el interés de estos experimentos radica en que pueden poner a prueba determinadas teorías físicas. Por ejemplo, se ha podido determinar que la constante de la gravitación universal (G) es, efectivamente, constante en el tiempo y que no ha variado desde que se apuntó por primera vez un láser al reflector del Apolo 11 en 1969, estableciendo un límite superior para la variación de la constante en 1/1013 al año. También se han comprobado las predicciones de la relatividad general y se han establecido límites a otras teorías. Desde la Tierra, los observatorios pueden determinar la posición de estos reflectores láser con un error de unos pocos centímetros.

Funcionamiento de la iluminación por láser de reflectores en la Luna (APOLLO).

Un láser es enviado hacia los reflectores láser lunares desde el observatorio McDonald (McDonald Observatory).

Lunojod 1 (Luna 17, 1970).

Situación del reflector láser en una maqueta del Lunojod.

El LRRR del Apolo 11 (NASA).



De arriba a abajo: los LRRR del Apolo 11, 14 y 15. El LRRR del Apolo 15 era tres veces más grande que los del Apolo 11 y 14 (NASA).

El Lunojod 1 en la superficie selenita (NASA)


La etapa de descenso del Luna 17 con las huellas del Lunojod 1 (NASA).

Ruta del Lunojod 1 (NASA/planetology.ru).
Tuesday, February 23, 2010
El enigma de los rayos cósmicos
¿Cuál es el origen de los rayos cósmicos energéticos? La mayor parte de rayos cósmicos de baja energía son protones que se originan en nuestra Vía Láctea y que bombardean la Tierra desde todas direcciones, pero de vez en cuando impacta una partícula con energías del orden de 108 TeV (el LHC produce protones con energías de 7 TeV). Estos eventos son muy raros -menos de una partícula por kilómetro cuadrado por siglo-, pero extremadamente interesantes porque proporcionan datos directos sobre su origen, ya que parece que no se encuentran afectados por el campo magnético galáctico. En 2007 parecía que los los datos de 13 de estos eventos observados por el Observatorio Pierre Auger en Argentina habían aclarado el misterio: el origen de estas partículas se encontraba en los núcleos de galaxias. En concreto, se trataba de núcleos de galaxias activas (AGN, Active Galactic Nuclei), algo que ya se sospechaba y que apuntaba a los agujeros negros masivos como fuente última de los rayos cósmicos. Sin embargo, el pasado 16 de febrero en la pasada reunión de la American Physical Society, el propio equipo del Pierre Auger apunta ahora que la correlación no es tan evidente, ya que aparentemente los rayos cósmicos energéticos son núcleos atómicos de hierro en vez de protones, como se esperaba, y que sólo menos del 40% parece originarse en AGN. El problema es que la composición de los rayos cósmicos no se mide directamente, sino empleando detectores que captan la lluvia de partículas resultante del impacto de los rayos cósmicos en la alta atmósfera, de ahí que sea tan difícil resolver este misterio.
Para complicar las cosas, el detector HiRes (High Resolution Fly's Eye), situado en el hemisferio norte, ha concluido que los rayos cósmicos energéticos son protones y que además no provienen de ninguna dirección privilegiada, de modo similar al resto de rayos cósmicos. El misterio continúa.

Esquema de los detectores del Pierre Auger (Pierre Auger).
Más información:
Para complicar las cosas, el detector HiRes (High Resolution Fly's Eye), situado en el hemisferio norte, ha concluido que los rayos cósmicos energéticos son protones y que además no provienen de ninguna dirección privilegiada, de modo similar al resto de rayos cósmicos. El misterio continúa.

Esquema de los detectores del Pierre Auger (Pierre Auger).
Más información:
- Cosmic-ray Theory Unravels.
- Measurement of the Depth of Maximum of Extensive Air Showers above 10^18 eV, The Perre Auger Collaboration (3 febrero 2010).
Monday, February 22, 2010
La velocidad mata
La radiación formada por el viento solar y los rayos cósmicos son una de las principales preocupaciones de cara a los futuros vuelos tripulados por el Sistema Solar. Pero nadie duda de que, con el tiempo, seremos capaces de desarrollar las tecnologías necesarias para movernos por el espacio cercano a la Tierra usando apantallamientos pasivos o activos (campos electromagnéticos). Lo cual no quiere decir que ciertas zonas queden para siempre fuera de nuestro alcance, como por ejemplo, los cinturones de radiación alrededor de Júpiter.
Sin embargo, estas dosis no son nada comparadas con las que sufrirían los primeros seres humanos que se embarquen en un viaje interestelar a gran velocidad. El espacio interestelar es un vacío casi perfecto -de media, con sólo uno o dos átomos de hidrógeno por cada centímetro cúbico- pero William y Arthur Edelstein han calculado que esta escasa densidad sería mortal para un viajero galáctico. Por ejemplo, si quisiéramos recorrer en diez años -teniendo en cuenta la dilatación temporal relativista, se entiende- una distancia similar al radio de la Vía Láctea -unos 50 000 años luz-, deberíamos viajar al 99.999998% de la velocidad de la luz. A esas velocidades, cada átomo de hidrógeno interestelar tendría una energía de 7 TeV (teraelectronvoltios), comparable a la energía que alcanzan los protones en el LHC. Los Edelstein estiman que la tripulación recibiría una dosis de unos diez mil sieverts por segundo, algo impresionante si tenemos en cuenta que la dosis mortal para un ser humano es de unos 6 Sv.
El blindaje poco serviría: una capa de aluminio de 10 cm de espesor sólo bloquearía un 1% de la energía incidente. Y, por supuesto, no podemos aumentar la masa del escudo de forma ilimitada sin incrementar las necesidades energéticas del sistema de propulsión. Además, hay que tener en cuenta la erosión debida al polvo interestelar, que afectaría gravemente a cualquier escudo, un tema recurrente en los estudios dedicados a estudiar la viabilidad de los viajes a otras estrellas. Es por esto que todos los diseños de naves interestelares incluyen un escudo frontal para hacer frente a esta amenaza. De hecho, los aficionados a la ciencia ficción recordarán que la nave Magallanes de la novela Cánticos de la Lejana Tierra de Arthur C. Clarke incluía un escudo de ablación formado por bloques de hielo. Por si fuera poco, además del polvo, los Edelstein han llegado a la conclusión de que el hidrógeno atómico sería capaz de pulverizar la estructura de una nave si viajamos a las velocidades antes mencionadas.
¿Existe alguna solución a este problema? La más obvia consistiría en viajar a velocidades de sólo el 0,1 c (10% de la velocidad de la luz), lo que nos permitiría con suerte viajar a las estrellas más cercanas en el plazo de una vida humana. No obstante, a no ser que la ingeniería genética permita en el futuro que los seres humanos vivan milenios, estas velocidades nos negarían el resto de la Galaxia, aunque siempre podemos usar naves-arca generacionales como alternativa de consolación. Otro sistema podría ser usar láseres para ionizar el hidrógeno interestelar y dirigirlo con la ayuda de campos magnéticos, método propuesto para los estatocolectores Bussard y que está más cerca de la magia ficción que de la ciencia ficción.
De todas formas, teniendo en cuenta lo difícil que está resultando que el ser humano abandone la órbita baja terrestre, es posible que el viaje interestelar sea la menor de nuestras preocupaciones en estos momentos, aunque, ¿podría ser ésta la explicación a la inquietante Paradoja de Fermi?
Al fin y al cabo, no deja de ser una cuestión de escala: el Universo es demasiado grande y nosotros demasiado frágiles y efímeros.

Imagen artística de un estatocolector Bussard (Adrian Mann: This is Rocket Science)
Más información:
Sin embargo, estas dosis no son nada comparadas con las que sufrirían los primeros seres humanos que se embarquen en un viaje interestelar a gran velocidad. El espacio interestelar es un vacío casi perfecto -de media, con sólo uno o dos átomos de hidrógeno por cada centímetro cúbico- pero William y Arthur Edelstein han calculado que esta escasa densidad sería mortal para un viajero galáctico. Por ejemplo, si quisiéramos recorrer en diez años -teniendo en cuenta la dilatación temporal relativista, se entiende- una distancia similar al radio de la Vía Láctea -unos 50 000 años luz-, deberíamos viajar al 99.999998% de la velocidad de la luz. A esas velocidades, cada átomo de hidrógeno interestelar tendría una energía de 7 TeV (teraelectronvoltios), comparable a la energía que alcanzan los protones en el LHC. Los Edelstein estiman que la tripulación recibiría una dosis de unos diez mil sieverts por segundo, algo impresionante si tenemos en cuenta que la dosis mortal para un ser humano es de unos 6 Sv.
El blindaje poco serviría: una capa de aluminio de 10 cm de espesor sólo bloquearía un 1% de la energía incidente. Y, por supuesto, no podemos aumentar la masa del escudo de forma ilimitada sin incrementar las necesidades energéticas del sistema de propulsión. Además, hay que tener en cuenta la erosión debida al polvo interestelar, que afectaría gravemente a cualquier escudo, un tema recurrente en los estudios dedicados a estudiar la viabilidad de los viajes a otras estrellas. Es por esto que todos los diseños de naves interestelares incluyen un escudo frontal para hacer frente a esta amenaza. De hecho, los aficionados a la ciencia ficción recordarán que la nave Magallanes de la novela Cánticos de la Lejana Tierra de Arthur C. Clarke incluía un escudo de ablación formado por bloques de hielo. Por si fuera poco, además del polvo, los Edelstein han llegado a la conclusión de que el hidrógeno atómico sería capaz de pulverizar la estructura de una nave si viajamos a las velocidades antes mencionadas.
¿Existe alguna solución a este problema? La más obvia consistiría en viajar a velocidades de sólo el 0,1 c (10% de la velocidad de la luz), lo que nos permitiría con suerte viajar a las estrellas más cercanas en el plazo de una vida humana. No obstante, a no ser que la ingeniería genética permita en el futuro que los seres humanos vivan milenios, estas velocidades nos negarían el resto de la Galaxia, aunque siempre podemos usar naves-arca generacionales como alternativa de consolación. Otro sistema podría ser usar láseres para ionizar el hidrógeno interestelar y dirigirlo con la ayuda de campos magnéticos, método propuesto para los estatocolectores Bussard y que está más cerca de la magia ficción que de la ciencia ficción.
De todas formas, teniendo en cuenta lo difícil que está resultando que el ser humano abandone la órbita baja terrestre, es posible que el viaje interestelar sea la menor de nuestras preocupaciones en estos momentos, aunque, ¿podría ser ésta la explicación a la inquietante Paradoja de Fermi?
Al fin y al cabo, no deja de ser una cuestión de escala: el Universo es demasiado grande y nosotros demasiado frágiles y efímeros.

Imagen artística de un estatocolector Bussard (Adrian Mann: This is Rocket Science)
Más información:
- Speed Kills: Highly Relativistic Spaceflight Would be Fatal for People and Instruments, William y Arthur Edelstein (Bulletin of the American Physical Society, 2010).
Friday, January 15, 2010
¿Un océano de diamantes en Neptuno?
En este artículo, publicado en Nature Physics, un grupo de investigadores ha sugerido la posibilidad de la existencia de un océano de diamante en el interior de Urano y Neptuno, con icebergs de diamante sólido flotando en la superficie.
Hace décadas que se piensa que en el interior de Júpiter y Saturno podría haber enormes cantidades de diamantes, pero en todo caso estarían en estado sólido. Sin embargo, ahora parece que es posible que el diamante se comporte como un líquido en determinadas condiciones, ya que las transiciones de fase de este estado del carbono no se comprenden todavía muy bien. Hasta ahora se creía que al calentarse, el diamante se transformaba en grafito y sería este estado del carbono el que podría encontrarse en estado líquido y no el diamante. Pero los resultados experimentales parecen demostrar que en determinadas condiciones de presión (11 millones de atmósferas) y temperatura, el diamante se encuentra en estado líquido, condiciones que podrían darse en el interior de los gigantes helados Neptuno y Urano, planetas que tienen además un porcentaje importante de carbono en su composición. Este océano de diamantes podría explicar también el curioso campo magnético que presentan los dos gigantes de hielo.
No es una idea nueva, pero sí es la primera vez que los resultados experimentales parecen avalar esta hipótesis.

Posible estructura interna de Neptuno, sin diamantes.
Hace décadas que se piensa que en el interior de Júpiter y Saturno podría haber enormes cantidades de diamantes, pero en todo caso estarían en estado sólido. Sin embargo, ahora parece que es posible que el diamante se comporte como un líquido en determinadas condiciones, ya que las transiciones de fase de este estado del carbono no se comprenden todavía muy bien. Hasta ahora se creía que al calentarse, el diamante se transformaba en grafito y sería este estado del carbono el que podría encontrarse en estado líquido y no el diamante. Pero los resultados experimentales parecen demostrar que en determinadas condiciones de presión (11 millones de atmósferas) y temperatura, el diamante se encuentra en estado líquido, condiciones que podrían darse en el interior de los gigantes helados Neptuno y Urano, planetas que tienen además un porcentaje importante de carbono en su composición. Este océano de diamantes podría explicar también el curioso campo magnético que presentan los dos gigantes de hielo.
No es una idea nueva, pero sí es la primera vez que los resultados experimentales parecen avalar esta hipótesis.

Posible estructura interna de Neptuno, sin diamantes.
Thursday, December 17, 2009
Culebrón de la materia oscura en el CDMS
Todo comenzó como un rumor: el experimento CDMS (Cryogenic Dark Matter Search) habría detectado posibles partículas de materia oscura. No se trataría de un acontecimiento menor, ya que, teniendo en cuenta que la materia oscura forma casi el 30% del Universo y que no tenemos ni idea de su naturaleza, podríamos estar ante el descubrimiento del siglo en la física teórica. ¿Se había descubierto por fin el neutralino? Ya anteriormente, el análisis preliminar de los resultados del CDMS no había detectado nada. En todo caso, el rumor pronto se extendió por Internet y creció de forma exponencial la expectación ante las conferencias que el equipo del CDMS tenía pensado dar el día 17 de diciembre según los nuevos resultados del experimento (nos lo cuenta aquí Francis the E-mule).
Hoy fue el día grande. Pero tras presentar los nuevos resultados, al final -como se esperaba- la cosa no ha sido para tanto. De los numerosos eventos que ha detectado el experimento, sólo dos, dos, podrían ser compatibles con el choque de una partícula WIMP de materia oscura. De confirmarse, la partícula tendría una masa de 70 GeV, dentro de lo esperado por los modelos teóricos. Pero desgraciadamente, la pobreza de la muestra estadística implica que los resultados podrían ser simplemente ruido instrumental en vez de materia oscura, por lo que los investigadores se han cuidado de no autoproclamarse descubridores de nada. La evidencia sería más sólida de haberse detectado al menos cinco eventos, pero con sólo dos no podemos echar las campanas al vuelo.
EL CDMS (o CDMS II) es un experimento formado por un conjunto de 30 detectores de cristal semiconductor (19 de germanio y 11 de silicio) situados a 800 metros de profundidad en la mina Soudan, en Minesotta (a esa profundidad se evita la interferencia con las partículas de rayos cósmicos). Enfriados a temperaturas cercanas al cero absoluto (0,05 K), con el suficiente tiempo de observación, el CDMS es capaz de detectar partículas de materia oscura fría del tipo WIMP propuestas por la mayor parte de modelos teóricos. Estuvo en funcionamiento entre junio de 2006 y marzo de 2009.
Pues eso, tendremos que seguir esperando para conocer de qué está hecha la mayoría del Universo.

Los eventos de la discordia.

El CDMS.
Más información:
Hoy fue el día grande. Pero tras presentar los nuevos resultados, al final -como se esperaba- la cosa no ha sido para tanto. De los numerosos eventos que ha detectado el experimento, sólo dos, dos, podrían ser compatibles con el choque de una partícula WIMP de materia oscura. De confirmarse, la partícula tendría una masa de 70 GeV, dentro de lo esperado por los modelos teóricos. Pero desgraciadamente, la pobreza de la muestra estadística implica que los resultados podrían ser simplemente ruido instrumental en vez de materia oscura, por lo que los investigadores se han cuidado de no autoproclamarse descubridores de nada. La evidencia sería más sólida de haberse detectado al menos cinco eventos, pero con sólo dos no podemos echar las campanas al vuelo.
EL CDMS (o CDMS II) es un experimento formado por un conjunto de 30 detectores de cristal semiconductor (19 de germanio y 11 de silicio) situados a 800 metros de profundidad en la mina Soudan, en Minesotta (a esa profundidad se evita la interferencia con las partículas de rayos cósmicos). Enfriados a temperaturas cercanas al cero absoluto (0,05 K), con el suficiente tiempo de observación, el CDMS es capaz de detectar partículas de materia oscura fría del tipo WIMP propuestas por la mayor parte de modelos teóricos. Estuvo en funcionamiento entre junio de 2006 y marzo de 2009.
Pues eso, tendremos que seguir esperando para conocer de qué está hecha la mayoría del Universo.

Los eventos de la discordia.

El CDMS.
Más información:
- Results from the Final Exposure of the CDMS II Experiment.
- Latest Results in the Search for Dark Matter.
- Dark matter experiment results announced.
- Experiment detects particles of dark matter, maybe.
- Dark Matter Detected, or Not? Live Blogging the Seminar.
- Jodi Cooley del CDMS: observados dos eventos tipo WIMP de 100 GeV con certeza al 77%.
Friday, December 11, 2009
El bosón de Higgs y la materia oscura
Tras la reciente puesta en servicio del LHC y ahora que ya es oficialmente el acelerador más energético del mundo, el primer gran acontecimiento científico que todo el mundo espera que protagonice esta maquina es la detección del bosón de Higgs. El Higgs es la última de las partículas básicas del modelo estándar que queda por descubrir y sería el causante de la mayor parte de la masa de los objetos que nos rodean, de ahí tanto interés. Pero, ¿y si se descubriese antes en el espacio?¿Sería posible?
Pues sí, de acuerdo con una teoría propuesta por Marco Taoso, un investigador del CERN. Según Taoso, el bosón de Higgs podría detectarse en el espacio mediante satélites de alta energía, como el Fermi (GLAST). La fuente de bosones de Higgs serían las colisiones de hipotéticas partículas de materia oscura en nuestra galaxia. Es probable que, de existir, estas partículas sean sus propias antipartículas, por lo que cada vez que se encuentran se aniquilan mutuamente, generando rayos gamma y partículas energéticas. Entre estas partículas podría estar el bosón de Higgs. No es la primera vez que se propone algo semejante, pero Taoso y su equipo han explicado en un reciente paper (titulado apropiadamente Higgs in space!) cómo podríamos ver la firma espectral del Higgs en la radiación gamma que llega hasta los detectores orbitales. Incluso podría ser visible con los telescopios Cherenkov terrestres como el MAGIC.
Para ello, el modelo asume que las partículas de materia oscura -denominadas en el argot astrofísico de forma genérica como WIMPs (Weakly-Interacting Massive Particles, "partículas masivas débilmente interactivas")- deberían tener una masa de 100-170 GeV y un comportamiento determinado respecto a la interacción electrodébil (la unión del electromagnetismo y la fuerza nuclear débil a altas energías) y, en concreto, un acoplamiento con el quark cima (t). Dependiendo de la naturaleza exacta de la WIMP, en algunas aniquilaciones se debería producir un fotón gamma junto con otra partícula, que podría ser el Higgs. En cada caso, la energía del fotón dependería de la naturaleza de la otra partícula, permitiendo detectar de forma indirecta el bosón de Higgs al analizar la radiación que llega a la Tierra procedente de estas aniquilaciones.
Aunque la teoría sea correcta, el problema consiste en detectar la firma espectral del Higgs en los fotones gamma y distinguirla de otras partículas, algo que este estudio demuestra que es posible, aunque complicado, con la tecnología actual. Pero como no hay nada que perder y sí mucho que ganar (puede que un premio Nobel), varios equipos ya se han puesto manos a la obra para analizar la radiación gamma difusa de la Vía Láctea y ver si pueden detectar líneas espectrales que correspondan al bosón de Higgs (o a otras partículas), lo que a su vez permitiría conocer mucho mejor la naturaleza de la materia oscura, materia que no olvidemos forma aproximadamente el 30% de nuestro Universo.
(por cierto, hablando de Fermi, este satélite ha detectado recientemente la fuente continua de rayos gamma más intensa: una galaxia activa -el blazar 3C 454.3-, situada a siete mil millones de años luz)


¿Podrían el Fermi (arriba) o el MAGIC adelantarse al LHC en la búsqueda del Higgs?
Pues sí, de acuerdo con una teoría propuesta por Marco Taoso, un investigador del CERN. Según Taoso, el bosón de Higgs podría detectarse en el espacio mediante satélites de alta energía, como el Fermi (GLAST). La fuente de bosones de Higgs serían las colisiones de hipotéticas partículas de materia oscura en nuestra galaxia. Es probable que, de existir, estas partículas sean sus propias antipartículas, por lo que cada vez que se encuentran se aniquilan mutuamente, generando rayos gamma y partículas energéticas. Entre estas partículas podría estar el bosón de Higgs. No es la primera vez que se propone algo semejante, pero Taoso y su equipo han explicado en un reciente paper (titulado apropiadamente Higgs in space!) cómo podríamos ver la firma espectral del Higgs en la radiación gamma que llega hasta los detectores orbitales. Incluso podría ser visible con los telescopios Cherenkov terrestres como el MAGIC.
Para ello, el modelo asume que las partículas de materia oscura -denominadas en el argot astrofísico de forma genérica como WIMPs (Weakly-Interacting Massive Particles, "partículas masivas débilmente interactivas")- deberían tener una masa de 100-170 GeV y un comportamiento determinado respecto a la interacción electrodébil (la unión del electromagnetismo y la fuerza nuclear débil a altas energías) y, en concreto, un acoplamiento con el quark cima (t). Dependiendo de la naturaleza exacta de la WIMP, en algunas aniquilaciones se debería producir un fotón gamma junto con otra partícula, que podría ser el Higgs. En cada caso, la energía del fotón dependería de la naturaleza de la otra partícula, permitiendo detectar de forma indirecta el bosón de Higgs al analizar la radiación que llega a la Tierra procedente de estas aniquilaciones.
Aunque la teoría sea correcta, el problema consiste en detectar la firma espectral del Higgs en los fotones gamma y distinguirla de otras partículas, algo que este estudio demuestra que es posible, aunque complicado, con la tecnología actual. Pero como no hay nada que perder y sí mucho que ganar (puede que un premio Nobel), varios equipos ya se han puesto manos a la obra para analizar la radiación gamma difusa de la Vía Láctea y ver si pueden detectar líneas espectrales que correspondan al bosón de Higgs (o a otras partículas), lo que a su vez permitiría conocer mucho mejor la naturaleza de la materia oscura, materia que no olvidemos forma aproximadamente el 30% de nuestro Universo.
(por cierto, hablando de Fermi, este satélite ha detectado recientemente la fuente continua de rayos gamma más intensa: una galaxia activa -el blazar 3C 454.3-, situada a siete mil millones de años luz)


¿Podrían el Fermi (arriba) o el MAGIC adelantarse al LHC en la búsqueda del Higgs?
Más información:
- Higgs in space!, Jackson et al., 2009.
Monday, November 30, 2009
El Carnaval de la Física
La 1ª edición del Carnaval de la Física ya está aquí. Como sabréis, se trata de una iniciativa muy interesante promovida por el blog Gravedad Cero que nos permitirá estar al tanto de las noticias del mundo de la física en particular y de la ciencia en general que circulan por la blogosfera. Es además una magnífica oportunidad para conocer nuevas bitácoras y bloggers. Ahora, a esperar a ver quién será el próximo organizador. Por supuesto que Eureka se presenta a la candidatura para esta ocasión o para alguna otra en el futuro.
Thursday, November 26, 2009
Un cohete de materia oscura
El otro día veíamos un artículo -medio en broma, medio en serio- acerca de la utilización de un agujero negro como sistema de propulsión interestelar. Por si esa idea no era suficientemente extraña, ahora podemos ver otro sistema que propone nada más y nada menos que emplear materia oscura para alcanzar las estrellas. Y, se preguntarán ustedes, ¿cómo hacemos para usar en un cohete esta sustancia de la cual desconocemos prácticamente todo?
La respuesta la encontrarán en el curioso artículo Dark Matter as a Possible New Energy Source for Future Rocket Technology, de Jia Liu (lo que por otro lado me hace pensar que ya es oficial: el ArXiv se ha vuelto definitivamente loco). La propuesta del autor es crear una nave interestelar cruce de un estatocolector Bussard y un vehículo propulsado por antimateria. Al igual que el estatocolector, no es necesario que la nave lleve consigo todo el combustible desde el lanzamiento, ya que emplearía la materia oscura distribuida en el espacio interestelar, aunque en este caso sería materia oscura en vez de átomos de hidrógeno. Esto nos permite ahorrar una considerable masa (es decir, tiempo y dinero) en la construcción de la nave.
El funcionamiento es muy "simple": aceleramos la nave hasta velocidades elevadas (una millonésima de la velocidad de la luz) y vemos aumentar el flujo de partículas de materia oscura (¿neutralinos, axiones, ...?) que pasan por nuestro vehículo. Se supone que la densidad de la materia oscura en algunas zonas del halo galáctico es superior a cinco veces la de la materia bariónica convencional, así que por este lado el funcionamiento es más sencillo que en el caso de un estatocolector. Las partículas de materia oscura se introducirían en un "motor" especial que se cerraría después de haber dejado entrar a las partículas. Este motor de alta densidad se contraería, arrastrando a las partículas de materia oscura en el proceso y favoreciendo que colisionen unas con otras. Según la mayor parte de modelos, las partículas de materia oscura son sus propias antipartículas, así que cuando colisionan se desintegran produciendo partículas secundarias de materia bariónica que pueden ser dirigidas hacia la parte trasera del vehículo, produciendo una fuerza propulsiva como reacción. Según los cálculos más optimistas, en un par de días la nave alcanzaría la velocidad de la luz. El problema es que, según otras estimaciones, la densidad de materia oscura en las regiones externas de la galaxia es mucho menor, por lo que la nave de materia oscura no podría alcanzar velocidades relativistas en un plazo de tiempo asequible.
Por supuesto, esta hipotética nave tiene un punto débil muy importante, y es que para funcionar debidamente el motor tiene que estar fabricado con una sustancia "mágica" que interaccione más fuertemente de lo normal con la materia oscura para facilitar así su desintegración, ya que la materia normal es prácticamente "invisible" para la materia oscura. Por supuesto, otro problema que puede surgir está relacionado con la naturaleza misteriosa de esta sustancia que forma una cuarta parte del Universo, ya que es muy posible que los modelos teóricos estén equivocados y las partículas de materia oscura sean distintas a lo que imaginamos.
¿Volaremos algún día a las estrellas usando materia oscura?
(Esta es la pequeña contribución de este blog al Carnaval de la Física en Gravedad Cero).

Estatocolector Bussard (Joe Bergeron).
La respuesta la encontrarán en el curioso artículo Dark Matter as a Possible New Energy Source for Future Rocket Technology, de Jia Liu (lo que por otro lado me hace pensar que ya es oficial: el ArXiv se ha vuelto definitivamente loco). La propuesta del autor es crear una nave interestelar cruce de un estatocolector Bussard y un vehículo propulsado por antimateria. Al igual que el estatocolector, no es necesario que la nave lleve consigo todo el combustible desde el lanzamiento, ya que emplearía la materia oscura distribuida en el espacio interestelar, aunque en este caso sería materia oscura en vez de átomos de hidrógeno. Esto nos permite ahorrar una considerable masa (es decir, tiempo y dinero) en la construcción de la nave.
El funcionamiento es muy "simple": aceleramos la nave hasta velocidades elevadas (una millonésima de la velocidad de la luz) y vemos aumentar el flujo de partículas de materia oscura (¿neutralinos, axiones, ...?) que pasan por nuestro vehículo. Se supone que la densidad de la materia oscura en algunas zonas del halo galáctico es superior a cinco veces la de la materia bariónica convencional, así que por este lado el funcionamiento es más sencillo que en el caso de un estatocolector. Las partículas de materia oscura se introducirían en un "motor" especial que se cerraría después de haber dejado entrar a las partículas. Este motor de alta densidad se contraería, arrastrando a las partículas de materia oscura en el proceso y favoreciendo que colisionen unas con otras. Según la mayor parte de modelos, las partículas de materia oscura son sus propias antipartículas, así que cuando colisionan se desintegran produciendo partículas secundarias de materia bariónica que pueden ser dirigidas hacia la parte trasera del vehículo, produciendo una fuerza propulsiva como reacción. Según los cálculos más optimistas, en un par de días la nave alcanzaría la velocidad de la luz. El problema es que, según otras estimaciones, la densidad de materia oscura en las regiones externas de la galaxia es mucho menor, por lo que la nave de materia oscura no podría alcanzar velocidades relativistas en un plazo de tiempo asequible.
Por supuesto, esta hipotética nave tiene un punto débil muy importante, y es que para funcionar debidamente el motor tiene que estar fabricado con una sustancia "mágica" que interaccione más fuertemente de lo normal con la materia oscura para facilitar así su desintegración, ya que la materia normal es prácticamente "invisible" para la materia oscura. Por supuesto, otro problema que puede surgir está relacionado con la naturaleza misteriosa de esta sustancia que forma una cuarta parte del Universo, ya que es muy posible que los modelos teóricos estén equivocados y las partículas de materia oscura sean distintas a lo que imaginamos.
¿Volaremos algún día a las estrellas usando materia oscura?
(Esta es la pequeña contribución de este blog al Carnaval de la Física en Gravedad Cero).

Estatocolector Bussard (Joe Bergeron).
Sunday, November 1, 2009
Novedades Fermi
En los últimos días hemos asistido a dos noticias relacionadas con el telescopio espacial de rayos gamma Fermi (GLAST) que creo merece la pena comentar brevemente.
La primera tiene que ver con la explosión de rayos gamma GRB 090510. Esta explosión fue detectada el pasado diez de mayo y en su momento ocasionó un gran revuelo al generar el fotón más energético (31 GeV) detectado en una fuente de rayos gamma. Al haber ocurrido a una distancia inmensa (cuando el Universo apenas tenía mil millones de años) y debido a la enorme diferencia de energía entre los fotones implicados, este suceso presentaba una oportunidad única para verificar las hipótesis de algunas teorías alternativas a la relatividad general -como la gravedad cuántica de bucles (QLG)- que predicen una cuantización del espacio-tiempo. Esta cuantización podría influir en el tiempo de vuelo de los fotones o, lo que es lo mismo, que la velocidad de los fotones depende de su energía. En su momento, el equipo del Fermi comparó el tiempo de vuelo de los fotones menos energéticos de la explosión con el del de 31 GeV y llegó a la asombrosa conclusión de que la energía a la cual la relatividad especial deja de ser efectiva era de 102 veces la masa de Planck como mínimo. ¿Y qué significa esto? Pues veamos: la energía a la cual la relatividad especial debe perder su validez según la teoría actual es justamente la masa de Planck. El resultado del equipo de Fermi implicaba que la relatividad especial pierde efectividad a una escala mucho mayor, reforzando la validez de varias teorías cuánticas de la gravedad.
Un resultado revolucionario que y que recibió inmediatamente un aluvión de críticas por emplear suposiciones poco conservadoras, por no hablar de lo poco representativo que resulta un sólo fotón. De hecho, el artículo ha aparecido publicado hace unos días en Nature y en él podemos leer ahora que los autores han reducido la relación a 1,2 veces la masa de Planck, un resultado más acorde con lo esperado y que deja menos espacio para las teorías cuánticas. Pero que los físicos de supercuerdas no canten victoria aún. Los partidarios de estas teorías no están derrotados, pues las conclusiones de esta explosión de rayos gamma sólo son válidas si la velocidad de los fotones depende directamente de la energía, pero muchos modelos sugieren una relación diferente entre ambas magnitudes, de tal modo que sería indetectable con este tipo de experimentos.
La segunda noticia del Fermi tiene que ver con el exceso de radiación gamma proveniente del centro de la Galaxia, que puede suponer una evidencia de la existencia de materia oscura.
La sonda Wilkinson (WMAP) para el estudio de la radiación cósmica de fondo ya detectó hace años una "niebla" de microondas en la región del centro galáctico. Algunos teóricos han argumentado que esta emisión podría deberse a radiación emitida por electrones energéticos producidos mediante mecanismos diferentes a los habituales (supernovas, etc.). Uno de estos mecanismos es la aniquilación de partículas de materia oscura al colisionar entre ellas (las partículas de materia oscura son sus propias antipartículas en la mayoría de modelos teóricos). Para verificar esta hipótesis, el Fermi es una magnífica herramienta, ya que la aniquilación de materia oscura generaría rayos gamma que a su vez crearían pares electrón-positrón. En este caso, no hablamos de detectar directamente los rayos gamma de la aniquilación de materia oscura -método que actualmente están siguiendo otros grupos de investigadores-, sino los producidos por la interacción de estos electrones con el medio interestelar. Hay que recordar los principales mecanismos galácticos que pueden producir rayos gamma en el rango de energía que puede observar Fermi:
El equipo de Dobler ha analizado la contribución de los distintos mecanismos al fondo de rayos gamma y ha llegado a la conclusión de que existe un exceso de radiación gamma en el centro galáctico que no se puede explicar mediante los mecanismos habituales. Este exceso parece que se correlaciona bastante bien con la niebla de microondas del WMAP antes mencionada, por lo que estaríamos ante una radiación emitida por electrones -mediante scattering Compton inverso- creados por algún mecanismo exótico, como podría ser la aniquilación de materia oscura o algún tipo de "nueva física" desconocida (lo de "nueva física" es una expresión comodín que se usa en los papers cuando no se tiene ni la más remota idea del mecanismo causante).
Puesto que exceso de rayos gamma proviene del centro de la Vía Láctea, justo donde esperamos una mayor densidad de materia oscura, podríamos estar ante una evidencia indirecta de la presencia de esta elusiva sustancia. Por supuesto, habrá que esperar a comprender mejor los mecanismos de generación de rayos gamma galácticos antes de confirmar esta evidencia, pero no deja de ser un resultado interesante.
La primera tiene que ver con la explosión de rayos gamma GRB 090510. Esta explosión fue detectada el pasado diez de mayo y en su momento ocasionó un gran revuelo al generar el fotón más energético (31 GeV) detectado en una fuente de rayos gamma. Al haber ocurrido a una distancia inmensa (cuando el Universo apenas tenía mil millones de años) y debido a la enorme diferencia de energía entre los fotones implicados, este suceso presentaba una oportunidad única para verificar las hipótesis de algunas teorías alternativas a la relatividad general -como la gravedad cuántica de bucles (QLG)- que predicen una cuantización del espacio-tiempo. Esta cuantización podría influir en el tiempo de vuelo de los fotones o, lo que es lo mismo, que la velocidad de los fotones depende de su energía. En su momento, el equipo del Fermi comparó el tiempo de vuelo de los fotones menos energéticos de la explosión con el del de 31 GeV y llegó a la asombrosa conclusión de que la energía a la cual la relatividad especial deja de ser efectiva era de 102 veces la masa de Planck como mínimo. ¿Y qué significa esto? Pues veamos: la energía a la cual la relatividad especial debe perder su validez según la teoría actual es justamente la masa de Planck. El resultado del equipo de Fermi implicaba que la relatividad especial pierde efectividad a una escala mucho mayor, reforzando la validez de varias teorías cuánticas de la gravedad.
Un resultado revolucionario que y que recibió inmediatamente un aluvión de críticas por emplear suposiciones poco conservadoras, por no hablar de lo poco representativo que resulta un sólo fotón. De hecho, el artículo ha aparecido publicado hace unos días en Nature y en él podemos leer ahora que los autores han reducido la relación a 1,2 veces la masa de Planck, un resultado más acorde con lo esperado y que deja menos espacio para las teorías cuánticas. Pero que los físicos de supercuerdas no canten victoria aún. Los partidarios de estas teorías no están derrotados, pues las conclusiones de esta explosión de rayos gamma sólo son válidas si la velocidad de los fotones depende directamente de la energía, pero muchos modelos sugieren una relación diferente entre ambas magnitudes, de tal modo que sería indetectable con este tipo de experimentos.
La segunda noticia del Fermi tiene que ver con el exceso de radiación gamma proveniente del centro de la Galaxia, que puede suponer una evidencia de la existencia de materia oscura.
La sonda Wilkinson (WMAP) para el estudio de la radiación cósmica de fondo ya detectó hace años una "niebla" de microondas en la región del centro galáctico. Algunos teóricos han argumentado que esta emisión podría deberse a radiación emitida por electrones energéticos producidos mediante mecanismos diferentes a los habituales (supernovas, etc.). Uno de estos mecanismos es la aniquilación de partículas de materia oscura al colisionar entre ellas (las partículas de materia oscura son sus propias antipartículas en la mayoría de modelos teóricos). Para verificar esta hipótesis, el Fermi es una magnífica herramienta, ya que la aniquilación de materia oscura generaría rayos gamma que a su vez crearían pares electrón-positrón. En este caso, no hablamos de detectar directamente los rayos gamma de la aniquilación de materia oscura -método que actualmente están siguiendo otros grupos de investigadores-, sino los producidos por la interacción de estos electrones con el medio interestelar. Hay que recordar los principales mecanismos galácticos que pueden producir rayos gamma en el rango de energía que puede observar Fermi:
- Desintegración de bosones π0 generados por la colisión entre gas y polvo interestelar con protones que forman parte de los rayos cósmicos (acelerados por supernovas).
- Electrones relativistas que colisionan con núcleos del medio interestelar generando radiación sincrotrón gamma (bremsstrahlung).
- Electrones relativistas que interaccionan con fotones del medio interestelar generando rayos gamma mediante scattering Compton inverso.
El equipo de Dobler ha analizado la contribución de los distintos mecanismos al fondo de rayos gamma y ha llegado a la conclusión de que existe un exceso de radiación gamma en el centro galáctico que no se puede explicar mediante los mecanismos habituales. Este exceso parece que se correlaciona bastante bien con la niebla de microondas del WMAP antes mencionada, por lo que estaríamos ante una radiación emitida por electrones -mediante scattering Compton inverso- creados por algún mecanismo exótico, como podría ser la aniquilación de materia oscura o algún tipo de "nueva física" desconocida (lo de "nueva física" es una expresión comodín que se usa en los papers cuando no se tiene ni la más remota idea del mecanismo causante).
Puesto que exceso de rayos gamma proviene del centro de la Vía Láctea, justo donde esperamos una mayor densidad de materia oscura, podríamos estar ante una evidencia indirecta de la presencia de esta elusiva sustancia. Por supuesto, habrá que esperar a comprender mejor los mecanismos de generación de rayos gamma galácticos antes de confirmar esta evidencia, pero no deja de ser un resultado interesante.

Monday, October 26, 2009
Una nave espacial propulsada por un agujero negro
Como muestra de que el arXiv se ha vuelto definitivamente loco, me he topado con este divertido artículo (Are Black Hole Starships Possible?, Louis Crane y Shawn Westmoreland, Kansas State University) en el que se discute la viabilidad de usar un agujero negro para propulsar una nave espacial. Sí, han oído bien: un agujero negro.
Por supuesto, no estamos hablando de gigantescos agujeros negros que se han formado como resultado de explosiones de supernovas, sino de pequeños agujerillos que alimentarían una central energética mediante la radiación de Hawking. Recordemos que el flujo de radiación de Hawking es inversamente proporcional a la masa del agujero: cuanto más pequeño, más radiación.
Lo primero es lo primero: ¿dónde encontramos un agujero negro? Porque no es cuestión de acercarse a la farmacia de la esquina a comprar uno. Lo de acercarnos a algún resto de supernova reciente para comprobar si hay alguno disponible y traerlo hasta casa tampoco es muy buena idea, teniendo en cuenta que su masa es similar a la de una estrella. Así que la mejor solución es...¡crearlo uno mismo! ¿Cómo?, se preguntarán ustedes. Pues muy fácil: usando un láser de rayos gamma de mil millones de toneladas. Vamos, algo que puede hacer cualquiera en el garaje después de haber visto un par de episodios de Bricomanía. Por cierto, se recomienda emplazar los láseres en las cercanías del Sol para maximizar la eficiencia de la planta de energía solar orbital que debemos usar.
El resultado es un agujero negro de dimensiones subatómicas (menor de 10-10 m). En concreto, de 0.16 a 260 attómetros. El agujero debe ser pequeño para que emita radiación de Hawking, pero no demasiado, para evitar su evaporación prematura. Un agujero con una masa de un millón de toneladas podría tener una vida de décadas o siglos. Los agujeros así creados servirían como fuente de energía para nuestra nave espacial, con la que podríamos alcanzar las estrellas.
Muy sencillo, ¿no? Bueno, hay un pequeño problema, y es que los efectos cuánticos podrían dar al traste con la viabilidad de la idea, pero como aún no tenemos una teoría unificada de la relatividad general y la mecánica cuántica, pues nada, empezamos a construir el cacharro y ya si eso lo dejamos si no funciona.
Por supuesto, no estamos hablando de gigantescos agujeros negros que se han formado como resultado de explosiones de supernovas, sino de pequeños agujerillos que alimentarían una central energética mediante la radiación de Hawking. Recordemos que el flujo de radiación de Hawking es inversamente proporcional a la masa del agujero: cuanto más pequeño, más radiación.
Lo primero es lo primero: ¿dónde encontramos un agujero negro? Porque no es cuestión de acercarse a la farmacia de la esquina a comprar uno. Lo de acercarnos a algún resto de supernova reciente para comprobar si hay alguno disponible y traerlo hasta casa tampoco es muy buena idea, teniendo en cuenta que su masa es similar a la de una estrella. Así que la mejor solución es...¡crearlo uno mismo! ¿Cómo?, se preguntarán ustedes. Pues muy fácil: usando un láser de rayos gamma de mil millones de toneladas. Vamos, algo que puede hacer cualquiera en el garaje después de haber visto un par de episodios de Bricomanía. Por cierto, se recomienda emplazar los láseres en las cercanías del Sol para maximizar la eficiencia de la planta de energía solar orbital que debemos usar.
El resultado es un agujero negro de dimensiones subatómicas (menor de 10-10 m). En concreto, de 0.16 a 260 attómetros. El agujero debe ser pequeño para que emita radiación de Hawking, pero no demasiado, para evitar su evaporación prematura. Un agujero con una masa de un millón de toneladas podría tener una vida de décadas o siglos. Los agujeros así creados servirían como fuente de energía para nuestra nave espacial, con la que podríamos alcanzar las estrellas.
Muy sencillo, ¿no? Bueno, hay un pequeño problema, y es que los efectos cuánticos podrían dar al traste con la viabilidad de la idea, pero como aún no tenemos una teoría unificada de la relatividad general y la mecánica cuántica, pues nada, empezamos a construir el cacharro y ya si eso lo dejamos si no funciona.
Friday, October 16, 2009
Misterios del IBEX
No, no me refiero a este IBEX, sino al satélite IBEX (Interstellar Boundary Explorer) de la NASA. Se trata de un pequeño vehículo espacial con grandes ambiciones: estudiar la heliosfera y, por extensión, el medio interestelar. Su funcionamiento se basa en la detección de átomos energéticos (0,2-6 keV) creados por el choque de las partículas del viento solar con las del medio interestelar allí donde termina la heliosfera (a una distancia de más de 100 UA), lo que permite estudiar la forma y características de la heliopausa.
Hace poco se publicaban los primeros resultados de la misión y la sorpresa ha sido el descubrimiento de una región en la heliopausa donde los átomos neutros se forman con una frecuencia mayor que la media (resultados que han sido corroborados por un instrumento a bordo de la Cassini). Esta zona tiene la forma de una banda que recorre el cielo, lo que indica una alineación con algún tipo de mecanismo que genera estos átomos neutros. ¿Cuál podría ser este mecanismo? Nadie lo sabe aún, pero parece ser que el culpable sería el campo magnético interestelar, ya que la banda emisora de átomos neutros es perpendicular a la dirección de este campo. Además, la zona de máxima emisión de átomos energéticos coincide con la dirección de avance relativa entre el Sistema Solar (incluyendo la heliosfera, claro está) y el medio interestelar.



Mapas del cielo con el flujo de átomos neutros provenientes de la heliopausa. La emisión de partículas está leja de ser homogénea, como era de esperar. Las anisotropías mayores se dan con los átomos de menor energía (primera foto)(NASA).

La relación entre la heliosfera (esfera azul), el campo magnético interestelar y el movimiento del Sol. Curiosamente, podemos ver que las Voyager no pasarán por la banda misteriosa (NASA).
En todo caso, lo interesante es que nadie había predicho este resultado tan curioso. De entrada, seguramente deberemos cambiar nuestra imagen mental de una heliosfera con forma de cometa a través del medio interestelar. Estaremos atentos por si los datos del IBEX ocultan más misterios.

IBEX (NASA).
Hace poco se publicaban los primeros resultados de la misión y la sorpresa ha sido el descubrimiento de una región en la heliopausa donde los átomos neutros se forman con una frecuencia mayor que la media (resultados que han sido corroborados por un instrumento a bordo de la Cassini). Esta zona tiene la forma de una banda que recorre el cielo, lo que indica una alineación con algún tipo de mecanismo que genera estos átomos neutros. ¿Cuál podría ser este mecanismo? Nadie lo sabe aún, pero parece ser que el culpable sería el campo magnético interestelar, ya que la banda emisora de átomos neutros es perpendicular a la dirección de este campo. Además, la zona de máxima emisión de átomos energéticos coincide con la dirección de avance relativa entre el Sistema Solar (incluyendo la heliosfera, claro está) y el medio interestelar.



Mapas del cielo con el flujo de átomos neutros provenientes de la heliopausa. La emisión de partículas está leja de ser homogénea, como era de esperar. Las anisotropías mayores se dan con los átomos de menor energía (primera foto)(NASA).

La relación entre la heliosfera (esfera azul), el campo magnético interestelar y el movimiento del Sol. Curiosamente, podemos ver que las Voyager no pasarán por la banda misteriosa (NASA).
En todo caso, lo interesante es que nadie había predicho este resultado tan curioso. De entrada, seguramente deberemos cambiar nuestra imagen mental de una heliosfera con forma de cometa a través del medio interestelar. Estaremos atentos por si los datos del IBEX ocultan más misterios.

IBEX (NASA).
Wednesday, October 14, 2009
Las baterías nucleares
En las primeras novelas de Isaac Asimov, escritas en pleno fervor de la "era atómica", todos los artilugios de la vida cotidiana estaban alimentados por un pequeño reactor nuclear. Con el tiempo, esa visión utópica de la energía nuclear como fuente de progreso para la sociedad se fue diluyendo hasta pasar al extremo contrario: odio, miedo, aversión, etc. La energía nuclear parecía que estaba en sus horas más bajas. Sin embargo, la semana pasada hemos visto hasta la saciedad noticias sobre unas nuevas baterías nucleares que prometen traer de vuelta esa era dorada anticipada por los clásicos de la ciencia ficción.
Y es en este punto donde yo no entiendo nada. ¿Acaso alguien ha inventado una nueva forma de energía? ¿Hemos logrado romper las barreras de la física para hacer posible lo imposible? Pues mucho me temo que no. La noticia es simplemente otro bulo mediático (y ya me estoy cansando) sacado de contexto y ampliamente exagerado.
Actualmente sólo existen dos formas prácticas (subrayo este término) para usar los materiales radiactivos con el fin de generar energía eléctrica: mediante reacciones de fisión nuclear o con la radiactividad natural de los elementos. En el primer caso -obviamente mucho más complejo- hay que construir un reactor nuclear y convertir el calor de la fisión en energía eléctrica, lo que requiere grandes instalaciones y enormes medidas de seguridad. En el segundo caso, nos basta con utilizar el efecto termoeléctrico para generar electricidad mediante termopares a partir del calor creado por los elementos radiactivos. Este método no genera tanta potencia, pero a cambio es más simple y seguro. Los aparatos que emplean este sistema se denominan generadores termoeléctricos de radioisótopos (RTG en sus siglas en inglés) y son conocidos por todos los aficionados a la exploración del espacio porque se usan para el funcionamiento de numerosas sondas espaciales.
Lo que ha ocurrido recientemente es que un grupo de investigadores de la Universidad de Missouri ha desarrollado una técnica basada en semiconductores líquidos que promete reducir el tamaño de los RTG, pero en ningún caso estamos ante la ansiada revolución asimoviana. Para empezar, la vida útil de la pila dependerá de la cantidad y tipo de radioisótopo empleado, porque, por ejemplo, no es lo mismo emplear Polonio 210 (preferido por los rusos) que Plutonio 238. Por eso me hace gracia que se diga que estas baterías no son peligrosas. Hombre, yo siempre he defendido el uso de RTG en el espacio, pero tampoco es cuestión de ir por la calle usando un teléfono con plutonio.
Y es en este punto donde yo no entiendo nada. ¿Acaso alguien ha inventado una nueva forma de energía? ¿Hemos logrado romper las barreras de la física para hacer posible lo imposible? Pues mucho me temo que no. La noticia es simplemente otro bulo mediático (y ya me estoy cansando) sacado de contexto y ampliamente exagerado.
Actualmente sólo existen dos formas prácticas (subrayo este término) para usar los materiales radiactivos con el fin de generar energía eléctrica: mediante reacciones de fisión nuclear o con la radiactividad natural de los elementos. En el primer caso -obviamente mucho más complejo- hay que construir un reactor nuclear y convertir el calor de la fisión en energía eléctrica, lo que requiere grandes instalaciones y enormes medidas de seguridad. En el segundo caso, nos basta con utilizar el efecto termoeléctrico para generar electricidad mediante termopares a partir del calor creado por los elementos radiactivos. Este método no genera tanta potencia, pero a cambio es más simple y seguro. Los aparatos que emplean este sistema se denominan generadores termoeléctricos de radioisótopos (RTG en sus siglas en inglés) y son conocidos por todos los aficionados a la exploración del espacio porque se usan para el funcionamiento de numerosas sondas espaciales.
Lo que ha ocurrido recientemente es que un grupo de investigadores de la Universidad de Missouri ha desarrollado una técnica basada en semiconductores líquidos que promete reducir el tamaño de los RTG, pero en ningún caso estamos ante la ansiada revolución asimoviana. Para empezar, la vida útil de la pila dependerá de la cantidad y tipo de radioisótopo empleado, porque, por ejemplo, no es lo mismo emplear Polonio 210 (preferido por los rusos) que Plutonio 238. Por eso me hace gracia que se diga que estas baterías no son peligrosas. Hombre, yo siempre he defendido el uso de RTG en el espacio, pero tampoco es cuestión de ir por la calle usando un teléfono con plutonio.
Sunday, June 7, 2009
Noticias breves
- Las nubes de Titán: las nubes de metano que se observan en esta luna de Saturno siguen el patrón estacional, pero no de la forma que sugerían los modelos. Muchas de las 200 nubes detectadas en el periodo 2004-2007 por la Cassini lo han sido en el hemisferio sur. Ahora en este hemisferio es verano y dentro de poco comenzará el otoño, por lo que se esperaba que las nubes desapareciesen en 2005. No ha sido así y ahora habrá que seguir mejorando los modelos climáticos de este fascinante mundo.

- Más Saturno: la sombra de Tetis sobre los anillos.


- Premio de la NASA al diseñador de Star Trek.
- Estudiando la Paradoja de Fermi.
- Huellas del agua: Hephaestus Phossae vistas por la Mars Express.

- Estudiando la luz de la Tierra reflejada en la Luna.
- MRO nos da un susto.
- El cráter marciano Asimov.
- Pruebas de separación de la primera etapa del Ares I-X.

- El Fermilab sigue persiguiendo al Bosón de Higgs.
- El cronófago: no sé si asustarme o aterrorizarme.

Friday, June 5, 2009
Curso de Relatividad General
Si digo que puedes recibir clases gratis de Relatividad General (RG) de la mano de Leonard Susskind, sólo puede haber dos reacciones posibles:
a) ¿Dónde?¿Cómo?¿Cuándo? ¡Ya!
b) ¿Lo cualo?¿Leonard qué?
Si estás en el primer grupo, la Universidad de Stanford ha decidido poner en YouTube las clases de Susskind sobre RG. Son un total de doce lecciones de casi dos horas cada una, con un total de unas 20 horas (no, no me las he visto todas). Es decir, tenemos el privilegio de asistir a todas las lecciones de la asignatura de RG. Para que nadie se asuste, Susskind comienza desde prácticamente cero, explicando primero la mecánica newtoniana antes de sumergirse en conceptos más complejos. Pero lo hace todo de forma muy directa, precisa y clara. Por supuesto, para comprender bien muchas de las lecciones hace falta tener una base matemática mínima, aunque en otras no es estrictamente necesario.
Hay que tener mucho valor para dejarse filmar mientras se enseña, ya que una clase no es una conferencia (o no debería serlo) y es inevitable que se produzca algún error o gazapo. Es una iniciativa tremendamente interesante, de esas que hacen que cada vez esté más cerca de hacerse realidad el dicho de "todo el conocimiento está en Internet".
Lección 1:
(También hay cursos de Susskind sobre Mecánica Cuántica, Mecánica Clásica y Relatividad Especial, además de muchos otros de otras materias)
a) ¿Dónde?¿Cómo?¿Cuándo? ¡Ya!
b) ¿Lo cualo?¿Leonard qué?
Si estás en el primer grupo, la Universidad de Stanford ha decidido poner en YouTube las clases de Susskind sobre RG. Son un total de doce lecciones de casi dos horas cada una, con un total de unas 20 horas (no, no me las he visto todas). Es decir, tenemos el privilegio de asistir a todas las lecciones de la asignatura de RG. Para que nadie se asuste, Susskind comienza desde prácticamente cero, explicando primero la mecánica newtoniana antes de sumergirse en conceptos más complejos. Pero lo hace todo de forma muy directa, precisa y clara. Por supuesto, para comprender bien muchas de las lecciones hace falta tener una base matemática mínima, aunque en otras no es estrictamente necesario.
Hay que tener mucho valor para dejarse filmar mientras se enseña, ya que una clase no es una conferencia (o no debería serlo) y es inevitable que se produzca algún error o gazapo. Es una iniciativa tremendamente interesante, de esas que hacen que cada vez esté más cerca de hacerse realidad el dicho de "todo el conocimiento está en Internet".
Lección 1:
(También hay cursos de Susskind sobre Mecánica Cuántica, Mecánica Clásica y Relatividad Especial, además de muchos otros de otras materias)
Monday, March 30, 2009
CERNLand
CERNLand es una página dedicada a niños -y no tan niños- que enseña las intimidades del LHC y la física de partículas a través de divertidos juegos (algunos nada fáciles, por cierto). Me ha parecido una iniciativa realmente interesante para divulgar la física teórica.


¿Será esto un Bosón de Higgs?


¿Será esto un Bosón de Higgs?
Subscribe to:
Posts (Atom)