miércoles, 26 de diciembre de 2012

Con la mirada puesta en el eclipse total de Sol

El Sol parece estar observándonos en esta composición de imágenes tomadas desde la Tierra y desde los satélites Proba-2 y SOHO durante el eclipse total de Sol del mes pasado.

La colorida ‘pupila’ de esta composición se corresponde con la imagen del disco solar tomada por el satélite Proba-2 de la ESA mientras se producía el eclipse.



Esta imagen fue generada por el instrumento SWAP de Proba-2, que estudia el Sol en la banda de la luz ultravioleta. El falso color representa la intensidad de las distintas regiones activas.

Las zonas representadas en azul oscuro son manchas solares, rodeadas por líneas de campo magnético que forman grandes arcos sobre la superficie del Sol. Las manchas solares están relacionadas con las erupciones solares y con las eyecciones de masa coronal, que en ocasiones se pueden dirigir hacia la Tierra.

El ‘iris’ azul es una composición de cientos de imágenes en luz blanca tomadas desde el norte de Australia durante los dos minutos de la fase de totalidad del eclipse del 13 de noviembre.

La atmósfera del Sol, o corona solar, sólo se puede observar directamente desde la Tierra durante los eclipses, cuando el disco solar queda temporalmente oscurecido por la Luna.

Se puede ver claramente cómo los bucles y ‘penachos’ de líneas de campo magnético pasan de las imágenes en luz blanca a la fotografía de gran angular tomada por el satélite ESA/NASA SOHO, a medida que el viento solar arrastraba estas estructuras hacia el espacio exterior.

Esta composición de imágenes tomadas desde la superficie de la Tierra y desde el espacio constituye una herramienta única para estudiar la relación entre la atmósfera solar, visible únicamente durante los eclipses totales, las manchas solares y el entorno de nuestra estrella.

Esta imagen también nos recuerda que el Sol continúa muy activo, con una actividad magnética que puede cambiar en un abrir y cerrar de ojos. Esta semana el hemisferio norte de nuestro planeta alcanzará el solsticio de invierno. (Fuente: ESA)

jueves, 20 de diciembre de 2012

Calculan la abundancia de estrellas en el universo

Usando los datos del Telescopio Espacial Fermi de rayos Gamma de la NASA, unos astrónomos han realizado la medición más precisa hasta ahora de la luz de las estrellas en el universo, y la han utilizado para determinar la cantidad total de luz de todas las estrellas que alguna vez brillaron, y la abundancia de éstas en el universo.

La luz de las bandas visible y ultravioleta emitida por las estrellas sigue viajando por todo el universo, incluso después de que dejen de brillar, y este flujo crea un campo de radiación fósil que los astrónomos pueden explorar usando los rayos gamma de fuentes distantes.

Los rayos gamma son la forma más energética de la luz. Desde el lanzamiento del Fermi en 2008, su telescopio LAT observa todo el cielo en rayos gamma de alta energía cada tres horas, creando el mapa más detallado que existe del universo a estas energías.


Los puntos verdes señalan la posición de los blazares. (Imagen: NASA/DOE/Fermi LAT Collaboration)


La suma total de la luz de las estrellas en el cosmos es conocida por los astrónomos como la luz del fondo extragaláctico (EBL). Para los rayos gamma, la EBL funciona como una especie de niebla cósmica.

El equipo de Marco Ajello, del Instituto Kavli para la Cosmología y la Astrofísica de Partículas en la Universidad de Stanford en California y el Laboratorio de Ciencias Espaciales de la Universidad de California en Berkeley, investigó la EBL mediante el estudio de los rayos gamma de 150 blazares. Un blazar es, a grandes rasgos, un núcleo galáctico activo (por tener un agujero negro masivo tragando materia en su centro), visto desde uno de sus polos y que muestra variaciones rápidas en su potencia de salida de radiación en intervalos cortos de tiempo. A medida que la materia cae hacia el agujero negro supermasivo de la galaxia, parte de ella es catapultada hacia el exterior a casi la velocidad de la luz, en forma de chorros apuntando en direcciones opuestas. Cuando uno de los chorros se dirige en dirección a la Tierra, la galaxia aparece especialmente brillante y se la clasifica como un blazar.

Los rayos gamma producidos en los chorros del blazar viajan a través de miles de millones de años-luz hasta la Tierra. Durante su viaje, los rayos gamma atraviesan una creciente niebla de luz visible y ultravioleta emitida por las estrellas que se formaron a lo largo de la historia del universo.

Ocasionalmente, un rayo gamma choca con esa luz estelar y se transforma en un par de partículas: un electrón y su homólogo de antimateria, un positrón. Una vez que esto ocurre, ese rayo gamma se pierde, y el haz se debilita un poco. El proceso amortigua la señal de rayos gamma de un modo bastante similar a cómo una niebla atenúa la luz de un faro distante.

Estudiando los blazares cercanos, los científicos han determinado qué cantidad de rayos gamma debería ser emitida en diferentes energías. Los blazares más distantes muestran menos rayos gamma a energías más altas, especialmente por encima de los 25 GeV, como consecuencia de la absorción por la niebla cósmica.

Los blazares más alejados pierden casi todos sus rayos gamma de alta energía.

Teniendo en cuenta esto y otros factores, al equipo de investigación le ha sido posible estimar que la densidad estelar promedio en el cosmos equivale a una distancia promedio entre estrellas de unos 4.150 años-luz. Es una distancia mucho mayor que la típica dentro de una galaxia, pero hay que tener en cuenta que la estimación se refiere al universo entero; hay mucho espacio sin estrellas en el vacío intergaláctico.

viernes, 14 de diciembre de 2012

El extraño caso del agujero negro de Andrómeda

Uno de los numerosos agujeros negros presentes en la vecina galaxia de Andrómeda ha puesto patas arriba los modelos de emisión de rayos X al descubrirse que la luminosidad que emite puede llegar a superar aquella que le correspondería en función de su masa.

Una investigación, en la que ha participado el Consejo Superior de Investigaciones Científicas (CSIC), en España, ha establecido la masa de este objeto en unas diez veces la del Sol.

No obstante, algunos de sus registros de luminosidad exceden los límites establecidos por la física. El hallazgo ha sido publicado en la revista Nature.

Una serie de fórmulas matemáticas establece cuál debe ser la luminosidad máxima de un objeto cósmico en función de su masa –conocida como la luminosidad de Eddington–.

Por encima de este límite, por ejemplo, una estrella normal se descompondría. Para un agujero negro de masa una decena de veces superior a la del Sol, esta cifra es de 1x1032 vatios, un millón de veces mayor que la luminosidad del Sol.

Algunas fuentes cósmicas de rayos X alejadas de los centros de las galaxias brillan con luminosidades que superan esta cifra, y por ello se denominan fuentes de rayos X ultraluminosas –ULX por sus siglas en inglés–.

Tienen masas mayores que las de los agujeros negros normales pero menores que las de los agujeros negros supermasivos localizados en los centros de las galaxias.

La experta del Instituto de Ciencias del Espacio –centro del CSIC asociado al Instituto de Estudios Espaciales de Cataluña– Margarita Hernanz, que ha colaborado en la investigación, explica: “Dentro de las ULX, el nivel de luminosidad de este agujero negro es de los menos intensos, de hecho, sólo supera el límite de 1x1032 vatios en algunas ocasiones”.


Este fenómeno se debe a la propia configuración del agujero negro, que pertenece a un sistema binario en el que él y su estrella acompañante orbitan mutuamente entre sí a gran velocidad. Durante este baile cósmico, parte de la materia de la estrella es atraída y absorbida por el agujero. Antes de ser engullida, esta materia crea un disco de acrecimiento alrededor del agujero negro y emite intensamente en rayos X.

Es en este momento cuando puede medirse la luminosidad del objeto y su masa, ya que, como comenta la investigadora del CSIC, “un agujero negro que no interactúa con ningún otro objeto no puede ser observado porque no emite luz”.

La luminosidad de este fenómeno depende de la masa del agujero negro, ya que cuanto más masivo sea, más potente será su campo gravitatorio y más materia será capaz de absorber, lo que le conferirá una mayor luminosidad.

No obstante, resulta lógico pensar que estos parámetros no son estables, sino que varían con el tiempo y, a menor escala del agujero más rápida será la variación de los parámetros. Según Hernanz, “el objeto que comenzó siendo un ULX ha demostrado ser un microcuásar, un sistema binario que alberga un agujero negro de masa pequeña. Las observaciones en radio de los chorros relativistas de materia expulsada por los polos del agujero negro en rotación han ayudado a determinar su masa”.

Los resultados obtenidos por esta investigación abren una nueva ventana de comprensión de los agujeros negros y su evolución en el Universo. Para la investigadora, “comprender el comportamiento de los agujeros negros supone un gran reto, no obstante, las microescalas en las que se presentan los microcuásares hacen que su evolución sea mucho más rápida y les convierten en escenarios perfectos para entender la evolución de los cuásares –los mega agujeros negros ubicados en el centro de las galaxias– para comprender cómo se ha distribuido la masa y la energía en el Universo primitivo y cómo se han formado las galaxias que vemos hoy en día”. (Fuente: CSIC)

martes, 11 de diciembre de 2012

Taller de Astronomia 2013

BIBLIOTECA POPULAR SARMIENTO

TALLERES  DE  ASTRONOMIA 2013

PRIMER NIVEL a cargo de Osvaldo Calvo

Iniciación a la Astronomía.
Se irán tratando temas tan apasionantes como la historia de la Astronomía, el Sistema Solar, la exploración espacial, la vida de las estrellas.

INICIO DEL TALLER: 12/04/2013 
HORARIO: VIERNES  DE 18:00HS   A 19:00 HS

SEGUNDO NIVEL a cargo de Gabriel Pesaresi

Se irán tratando temas como, principio de relatividad, física cuantica, termodinámica, cosmología.

INICIO DEL TALLER: 12/04/2013 
HORARIO: VIERNES  DE 19:00HS   A 20:30 HS

Informes en la  Biblioteca Popular Sarmiento Tel. 4228-3676
Consultas al E-mail: gabrielpesaresi@yahoo.com.ar
       Pagina Web: http://gabrielpesaresi.blogspot.com/

viernes, 7 de diciembre de 2012

Herschel y Keck realizan un censo del Universo invisible

Al combinar el poder de observación del telescopio espacial Herschel de la ESA con el del observatorio Keck de Hawái, los astrónomos han caracterizado cientos de nuevas galaxias con brotes estelares, descubriendo tasas de formación de estrellas extraordinariamente altas a lo largo de la historia del Universo.

Las galaxias con brotes estelares son capaces de formar el equivalente a cientos de estrellas con la masa de nuestro Sol cada año, a través de un proceso breve pero extremadamente intenso.

Como referencia, nuestra propia Galaxia, la Vía Láctea, produce tan sólo el equivalente a una masa solar al año.

Las galaxias con brotes estelares emiten tanta luz que deberían brillar cientos o miles de veces más que nuestra Galaxia, pero el gas que alimenta a sus estrellas también contiene una gran cantidad de polvo, producto de la frenética formación de nuevos astros.

El polvo interestelar absorbe la mayor parte de la radiación emitida en la banda de la luz visible, lo que provoca que muchas de estas galaxias pasen completamente desapercibidas en esta región del espectro electromagnético.

Sin embargo, las jóvenes estrellas calientan lentamente el polvo que las rodea, que vuelve a emitir toda esta energía en las longitudes de onda del infrarrojo lejano.

Gracias al telescopio espacial en la banda del infrarrojo de la ESA, Herschel, los astrónomos fueron capaces de determinar el brillo y la temperatura de miles de galaxias con un alto contenido de polvo interestelar. A partir de estos datos, pudieron calcular la tasa de formación de estrellas en su interior.

“Las galaxias con brotes estelares son las más brillantes del cosmos, y suponen una importante contribución a la tasa total de formación de estrellas en el Universo, lo que hace que sea importante estudiarlas en detalle y comprender sus propiedades”, explica Caitlin Casey, de la Universidad de Hawái, autora principal del artículo que presenta estos resultados en el Astrophysical Journal.

“Algunas de las galaxias descubiertas en este nuevo censo presentan una tasa de formación de estrellas equivalente al nacimiento de varios miles de estrellas con la masa de nuestro Sol cada año, lo que las convierte en algunos de los objetos más brillantes en la banda del infrarrojo descubiertos hasta la fecha”.

Para poder poner en contexto estos hallazgos y comprender cómo ha variado la tasa de formación de estrellas a lo largo de los 13.700 millones de años de historia del Universo, era necesario determinar a qué distancia se encontraban estas galaxias.

Con Herschel marcando el camino, el equipo de Casey utilizó los espectrómetros instalados en los telescopios gemelos de 10 metros de diámetro del Observatorio W. M. Keck, en la cima del volcán Mauna Kea de Hawái, para determinar el corrimiento al rojo de 767 galaxias con brotes estelares.

El corrimiento al rojo es una medida de cuánto tiempo ha estado viajando la luz de un objeto a través del Universo, lo que permite determinar en qué momento de la historia del cosmos fue emitida la luz que ahora detectamos


En la mayoría de las galaxias analizadas, se descubrió que su luz había estado viajando hacia nosotros durante 10.000 millones de años como máximo.

Sin embargo, un 5% de las galaxias presentaban un corrimiento al rojo incluso mayor: su luz fue emitida cuando el Universo tenía apenas 1-3 miles de millones de años.

“Los datos de Herschel nos muestran lo violentas y prolíficas que pueden llegar a ser estas galaxias a la hora de producir nuevas estrellas”, explica Seb Oliver, de la Universidad de Sussex, Reino Unido, e Investigador Principal del Programa HerMES, a través del que se han recogido todos estos datos.

“Al combinar los datos de Herschel con las distancias calculadas a partir de las observaciones de Keck, podemos evaluar la contribución de las galaxias con brotes estelares a la cantidad total de estrellas formadas a lo largo de la historia del Universo”.

Pero cómo se formaron tantas galaxias con brotes estelares durante los primeros miles de millones de años de existencia del Universo sigue siendo uno de los mayores enigmas a la hora de estudiar la formación y la evolución de las galaxias.

Una de las principales teorías sugiere que las colisiones entre galaxias jóvenes pudieron desencadenar una fase de formación de estrellas especialmente intensa, pero breve.

Otra teoría especula que, en la infancia del Universo, las galaxias disponían de mucho más gas para alimentarse, lo que les permitió alcanzar tasas de formación de estrellas muy elevadas sin necesidad de colisionar con otras galaxias.

“Es un tema muy controvertido; para encontrar respuestas necesitamos más información sobre la forma y la velocidad de rotación de estas galaxias”, concluye Casey.

“Antes de Herschel, el mayor censo de galaxias con brotes estelares comprendía apenas 73 galaxias – hemos aumentado esta cifra un orden de magnitud, combinando las observaciones con los datos de Keck para determinar las características de esta importante población de galaxias”, comenta Göran Pilbratt, Científico del Proyecto Herschel para la ESA. (Fuente: ESA)


miércoles, 5 de diciembre de 2012

Las enanas marrones también podrían ‘dar a luz’ planetas

Hasta ahora los científicos consideran que los planetas rocosos surgen de los discos de materia que rodean las estrellas recién nacidas. Pero, por primera vez, un equipo de astrónomos ha observado un disco polvoriento similar alrededor de una enana marrón, una ‘estrella fallida’. El sorprendente hallazgo sugiere que los planetas rocosos pueden ser más comunes de lo que se pensaba.

La comunidad científica suponía que los granos de las regiones exteriores que rodean una enana marrón –un objeto parecido a las estrellas, pero demasiado pequeño para brillar como ellas– no podían crecer ni crear planetas debido a la dispersión de los discos donde se encuentran, además de que las partículas se moverían demasiado rápido como para unirse al colisionar.

Pero según las observaciones del conjunto de telescopios Atacama Large Millimeter/submillimeter Array (ALMA), en Chile, ese planteamiento no es correcto y los granos podrían llegar a formar planetas rocosos.

Hasta ahora se creía que este tipo de planetas se forman a través de las colisiones aleatorias y la unión de lo que, en un principio, serían partículas microscópicas del disco de material que rodea a las estrellas. Este diminuto material, conocido como polvo cósmico, es parecido al hollín o a granos de arena muy fina.

Además, las teorías predominantes afirman que, en el entorno de las enanas marrones, cualquier grano que quisiera formarse se movería con rapidez hacia la enana marrón, desapareciendo de las partes exteriores del disco en las que podrían detectarse.

“Nos sorprendió muchísimo encontrar granos de tamaño milimétrico en ese disco delgado y pequeño,” dice Luca Ricci, del Instituto Tecnológico de California (EE.UU.), quien lidera un equipo de astrónomos con sedes en EEUU, Europa y Chile.

“En las frías regiones exteriores del disco que rodea a la enana marrón no deberían formarse granos sólidos de ese tamaño, pero parece que se forman. No estamos seguros de que puedan desarrollarse planetas rocosos completos, o de si ya ha ocurrido antes, pero estamos viendo los primeros pasos, de manera que tendremos que cambiar nuestras suposiciones sobre las condiciones que se requieren para el crecimiento de sólidos”, afirma.

La mayor resolución proporcionada por ALMA, comparada con la de telescopios anteriores, también ha permitido al equipo localizar gas monóxido de carbono alrededor de la enana marrón. De hecho, es la primera vez que se detecta gas frío molecular en este tipo de discos. Este descubrimiento, junto con el de los granos de tamaño milimétrico, sugiere que el disco es más parecido a los que se encuentran en torno a estrellas jóvenes de lo que se creía.



Ricci y sus colegas llevaron a cabo este descubrimiento utilizando parte de las antenas de ALMA instaladas en el desierto chileno, que se encuentra a una gran altitud. ALMA es un conjunto de antenas de gran precisión que aún está en construcción. Las antenas trabajarán conjuntamente como si fueran un solo telescopio para observar el universo en gran detalle y con una gran precisión.

ALMA 've' el Universo en longitudes de onda milimétrica y submilimétrica, invisibles para el ojo humano. Se espera que la construcción de ALMA termine en el año 2013, pero los astrónomos iniciaron las observaciones con un conjunto parcial de las antenas de ALMA en 2011.

Los astrónomos apuntaron ALMA hacia la joven enana marrón ISO-Oph 102, también conocida como Rho-Oph 102, en la región de formación estelar de Rho Ofiuco, en la constelación de Ofiuco (El Portador de la Serpiente). Con unas 60 veces la masa de Júpiter, pero solo 0,06 veces la masa del Sol, la enana marrón tiene muy poca masa para iniciar las reacciones termonucleares por las cuales brillan las estrellas. Aún así, emite calor, generado por sus lentas contracciones gravitatorias, y brilla con un color rojizo, aunque mucho menos que una estrella.

Los telescopios recogieron la luz de longitudes de onda en torno a un milímetro, emitida por el disco de material calentado por la enana marrón. Los granos del disco no emiten mucha radiación en longitudes de onda más largas que su propio tamaño, por lo que en longitudes de onda mayores puede medirse un característica disminución en el brillo.

Los astrónomos compararon el brillo del disco en longitudes de onda de 0,89 mm y 3,2 mm. La disminución en el brillo de 0,89 mm a 3,2 mm no fue tan brusca como se esperaba, lo que demuestra que algunos de los granos miden un milímetro o son incluso mayores.

“ALMA es una herramienta nueva y potente para resolver misterios sobre la formación de sistemas planetarios”, afirma Leonardo Testi, del Observatorio Europeo Austral (ESO), miembro del equipo de investigación. Testi también señaló que “Intentar hacer lo mismo con telescopios de generaciones anteriores habría requerido casi de un mes de observaciones  — algo imposible en la práctica. Pero utilizando tan solo una cuarta parte delo que será el conjunto final de antenas de  ALMA ¡pudimos hacerlo en menos de una hora!”.

En un futuro próximo, el conjunto ALMA será lo suficientemente potente como para tomar imágenes detalladas del disco que rodea a Rho-Oph 102 y de otros objetos. Ricci explicó que “Pronto seremos capaces, no solo de detectar la presencia de pequeñas partículas en los discos, sino de saber cómo se reparten a lo largo del disco circumestelar y cómo interactúan con el gas que también hemos detectado en el disco. Esto nos ayudará a comprender mejor cómo se forman los planetas”. (Fuente: ESO)

viernes, 30 de noviembre de 2012

Explorando los soles colosales del grupo de estrellas Cygnus OB2

Las estrellas más calientes y masivas no viven lo suficiente como para dispersarse por otras zonas de la galaxia. En vez de eso, se encuentran cerca de las nubes de gas y polvo de donde se forman y donde pueden explotar como supernovas después de unos pocos millones de años.

Estas estrellas pueden estar desde muy atadas gravitacionalmente unas a otras, formando cúmulos muy densos, hasta muy poco atadas, constituyendo entonces grupos con menor cohesión, conocidos como asociaciones estelares. En particular, destacan las asociaciones OB, llamadas así porque sus soles integrantes son de las clases estelares O y B, básicamente estrellas gigantes azules o blancuzcas.

Una de las asociaciones OB más cercanas y más ricas de nuestra galaxia es Cygnus OB2, que se encuentra a unos 4.700 años-luz de distancia y alberga a unas 3.000 estrellas de alta temperatura, incluyendo alrededor de 100 de la clase O. Con masas de no menos de diez veces la del Sol, y con temperaturas superficiales entre 5 y 10 veces mayores, estas enormes estrellas inundan su entorno con una intensa luz ultravioleta y poderosos vientos estelares (flujos muy tenues de gas a elevada temperatura).

Dos de estas estrellas se pueden encontrar en el intrigante sistema binario conocido como Cygnus OB2 #9. En 2011, el satélite Swift de la NASA, el observatorio XMM-Newton de la Agencia Espacial Europea, y varios observatorios terrestres, participaron en una campaña para hacer un seguimiento de la pareja de estrellas gigantes mientras éstas se dirigían hacia el punto de máxima aproximación entre ambas.

Ahora, los primeros resultados de la campaña han sido presentados públicamente, dando una imagen más detallada de las estrellas, sus órbitas y la interacción de sus vientos estelares.

Los nuevos datos indican que Cygnus OB2 #9 es un sistema binario masivo con estrellas similares en masa y luminosidad, siguiendo órbitas muy excéntricas y largas. La estrella más masiva en el sistema tiene alrededor de 50 veces la masa del Sol, y su compañera es un poco más pequeña, con unas 45 masas solares. En su punto de máxima aproximación, estos titanes estelares están separados por menos de tres veces la distancia media de la Tierra al Sol.

Las estrellas de tipo O son tan luminosas que la presión de su luz literalmente expulsa material de su capa superficial, creando flujos de partículas con velocidades de varios millones de kilómetros por hora. La coexistencia de dos de estas gigantescas estrellas en el mismo sistema acarrea una violenta colisión entre sus vientos durante buena parte de su órbita o incluso a lo largo de toda ella, generando esto emisiones de ondas de radio y rayos X.

Dos conjuntos de mediciones tomadas con 5,5 días de separación, cerca del momento de llegada al punto de máxima aproximación entre ambas estrellas de Cygnus OB2 #9, muestran que el flujo de rayos X se cuadruplicó durante el periodo de máxima cercanía entre las estrellas. Ésta es una prueba convincente de la interacción entre los feroces vientos estelares.


martes, 27 de noviembre de 2012

El caótico origen de Titán y otras lunas de Saturno

Entre las rarezas del sector planetario más exterior del sistema solar están las lunas de tamaño medio de Saturno, media docena de cuerpos helados que resultan diminutas en comparación con Titán, la luna más grande de Saturno.



Según un nuevo modelo sobre el origen del sistema de Saturno, las lunas medianas fueron creadas durante colisiones gigantes en las que varios satélites grandes se fusionaron para formar Titán.

El equipo de Erik Asphaug, profesor de Ciencias Planetarias y de la Tierra de la Universidad de California, Santa Cruz, y Andreas Reufer de la Universidad de Berna en Suiza, proponen que el sistema de Saturno comenzó con una familia de satélites principales comparables a las cuatro grandes lunas de Júpiter (conocidas como los satélites galileanos, y descubiertas por Galileo en 1610). Las lunas galileanas acaparan el 99,998 por ciento de la masa del sistema de satélites de Júpiter. Las demás lunas son minúsculas. Por tanto, el gigante gaseoso no tiene lunas medianas, sólo posee las 4 grandes y la colección de las minúsculas.

El nuevo modelo podría explicar por qué son tan diferentes el sistema de Saturno y el de Júpiter.
Los autores del nuevo estudio en el que se ha perfilado dicho modelo creen que los planetas gigantes adquirieron sus satélites de modo similar a como el Sol obtuvo sus planetas, creciendo como si fueran sistemas solares en miniatura y terminando con una etapa de colisiones finales. En el modelo propuesto para el sistema de Saturno, Titán creció a partir de un par de impactos gigantes, cada uno combinando la masa de los cuerpos que colisionaron entre sí, lo que a su vez creó, a modo de escombros sobrantes, a los satélites de pequeño tamaño.

viernes, 23 de noviembre de 2012

En busca de las lentes gravitacionales más potentes del firmamento

Mirando con telescopios hacia direcciones muy específicas del firmamento es factible acceder a líneas de visión singulares, formadas por dos o más lentes gravitacionales alineadas, de tal modo que sea posible ver cosas tan lejanas en el espacio y el tiempo que sería imposible captarlas de otro modo. Lo que se puede captar a través de una lente gravitacional múltiple podría abarcar incluso hasta algunas de las primeras estructuras cósmicas brillantes formadas poco después de la creación del universo.

Una lente gravitacional es el fenómeno que se genera cuando un objeto masivo en el espacio, por ejemplo un cúmulo de galaxias, cruza, desde la perspectiva visual de la Tierra, por delante de una galaxia u otro objeto luminoso que brilla en el fondo, mucho más lejos. El fuerte tirón gravitatorio del objeto masivo curva los rayos luminosos del objeto distante situado detrás y aumenta la imagen como lo hace una lente óptica. Eso permite a los astrónomos ver al objeto más distante con una resolución muy superior a la que sería posible sin el efecto de lente gravitatoria.

El equipo de la astrónoma Ann Zabludoff de la Universidad de Arizona, sus colaboradores Ken Wong y Decker French del Observatorio Steward adscrito a dicha universidad, así como Mark Ammons del Laboratorio Nacional Lawrence Livermore, ubicado en Livermore, California, y Charles Keeton de la Universidad Rutgers en Nueva Jersey, todas estas instituciones de Estados Unidos, está trabajando para buscar y analizar esas alineaciones de lentes gravitacionales.



No es tarea fácil. En general, los sistemas masivos son escasos, y las probabilidades de tenerlos alineados son más raras aún.

En una revisión meticulosa de datos archivados en anteriores estudios del firmamento, el equipo buscó lugares donde los cúmulos masivos de galaxias estuvieran alineados de tal manera que creasen una lente gravitacional múltiple.

Los cálculos para seleccionar las mejores líneas de visión se hicieron sobre la base de este planteamiento: Si tenemos una acumulación de masa en una dirección particular, ¿cómo deberíamos distribuir esa masa a lo largo de la línea de visión para obtener el máximo beneficio? Zabludoff y sus colegas usaron como filtro la información obtenida.

El equipo combinó datos reales de los últimos rastreos del cielo con sus escenarios modelados, y seleccionó 200 puntos prometedores del firmamento. El equipo de Zabludoff ya ha comenzado a inspeccionar a fondo 10 de estas potenciales líneas de visión óptimas, y ya ha tenido oportunidad de comprobar en las observaciones preliminares que el área aparece mucho más aumentada que lo ofrecido por las lentes gravitacionales aisladas.


martes, 20 de noviembre de 2012

El gran peligro inesperado que aguarda en Plutón a la sonda espacial New Horizons

Los "siete minutos de terror", como se le llamó al angustioso rato que duró el aterrizaje del Curiosity en Marte, pueden ser un juego infantil comparados con la aventura titánica que ahora resulta que aguarda a la New Horizons en Plutón.

La nave New Horizons de la NASA ya lleva volando casi 7 de los 9,5 años que durará su viaje a través del sistema solar para explorar Plutón y su sistema de lunas. Dentro de poco más de dos años, en enero de 2015, la New Horizons iniciará las operaciones de su encuentro con Plutón, que culminarán con su sobrevuelo el 14 de julio de 2015 y la primera exploración de un miniplaneta en el cinturón de Kuiper.

Mientras la New Horizons ha estado viajando a través del sistema solar, su equipo de científicos en la Tierra se ha vuelto cada vez más consciente de la posibilidad de que haya una cantidad nada desdeñable de "escombros" en órbita al sistema de Plutón, lo que pondría en peligro a la nave y a los objetivos de la misión.

Son ya cinco las lunas conocidas en órbita a Plutón. Y, tal como han determinado Alan Stern del Instituto de Investigación del Sudoeste en San Antonio de Texas y otros científicos, esas lunas, así como quizá otras aún no descubiertas, actúan como generadores de escombros, llenando el sistema de Plutón con fragmentos liberados en colisiones entre esas lunas y pequeños objetos del cinturón de Kuiper.

Debido a que esta nave viaja tan rápido (unos 50.000 kilómetros por hora, ó más de 30.000 millas por hora), una sola colisión con una piedra, o incluso con un grano de tamaño milimétrico, podría causar averías en la New Horizons o incluso destruirla. Un impacto a esa velocidad puede ser potencialmente peor que un balazo, ya que las balas más rápidas en la Tierra apenas llegan a la décima parte de esa velocidad.

El equipo de científicos de la New Horizons, incluyendo a Stern, así como a Hal Weaver y Leslie Young del Laboratorio de Física Aplicada de la Universidad Johns Hopkins en Baltimore, Maryland, ya está utilizando todas las herramientas disponibles para buscar escombros en órbita a Plutón. Los investigadores emplean para tal fin sofisticadas simulaciones informáticas de la estabilidad de los cascotes que orbitan a Plutón, apoyadas por las observaciones mediante grandes telescopios terrestres e incluso el Telescopio Espacial Hubble.

Al mismo tiempo, el equipo está considerando otras alternativas, como desviar la nave hacia trayectorias más alejadas del sistema de Plutón que preservarían la mayor parte de la misión científica pero evitarían colisiones fatales si el actual plan de vuelo se vuelve demasiado peligroso.

Los responsables de la misión admiten que hasta diez días antes de cuando está previsto que la New Horizons sobrevuele Plutón probablemente no sepan si la nave debe encender sus motores para huir de un impacto inminente de metralla cósmica.

viernes, 16 de noviembre de 2012

Nube de gas y polvo a punto de ser despedazada por un agujero negro

En los próximos meses, buena parte de una vasta nube de polvo y gas comenzará a ser desgarrada por un agujero negro ubicado en la zona central de nuestra galaxia.

La nube, conocida como G2, se está aproximando peligrosamente a las inmediaciones del agujero negro Sgr A*. A finales de 2012, los efectos de esta aproximación comenzarán a ser claramente perceptibles en la nube; por ejemplo, esta última será casi cinco veces más larga que ancha, debido al estiramiento ejercido por el agujero negro.

simulaciones de la nube G2 en sus órbitas alrededor de SgrA*. (Foto: M. Schartmann y L. Calçada/ European Southern Observatory y Max-Planck-Institut fur Extraterrestrische Physik)


En junio de 2013, pasará a 40.000 millones de kilómetros de distancia del agujero negro.

Entre 2013 y 2020, se desencadenarán los efectos más destructivos para la nube, causados por su cercanía al agujero. La propia fricción con el gas que rodea a Sgr A* contribuirá a hacerla trizas.

El hallazgo es el resultado del trabajo del físico computacional Peter Anninos y del astrofísico Stephen Murray, ambos del Laboratorio Nacional Lawrence Livermore en California, así como de Julia Wilson y Chris Fragile, ahora en la Universidad de Charleston en Carolina del Sur, en Estados Unidos.

La simulación por supercomputadora que han preparado sugiere que algo de G2 sobrevivirá, aunque esta porción quedará desmembrada y abocada a un destino incierto.

El polvo en la nube está a unos 277 grados centígrados. El gas, en su mayor parte hidrógeno, está a aproximadamente 9.700 grados centígrados, o sea más caliente que la superficie del Sol.
El origen de la nube es aún desconocido. Se especula con muchas procedencias, desde una estrella vieja que perdió bastante repentinamente parte de su atmósfera exterior, hasta una acumulación de materia en vías de convertirse en un planeta pero cuya evolución hacia ese estadio quedó truncada porque el ambiente estaba demasiado caliente.

A medida que siga acercándose más al agujero negro y se intensifique el fuerte tirón gravitacional de éste, la temperatura de la nube aumentará mucho más, siendo perceptible desde la Tierra mediante radiotelescopios y telescopios de rayos X, incluyendo por ejemplo el satélite Chandra de rayos X.

La nube, esencialmente, quedará destrozada, aunque su rumbo no la llevará a una caída directa al agujero negro.

El punto en el que un objeto ya no se puede escapar de ser absorbido por un agujero negro se conoce como radio de Schwarzschild, una cifra cuyo valor depende de la masa del agujero, la velocidad de la luz y la constante gravitacional.

La nube escapará del punto de no retorno por aproximadamente 2.200 radios de Schwarzschild. Sin embargo, mucha de su materia se reunirá con la atrapada en el caliente disco de acreción alrededor del agujero negro. La nube quedara tan despedazada que es poco probable que cualquier remanente significativo de la masa de gas siga su camino orbital original.

El encuentro cercano durará varios meses. El evento completo se prevé que dure menos de una década.

lunes, 12 de noviembre de 2012

Usar los púlsares como balizas para un sistema de navegación cósmica


Un grupo de científicos del Laboratorio Nacional de Física (NPL) y la Universidad de Leicester, ambas instituciones en el Reino Unido, ha recibido el encargo de la Agencia Espacial Europea (ESA) de investigar la posibilidad de usar púlsares para un sistema de navegación cósmica que permita a naves espaciales orientarse durante viajes a gran distancia sin necesidad de depender del Control de Vuelo en la Tierra

Las estrellas de neutrones, como su nombre indica, están compuestas principalmente de neutrones, el resultado de un colosal aplastamiento de materia por acción de la gravedad, y alcanzan densidades de más de un billón de veces la del plomo. Estos exóticos astros, sólo superados en densidad por los agujeros negros, son núcleos compactados de estrellas masivas que se quedaron sin combustible nuclear y se derrumbaron sobre sí mismas al sufrir una explosión en forma de supernova.

Un púlsar es una estrella de neutrones con una rapidísima rotación. El púlsar emite, desde sus polos magnéticos, ondas de radio, así como rayos X y rayos gamma. La desalineación de los polos magnéticos con el eje de rotación de la estrella de neutrones hace que los haces de radiación giren de igual modo que los focos de un faro marítimo, enviando pulsos de haces hacia los posibles observadores distantes. El período entre cada pulso se corresponde con la velocidad de rotación de la estrella de neutrones.

En algunos casos estos impulsos pueden ser muy regulares, haciéndolos fuentes adecuadas para la navegación utilizando una técnica similar al GPS.

Las conclusiones a las que se llegue en el estudio sobre esta fascinante posibilidad de usar púlsares como balizas de un sistema de navegación cósmica, pueden abrir la puerta hacia una revolución en la forma de orientación de las naves espaciales en las regiones del sistema solar más alejadas del Sol y en el espacio interestelar.

Actualmente, la navegación de las sondas espaciales se basa en transmisiones de radio entre la nave distante y una red de estaciones en la Tierra. Esto significa que la nave tiene que esperar una instrucción de la Tierra para guiarla a través del espacio y, a grandes distancias, esto puede tomar horas, días o incluso más. Este tiempo de retardo afecta a la capacidad de la nave para reaccionar con rapidez. Además, la infraestructura en la Tierra se vuelve más difícil y más cara cuanto mayor sea la lejanía de la nave, debido sobre todo al tamaño de las antenas de radio necesarias para las comunicaciones con el vehículo distante.

Valiéndose de detectores de rayos X instalados a bordo, una nave podría medir los tiempos de los pulsos procedentes de los púlsares para determinar la posición de la nave en el espacio y su movimiento.



La Universidad de Leicester utilizará su experiencia en astronomía de rayos X para el diseño del dispositivo, y el NPL desarrollará los algoritmos de sincronización y navegación para determinar la exactitud potencial de esta técnica. Por parte del NPL, el proyecto lo dirige Setnam Shemar.

La forma tradicional de navegación espacial, controlada desde la Tierra, sólo permite orientar con la debida seguridad a un número limitado de naves espaciales, dado que sólo se puede procesar un conjunto también limitado de datos al mismo tiempo. Si se da el caso de que dos naves deben efectuar maniobras críticas al mismo tiempo, puede surgir un problema.

De ser factible, la nueva técnica podría permitir que un mayor número de misiones espaciales complejas se ejecuten simultáneamente en el espacio profundo, puesto que las sondas espaciales serán capaces de orientarse por sí mismas.

Si esta singular técnica de navegación es viable y práctica, podría comenzar a ser usada dentro de no mucho tiempo para reducir los costos y limitaciones asociadas con la tecnología de control desde la Tierra, y más lejos en el futuro, podría permitir a los humanos navegar con precisión en el espacio interestelar

viernes, 9 de noviembre de 2012

La fragmentación de un cometa en estas semanas

El cometa Hergenrother (168P/Hergenrother), que actualmente está atravesando la zona interior de nuestro sistema solar y que en semanas pasadas ha emitido impresionantes erupciones de material cometario, se está ahora partiendo en trozos, literalmente.

Usando el Telescopio Gemini Norte, del Observatorio Nacional estadounidense de Astronomía Óptica (NOAO por sus siglas en inglés), en la cima del Mauna Kea, Hawái, el equipo de Rachel Stevenson, del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, ha verificado que el núcleo del cometa se ha separado en al menos cuatro bloques distintos, lo que a su vez ha provocado un notable incremento de materia polvorienta en su cabellera o coma.



Con más material para reflejar los rayos del Sol, la cabellera del cometa se ha vuelto mucho más brillante.

El proceso de fragmentación del cometa fue detectado por vez primera el 26 de octubre pasado por un equipo de astrónomos del Observatorio de Remanzacco en Italia, quienes se valieron del telescopio FTN (Faulkes Telescope North) en Haleakala, Hawái. El primer bloque desprendido en ser visto fue captado también desde el Observatorio Nacional estadounidense de Kitt Peak en Arizona.

El cometa Hergenrother es visible, mediante un telescopio grande y con un cielo muy oscuro, entre las constelaciones de Andrómeda y Lacerta (Lagarto).

La órbita del cometa se conoce con gran precisión. Ni el cometa ni ninguno de sus fragmentos representan una amenaza de colisión para la Tierra.

martes, 6 de noviembre de 2012

¿La relación causa-efecto es inamovible en el ámbito cuántico?

Uno de los conceptos más enraizados en la ciencia y en nuestra vida cotidiana es el de la relación causa-efecto: Los sucesos del presente son resultado de sucesos del pasado y, a su vez, serán las causas de sucesos futuros. Si un evento A es causa de un efecto B, entonces B no puede ser causa de A.

Ahora, unos físicos teóricos de la Universidad de Viena en Austria y la Universidad Libre de Bruselas en Bélgica han llegado a la conclusión de que en la mecánica cuántica es posible concebir situaciones en las que un evento individual pueda ser tanto causa como efecto de otro.

Aunque todavía no se sabe si situaciones de este tipo aparecen realmente en la naturaleza, la mera posibilidad de que pudieran existir abre la perspectiva de repercusiones potenciales de gran alcance para los fundamentos de la mecánica cuántica, la gravedad cuántica y la computación cuántica.

En la vida cotidiana y en la física clásica, los sucesos están ordenados en el tiempo: Una causa sólo puede influir sobre un efecto en su futuro, no en su pasado. Un ejemplo sencillo de esto es el siguiente: Imaginemos una persona, Juana, entrando en una habitación durante la única visita de su vida a un edificio histórico. En la sala, Juana encuentra una hoja de papel. Después de leer lo que está escrito en el papel, Juana borra el mensaje, escribe el suyo propio en el mismo papel, y se va. Otra persona, Antonio, también durante la única visita de su vida a ese edificio, entra justo a continuación en la misma habitación, y hace lo mismo: Lee el mensaje en la hoja de papel, lo borra y escribe el suyo propio.

Si Antonio entra en la habitación después que Juana, podrá leer lo que ella escribió. Sin embargo, Juana no podrá leer lo que Antonio escribió. En este caso, lo que Juana escribe es la "causa" y lo que Antonio lee es el "efecto".

Por más veces que se repitiera la situación, y aunque se intercambiase el orden en que ambas personas entran en la habitación y leen, borran y escriben en el papel, sólo una de ellas podrá leer lo que la otra escribió. Aún sin que sepan de antemano quien de los dos ha entrado primero en la sala, lo pueden deducir por el hecho obvio de que poder leer el mensaje implica que su autor lo ha escrito antes, no después. Si Antonio llega después y lee el mensaje de Juana, él sabrá que ha entrado en la sala después de la persona que ha escrito ese mensaje, no antes.

Si sólo se toman en cuenta las leyes de la física clásica, el orden de los sucesos es fijo: uno de los dos, Antonio o Juana, es el primero en entrar en la habitación y dejar un mensaje para la otra persona que llegue a continuación.

Sin embargo, cuando entra en juego la mecánica cuántica, la situación puede cambiar radicalmente. Según la mecánica cuántica, los objetos pueden perder sus bien definidas propiedades clásicas. Por ejemplo, una partícula puede estar en dos lugares diferentes al mismo tiempo, al menos en teoría y en ciertos aspectos. En física cuántica, a este fenómeno se le denomina "superposición cuántica".

El equipo internacional de físicos, dirigido por Caslav Brukner de la Universidad de Viena, ha mostrado que incluso el orden causal de los sucesos podría tener dicha superposición. Si, en nuestro ejemplo, Juana y Antonio tienen un sistema cuántico en lugar de una hoja ordinaria de papel para escribir sus mensajes, pueden terminar en una situación en la cual cada uno puede leer una parte del mensaje escrito por el otro. Habría una superposición de dos situaciones que parecen ser mutuamente excluyentes: Juana entraría en la habitación primero y dejaría un mensaje antes que Antonio, y Antonio entraría en la habitación primero y dejaría un mensaje antes que Juana.
Esa superposición, sin embargo, no ha sido considerada en la formulación estándar de la mecánica cuántica debido a que la teoría siempre da por supuesto que existe un orden causal firme entre los sucesos", aclara Ognyan Oreshkov de la Universidad Libre de Bruselas. "Pero si consideramos que la mecánica cuántica gobierna todos los fenómenos, es natural esperar que el orden de los sucesos también pueda llegar a ser indeterminado, de modo similar a como pasa con la ubicación de una partícula o su velocidad", añade Fabio Costa de la Universidad de Viena.

Este trabajo constituye un paso importante para comprender que el orden causal firme quizá no sea una propiedad insoslayable de la naturaleza. "El desafío real es determinar dónde deberíamos buscar superposiciones del orden causal en la naturaleza", acota Brukner.

viernes, 2 de noviembre de 2012

CALIFA: el universo extragaláctico local al descubierto

El sondeo CALIFA (Calar Alto Legacy Integral Field Area) ha anunciado su primera emisión pública de datos, que ofrece con un detalle sin precedentes una visión sobre cien galaxias del universo local. El objetivo final de este proyecto internacional, en el que participa el Instituto de Astrofísica de Canarias (IAC), en España, es caracterizar 600 galaxias del universo más cercano. El sondeo analizará propiedades de estas galaxias como la velocidad, la edad estelar, su composición química, etc.

Además de los datos del sondeo, se ponen a disposición del público dos publicaciones técnicas firmadas por miembros de la colaboración CALIFA en las que se describen los datos y se muestran algunas de sus aplicaciones científicas.




El diagrama color-magnitud de 151 galaxias observadas por CALIFA. Para cada galaxia se muestra una imagen en color verdadero generada usando las imágenes en las bandas B (azul), V (verde) y R (rojo). (Foto: IAC)







El investigador principal de CALIFA, Sebastián Sánchez, afirma: “Estoy muy contento de ver un sueño hecho realidad. Cuando pensamos en CALIFA por primera vez, hace cinco años, la perspectiva de hacer públicos unos datos tan maravillosos parecía muy lejana, ¡pero está ocurriendo justo ahora! Esperamos y confiamos en que la comunidad científica hará uso de esta oportunidad”.

Las galaxias son los productos finales de la evolución cósmica a lo largo de intervalos cosmológicos de tiempo, y su historia secreta se halla oculta en las propiedades de sus distintos componentes. CALIFA es un proyecto que se encuentra en plena ejecución en el Observatorio de Calar Alto, centrado en caracterizar las galaxias del universo local para tratar de descubrir estos ‘tesoros arqueológicos’.

CALIFA aplica para este fin la técnica llamada espectroscopia de campo integral (IFS, por sus siglas en inglés) a 600 galaxias del universo local. Los estudios observacionales tradicionales en astronomía extragaláctica recurrían a una de las dos técnicas clásicas: o bien la toma de imágenes, lo que brinda información detallada acerca de la estructura espacial de las galaxias, o bien la espectroscopia, que ofrece información sobre varias propiedades de las galaxias, pero poca -o ninguna- sobre la distribución espacial de estos rasgos. La reciente tecnología IFS permite tomar multitud de espectros de manera simultánea sobre muchos puntos de cada galaxia, gracias a una eficaz combinación de fibras ópticas y técnicas clásicas. CALIFA es el primer estudio IFS diseñado de manera explícita como un proyecto de tipo 'legado', que permite el uso inmediato por parte de la comunidad científica de los datos obtenidos. Cuando culmine, será el mayor estudio de esta clase que jamás se haya completado.

El espectrógrafo de campo integral empleado para el sondeo CALIFA en el Observatorio de Calar Alto, PMAS (en una configuración especial denominada PPAK), usa más de 350 fibras ópticas para cubrir un campo de visión de un minuto de arco (equivalente al tamaño aparente de una moneda de un euro situada a una distancia aproximada de 80 metros). De este modo se puede cartografiar por completo y en detalle todo un objeto extenso, como una galaxia.
Los datos publicados ahora permiten generar mapas con distintas propiedades de las galaxias, como la velocidad, las edades estelares o la composición química, por mencionar sólo unas pocas. Esta información permitirá ahondar en varias cuestiones cruciales relacionadas con la estructura y la historia de las galaxias que conforman el cosmos. Se espera obtener resultados, por ejemplo, acerca de qué procesos impulsaron la evolución de las galaxias a lo largo del tiempo, cómo se producen dentro de las galaxias (o en distintas regiones dentro de cada galaxia individual) los elementos químicos necesarios para la vida, cuáles son los fenómenos involucrados en las colisiones entre galaxias, etc. Esta información permite desvelar la historia no sólo de una galaxia entera, sino también de sus partes constituyentes.

“La cantidad de ciencia que se puede hacer es simplemente increíble”, señala Jakob Walcher, responsable científico del proyecto CALIFA. “Podemos estudiar los procesos locales que impulsan la evolución de las galaxias y que tienen lugar en distintos sitios dentro de las galaxias, como la formación estelar, los efectos dinámicos, etc. Pero también podemos caracterizar globalmente las propiedades de las galaxias del universo local de un modo imposible hasta ahora. Por ejemplo, cartografiamos la distribución bidimensional de la masa estelar y de los elementos químicos que conforman las galaxias. Por último, el gran tamaño de nuestra muestra permitirá establecer comparaciones entre distintos tipos de galaxias”, detalla Walcher.

El Observatorio de Calar Alto es operado por el Instituto de Astrofísica de Andalucía (IAA-CSIC, Granada, España) y el Instituto Max Planck de Astronomía (MPIA-MPG, Heidelberg Alemania). El observatorio garantiza 250 noches de observación (distribuidas en tres años) para el sondeo CALIFA con el telescopio reflector Zeiss de 3.5 m y, además, brinda apoyo para los procesos de toma, reducción y almacenamiento de los datos.

Para cubrir este esfuerzo enorme se requiere la participación de un gran consorcio de profesionales de la astronomía, cuya composición refleja la herencia hispano-alemana del observatorio. Pero también se incluyen participantes de todo el mundo hasta sumar un total de ochenta personas de trece países distribuidas en 25 centros de investigación con sedes en lugares tan alejados como Australia, Canadá o Estados Unidos.

Con diez investigadores involucrados en el proyecto CALIFA, bajo la coordinación de Jesús Falcón Barroso, el Instituto de Astrofísica de Canarias (IAC) es uno de los grupos más activos de la colaboración. El IAC lidera el estudio del movimiento de las estrellas y del gas ionizado. Dichos estudios permitirán caracterizar el momento angular estelar, las peculiaridades en la rotación del gas ionizado o el patrón de velocidades de barras en galaxias espirales. El conjunto de estos resultados en la amplia muestra del proyecto CALIFA permitirá establecer de forma inequívoca los procesos dominantes en la evolución y el destino de las galaxias. (Fuente: IAC)



martes, 30 de octubre de 2012

Nuestra galaxia está envuelta por un colosal halo de gas caliente

El satélite astronómico Chandra de rayos X, de la NASA, ha proporcionado evidencias de que nuestra galaxia la Vía Láctea está rodeada por un enorme halo de gas caliente que se extiende por cientos de miles de años-luz.

Se estima que la masa del halo es comparable a la masa de todas las estrellas de nuestra galaxia.

Un equipo de cinco astrónomos utilizó datos reunidos por el Chandra, el Telescopio Espacial XMM-Newton de la Agencia Espacial Europea, y el satélite Suzaku, mayormente japonés, para determinar los valores máximos y mínimos de la temperatura, la extensión y la masa del halo de gas caliente.
La Vía Láctea y las Nubes de Magallanes rodeadas por el halo de gas caliente. (Foto: NASA/CXC/M.Weiss; NASA/CXC/Ohio State/A Gupta et al)
.

El Chandra observó ocho fuentes brillantes de rayos X situadas lejos de la galaxia, a distancias de cientos de millones de años-luz. Los datos revelaron que los rayos X de estas fuentes lejanas son absorbidos selectivamente por iones de oxígeno en las cercanías de nuestra galaxia. La naturaleza de la absorción permitió a los científicos determinar que la temperatura del halo absorbente es de entre 1 millón y 2,5 millones de grados centígrados aproximadame

Otros estudios ya indicaron que la Vía Láctea, así como otras galaxias, podían estar rodeadas por una masa de gas caliente, con temperaturas de entre 100.000 grados y un millón. También hubo indicios de la existencia de un componente más caliente, con una temperatura superior a 1 millón de grados.

viernes, 26 de octubre de 2012

Los agujeros negros habrían sido comunes en el universo temprano

Con las imágenes de rayos-X más profundas a la fecha, los astrónomos encontraron la primera evidencia directa de que los masivos agujeros negros eran comunes en el universo temprano. El hallazgo realizado con el Observatorio Chandra muestra que agujeros negros muy jóvenes crecieron más agresivamente de lo previamente pensado, en tándem con el crecimiento de las galaxias que los hospedaban.




Al apuntar a Chandra a una región del cielo por más de seis semanas, los astrónomos obtuvieron lo que se conoce como el Campo Profundo Sur de Chandra (CDFS, Chandra Deep Field South) Esas imágenes se empezaron a obtener en un sondeo iniciado en 1999. Al combinar esos datos con imágenes ópticas e infrarrojas de Hubble, los astrónomos fueron capaces de buscar agujeros negros en 200 distantes galaxias de cuando el universo tenía entre 800 millones a 950 millones de años de edad (un corrimiento al rojo cosmológico, z, de entre 6 y 7).

"Hasta ahora no teníamos idea qué estaban los agujeros negros en estas tempranas galaxias o si existían", señaló Ezequiel Treister de la Universidad de Hawai, autor principal del estudio que aparecerá mañana en Nature (ya se encuentra online, ver abajo). "Ahora sabemos que están allí y que están creciendo mucho".

El súper crecimiento implica que los agujeros negros en el CDFS son versiones menos extremas de cuásares -objetos muy luminosos generados por material que cae a agujeros negros supermasivos. Sin embargo, las fuentes en el CDFS son unas cien veces más débiles y los agujeros negros son mil veces menos masivos que aquellos en cuásares.

Las observaciones hallaron que más del 30% de las galaxias distantes contienen agujeros negros supermasivos creciendo. Si se extrapola esos resultados a todo el cielo habría al menos 30 millones de agujeros negros supermasivos en el universo temprano. Este es un factor 10.000 veces mayor que el número estimado de cuásares en aquellos tiempos primitivos del cosmos.

"Parece que hemos encontrado toda una nueva población de agujeros negros bebé", comentó el coautor Kevin Schawinsky de la Universidad de Yale. "Pensamos que estos bebés crecerán en un factor de entre 100 y 1000, convirtiéndose finalmente en agujeros negros gigantes que vemos hoy casi 13 mil millones de años después".

Una población de jóvenes agujeros negros en el universo temprano había sido predicha, pero no observada. Cálculos detallados muestran que la cantidad de crecimiento de agujeros negros observada por este equipo es unas 100 veces mayor que las estimaciones previas.
Como los agujeros negros están envueltos por espesas nubes de gas y polvo, los telescopios ópticos no los pueden detectar frecuentemente. Sin embargo, las altas energías de la luz en rayos-X puede penetrar esas paredes.

Los físicos que estudian los agujeros negros quieren saber más acerca de los primeros y supermasivos agujeros negros que se formaron y cómo crecieron. Aunque ya se había encontrado evidencia de un crecimiento paralelo entre agujeros negros y galaxias en el universo cercano, los nuevos resultados de Chandra muestran que esta conexión comenzó antes de lo pensado.

"La mayoría de los astrónomos piensa que en el universo actual, agujeros negros y galaxias crecen de manera simbiótica", explicó Priya Natarajan, coautora del trabajo. "Hemos mostrado que esta relación existió desde mucho antes".

Se ha sugerido que los agujeros negros tempranos habrían jugado un rol importante en despejar la "niebla" cósmica del hidrógeno neutral que bañaba al universo temprano cuando las temperaturas se enfriaron luego del Big Bang. Sin embargo, el estudio de Chandra muestra que las "paredes" de polvo y gas detuvieron la radiación ultravioleta generada por agujeros negros por lo que no debieron ser los responsables de la llamada "reionización". Por lo tanto, las estrellas y no los agujeros negros son probablemente quienes hayan contribuido a salir de esa "edad oscura" del amanecer cósmico.

miércoles, 24 de octubre de 2012

Primer análisis en 3D de un filamento de materia oscura

Un filamento gigante de materia oscura, que se extiende a lo largo de 60 millones de años-luz desde uno de los cúmulos de galaxias más masivos conocidos, MACS J0717.5+3745, ha sido analizado tridimensionalmente.

El fantasmal filamento forma parte de una telaraña cósmica que constituye la estructura a gran escala del universo, y que es una reliquia de los primeros instantes después de la creación del universo. Dicha telaraña ha suscitado en los últimos años mucho interés entre los cosmólogos, sobre todo desde unas observaciones hechas una década atrás por el satélite astronómico Chandra de rayos X .


El análisis del filamento gigante de materia oscura lo ha hecho el equipo de Mathilde Jauzac del Laboratorio de Astrofísica de Marsella, dependiente del Centro Nacional para la Investigación Científica (CNRS) en Francia. En la investigación también han trabajado científicos de otras instituciones. Los datos usados provienen del Telescopio Espacial Hubble (de la NASA y la Agencia Espacial Europea), así como de otros telescopios.

Si la gran masa que se le ha medido al filamento de materia oscura es representativa de lo que puede haber en el resto del universo, entonces los filamentos de esta clase deben contener más de la mitad de toda la masa del universo.

Nunca nadie ha podido observar directamente a la materia oscura, ni tampoco se sabe de qué está hecha, pero los astrónomos están seguros de que existe debido a la manera en que su atracción gravitacional afecta a las concentraciones visibles de materia normal en el espacio. Se barajan varias identidades para la materia oscura. A la espera de hacer un descubrimiento que demuestre que una de ellas corresponde a la materia oscura, los científicos avanzan de momento por la vía de la eliminación de posibilidades. Si un hallazgo demuestra que la materia oscura no puede tener una de esas identidades propuestas, la lista de candidatos se reduce y la investigación se concentra en ellos.

Una deducción hecha a partir de la teoría del Big Bang es que las variaciones en la densidad de la materia durante los primerísimos instantes de existencia del universo tras el Gran Estallido hicieron que la mayor parte de la materia del cosmos se condensase en una red de filamentos entrelazados. Esta deducción está respaldada también por simulaciones digitales de la evolución cósmica, las cuales sugieren que el universo, a gran escala, está estructurado como una red, con largos filamentos conectando unos con otros los lugares del cosmos ocupados por cúmulos muy masivos de galaxias. Una peculiaridad de estos vastos filamentos es que están hechos casi por completo de materia oscura.

La primera identificación convincente de una sección de uno de estos filamentos fue hecha meses atrás. Ahora, el equipo de Mathilde Jauzac ha conseguido ir un paso más allá, al estudiar la estructura de un filamento en tres dimensiones. Ver un filamento en 3D permite eliminar muchos de los errores potenciales y de las incertidumbres que se presentan cuando se examina una imagen plana de una de esas estructuras.

lunes, 22 de octubre de 2012

Datos clave de la misión Gaia

La misión Gaia de la ESA censará mil millones de estrellas dentro de nuestra propia galaxia, determinando con precisión su magnitud, posición, distancia y desplazamiento. Para ello, observará cada uno de los astros más de 70 veces a lo largo de los cinco años que durará su misión.

Está previsto que esta misión descubra cientos de miles de nuevos objetos celestes, desde planetas extrasolares a estrellas ‘fallidas’, o enanas marrones. Dentro de nuestro propio Sistema Solar, Gaia catalogará cientos de miles de asteroides.


Entre las contribuciones que realizará a la astrofísica destacan la detección y caracterización de decenas de miles de sistemas planetarios extrasolares, y un completo estudio de una gran variedad de cuerpos celestes, tales como objetos menores en nuestro propio Sistema Solar, otras galaxias o más de medio millón de lejanos cuásares. Esta misión también pondrá a prueba la Teoría General de la Relatividad, enunciada por Albert Einstein.

El nombre de Gaia procede del acrónimo inglés de ‘Interferómetro Astrométrico Global para la Astrofísica’, que hacía referencia a las técnicas de interferometría óptica que se iban a usar en un principio. Aunque se haya cambiado el método de observación, se decidió mantener el nombre de la misión.

Su lanzamiento está previsto para finales de 2013, a bordo de un lanzador Soyuz-Fregat que despegará desde el complejo de Sinnamary en el Puerto Espacial Europeo, Guayana Francesa.

El observatorio está en desarrollo, comenzando la fase de ensayos. El contratista principal es la compañía EADS Astrium SAS, con sede en Toulouse.
Gaia estudiará las estrellas de nuestra galaxia desde una órbita en torno al segundo punto de Lagrange, L2. Este punto, 1,5 millones de kilómetros más alejado del Sol que la Tierra, acompaña a nuestro planeta en su movimiento de traslación, de forma que el satélite, la Tierra y el Sol permanecerán siempre alineados. Este tipo de órbita permite garantizar que ninguno de estos cuerpos celestes se interpondrá con el campo de visión de Gaia.

Los instrumentos de Gaia son tan precisos que, si estuviese en la Tierra, sería capaz de medir el pulgar de una persona situada en la superficie de la Luna.

El transmisor de Gaia utilizará muy poca potencia, menos que una bombilla convencional de 100 W. A pesar de ello, será capaz de enviar datos a gran velocidad (cerca de 5 Mbit/s) a lo largo de los 1,5 millones de kilómetros que lo separarán de nuestro planeta. Para recibir su señal se utilizarán las estaciones de seguimiento más potentes de la ESA: las antenas de 35 metros de Cebreros, España, y Nueva Norcia, Australia.

Las cifras del censo celeste son impresionantes. De media, Gaia descubrirá cada día 10 estrellas rodeadas por su propio sistema planetario, 10 estrellas explotando en otras galaxias, 30 estrellas ‘fallidas’, o enanas marrones, y un gran número de cuásares alimentados por agujeros negros supermasivos.

Se estima que Gaia detectará unos 15.000 planetas fuera de nuestro Sistema Solar al analizar los minúsculos cambios en la posición de una estrella debidos a las perturbaciones gravitatorias de los planetas que la rodean.

Gaia también pondrá a prueba la Teoría General de la Relatividad de Albert Einstein, midiendo cómo afecta el campo gravitatorio del Sol a la luz de las estrellas con una precisión de dos partes por millón. (Fuente: ESA)

viernes, 19 de octubre de 2012

Encontrado un planeta en el sistema estelar más cercano a la Tierra

Astrónomos europeos han descubierto un planeta con una masa similar a la de la Tierra orbitando una estrella en el sistema Alfa Centauri — el más cercano a nuestro planeta. También es el exoplaneta más ligero descubierto hasta el momento alrededor de una estrella de tipo Sol. El planeta fue detectado utilizando el instrumento HARPS, instalado en el telescopio de 3,6 metros en el Observatorio La Silla de ESO, en Chile. Los resultados aparecieron online en la revista Nature, en su edición del 17 de octubre de 2012.

Alfa Centauri es una de las estrellas más brillantes de los cielos australes y el sistema estelar más cercano a nuestro Sistema Solar — se encuentra a tan sólo 4,3 años luz de distancia. En realidad se trata de un sistema estelar triple, que consiste en dos estrellas similares al Sol orbitando cerca la una de la otra, designadas como Alfa Centauri A y B, y una estrella roja débil más distante conocida como Próxima Centauri. Desde el siglo XIX, los astrónomos especulaban con la posibilidad de la existencia de planetas orbitando estos cuerpos, ya que sería el lugar más cercano en el que encontrar un huésped que pudiera albergar vida más allá del Sistema Solar, pero búsquedas de gran precisión no revelaban nada. Hasta ahora.


“Nuestras observaciones se prolongaron durante más de cuatro años, utilizando el instrumento HARPS, y han relevado una señal diminuta, pero real, que muestra un planeta orbitando Alfa Centauri B cada 3,2 días”, afirma Xavier Dumusque (Observatorio de Ginebra, Suiza, y Centro de Astrofísica de la Universidad de Oporto, Portugal), autor principal del artículo. “¡Es un descubrimiento extraordinario y ha llevado nuestra tecnología hasta sus límites!”

El equipo europeo detectó  el planeta captando los pequeños bamboleos en el movimiento de la estrella Alfa Centauri B generados por el tirón gravitatorio del planeta que la orbita. El efecto es diminuto — hace que la estrella se mueva hacia delante y hacia atrás no más de 51 centímetros por segundo (1,8 km/hora, más o menos la velocidad que alcanza un bebé cuando gatea). Es la precisión más alta alcanzada nunca con esta técnica.

Alfa Centauri B es muy similar al Sol, pero ligeramente más pequeña y menos brillante. El nuevo planeta descubierto, con una masa algo mayor que la de la Tierra, se encuentra orbitando la estrella a unos seis millones de kilómetros de distancia, mucho menor que la de Mercurio con respecto al Sol en nuestro Sistema Solar. La órbita del otro componente brillante de esta estrella doble, Alfa Centauri A, se mantiene a cientos de veces esa distancia, pero aún así sería un objeto muy brillante en los cielos de este planeta.

El primer exoplaneta alrededor de una estrella tipo Sol fue encontrado por el mismo equipo en 1995 y, desde entonces, ha habido más de 800 descubrimientos confirmados, pero la mayor parte son planetas mucho más grandes que la Tierra, abundando los planetas tipo Júpiter. El reto al que se enfrentan ahora los astrónomos es detectar y caracterizar un planeta con masa similar a la de la Tierra que orbite en la zona de habitabilidad de otra estrella. Ya se ha dado este primer paso.

“Este es el primer planeta con una masa similar a la de la Tierra encontrado alrededor de una estrella de tipo Sol. Orbita muy cerca de su estrella y debe hacer demasiado calor para albergar vida tal y como la conocemos”, añade Stéphane Udry (Observatorio de Ginebra), coautor del artículo y miembro del equipo, “pero es posible que forme parte de un sistema en el que haya más planetas. Otros resultados de HARPS y nuevos descubrimientos de Kepler, muestran claramente que la mayor parte de los planetas de baja masa se encuentran en este tipo de sistemas”.

“Este resultado representa un gran paso adelante hacia la detección de un planeta gemelo a la Tierra en las inmediatas vecindades del Sol. ¡Vivimos tiempos emocionantes!”, concluye Xavier Dumusque. (Fuente: ESO)

martes, 16 de octubre de 2012

Está la chatarra espacial cerca del umbral de una multiplicación exponencial automática?

Al igual que una colisión entre dos vehículos en una autopista con tráfico muy denso puede provocar una colisión en cadena entre muchos otros vehículos, podrían ser destrozados muchos satélites en un periodo de tiempo relativamente corto si la abundancia de chatarra espacial supera el Umbral de Kessler. Éste es el umbral más allá del cual la densidad de objetos en las franjas orbitales más usadas se vuelve tan alta que las colisiones entre objetos podrían causar a su vez una cascada exponencialmente creciente de otras colisiones, al fragmentarse cada objeto impactado en muchos otros objetos.

Gráfico de la presencia de chatarra espacial hasta la órbita geosincrónica (unos 36.000 kilómetros de altura).


En órbita a la Tierra, giran cientos de satélites activos, así como decenas de miles de pedazos de "basura espacial" compuesta por satélites fuera de servicio o sus fragmentos, restos de cohetes impulsores y hasta herramientas perdidas por astronautas. Esa multitud de objetos variopintos es más comparable a metralla que a simple basura. Al desplazarse a unos 30.000 kilómetros por hora, esos pedazos se están moviendo aproximadamente diez veces más rápido que la más veloz de las balas en la Tierra. Y las balas, pese al mucho daño que pueden hacer, no son objetos especialmente grandes ni pesados.

La amenaza de la chatarra espacial se convirtió en noticia de primera plana en 2009, cuando un satélite ruso fuera de servicio y un satélite estadounidense de comunicaciones de propiedad privada colisionaron cerca del Polo Norte. El incidente produjo nubes de escombros que rápidamente se unieron al peligroso desfile de basura orbital, aumentando la posibilidad de futuros accidentes.

El envío de satélites al espacio sigue creciendo año tras año, conforme crece el número de países y empresas envueltos en las actividades orbitales, por lo que la amenaza de la chatarra o metralla espacial no va a menguar por sí solo.

Objetos del tamaño de una bala pueden infligir daños masivos a la nave contra la que impacten si lo hacen a las velocidades espaciales típicas, del orden de varios kilómetros por segundo o más. Por eso, la chatarra espacial constituye una amenaza potencial para las vidas de los astronautas.

E incluso en el caso de que esos fragmentos de basura sólo impacten contra satélites, dejarlos de repente fuera de servicio puede acarrear cuantiosos problemas

Bastantes de los satélites que están en servicio en órbita a la Tierra son eslabones vitales en la transmisión de datos, voz e imágenes por todo el mundo. Algunos satélites ayudan a conectar a las personas en regiones remotas, y otros ayudan a navegar a buques, aeronaves y vehículos terrestres. Los satélites también ayudan a hacer progresos en diversas líneas de investigación científica, gracias a que proporcionan datos críticos sobre la atmósfera, el mar y la tierra. Y tampoco podemos olvidar que la función principal de cerca de una cuarta parte de todos los satélites es apoyar a los sistemas de defensa de diversas naciones del mundo; un impacto contra uno de tales satélites en un momento de gran tensión internacional podría despertar sospechas de un ataque intencionado y empeorar las cosas, un peligro que fue típico durante la Guerra Fría.

Es urgente, por tanto, evitar que la proliferación de chatarra espacial alcance el umbral de Kessler. No basta con limitarse a hacer un seguimiento preciso de la trayectoria de cada pedazo de chatarra espacial. Si la chatarra espacial sigue creciendo y no se hace nada por evitarlo, tarde o temprano se llegará al tan temido umbral de Kessler. Eso podría ocurrir antes de lo previsto si se produjera alguna catástrofe de gran magnitud, con la liberación de mucha "metralla", en una franja orbital de gran tráfico.

A fin de reducir la amenaza de la chatarra orbital y asegurar que nunca se llegue al umbral de Kessler, ya se trabaja en métodos para limpiar de basura espacial las franjas orbitales más problemáticas.

Uno de ellos, propuesto en 2010, y sobre el cual ya dimos entonces la noticia desde NCYT de Amazings, es el sistema denominado GOLD (por las siglas del inglés "Gossamer Orbit Lowering Device"), diseñado por la empresa Global Aerospace Corporation, en Altadena, California. Con este sistema, sería posible la eliminación segura y eficiente de los objetos espaciales peligrosos que circulan por órbitas terrestres bajas. El GOLD se vale de un gran globo fabricado con un material ultradelgado. Una vez hinchado, el globo aumenta la resistencia aerodinámica al avance en un factor de varios centenares. Este gran roce contra la exigua masa de aire presente en las órbitas bajas es suficiente para hacer perder velocidad al objeto inservible y provocar su pérdida progresiva de altura. La masa cada vez más densa de aire con la que se encuentra el objeto acaba calentándolo hasta incinerarlo. Usando el sistema GOLD, será posible que objetos que habrían permanecido en órbita durante siglos reentren a la atmósfera terrestre en cuestión de meses.
El material del globo del sistema GOLD es más delgado y más ligero que el film de plástico transparente para envolver bocadillos. Se necesita una cantidad muy pequeña de gas para inflarlo en el vacío casi perfecto del espacio. El sistema es capaz de seguir funcionando pese a las múltiples perforaciones que inevitablemente debe sufrir todo objeto de su tamaño expuesto a micrometeoritos o a partículas diminutas de basura espacial. A pesar de estos agujeros, la tasa total de fuga de gas será muy pequeña. El sistema de presurización podrá compensar muy fácilmente el ritmo de la fuga. En el caso muy poco probable de que el globo colisione contra un objeto grande, eso no provocará que el objeto grande se rompa en fragmentos, más difíciles de vigilar debido a su número. Por lo tanto, el funcionamiento de GOLD en sí mismo no puede empeorar el tráfico descontrolado de pedazos de chatarra orbital, como por desgracia sí podría ser el caso con algunos métodos alternativos que otros investigadores han sugerido.

Aunque el globo cuando se infla puede ser del tamaño de un estadio deportivo (unos 100 metros de diámetro), su "piel" es tan delgada que, deshinchado, el globo puede plegarse y guardarse en un espacio sorprendentemente pequeño (dentro de una maleta de tamaño medio). Gracias a ello, instalarlo en vehículos espaciales o etapas superiores de cohetes antes del lanzamiento no acarrea un costo importante en combustible extra para trasladar al espacio ese peso extra.

Cuando los vehículos equipados con el sistema GOLD lleguen al final de su misión, se activará el despliegue del globo. Por otra parte, el sistema GOLD también podría ser amarrado a grandes bloques de chatarra ya en órbita, mediante el uso de un robot orbital. En el caso de objetos grandes y densos que puedan ser capaces de resistir lo suficiente la reentrada como para impactar contra la superficie terrestre y constituir un peligro para personas o bienes, el GOLD puede ser utilizado para dirigir su reentrada de manera segura, haciendo que caigan en un sector poco transitado de un océano.

Otra técnica prometedora para deshacerse de la chatarra espacial más peligrosa es la desarrollada por un equipo de ingenieros de la Universidad de Strathclyde en Glasgow, Escocia, Reino Unido. Usando una flota de satélites relativamente pequeños, equipados con proyectores de rayos láser energizados mediante energía solar, podría ser factible retirar chatarra espacial. Esos proyectores láser que estarían ubicados en el espacio podrían ser empleados para hacer descender un poco la órbita original del pedazo de chatarra elegido. Esa pérdida discreta pero decisiva de altitud haría al objeto más vulnerable al roce de la capa alta de la atmósfera, de tal modo que este roce acabaría precipitando la reentrada del objeto a la atmósfera, siendo éste pulverizado en ella.



viernes, 12 de octubre de 2012

Nobel de Física 2012 para el control de las partículas en el mundo cuántico

Los científicos Serge Haroche, profesor del Collège de France and Ecole Normale Supérieure en Paris (Francia), y David J. Wineland, investigador del National Institute of Standards and Technology (NIST) y la Universidad de Colorado Boulder (EEUU), son los ganadores del Premio Nobel de Física 2012.

Así lo ha anunciado la Real Academia Sueca de las Ciencias, quien reconoce los trabajos que han desarrollado los dos galardonados en el campo de la física cuántica. En concreto, han inventado y desarrollado métodos para medir y manipular partículas individuales sin alterar su naturaleza cuántica.

Las reglas de la física clásica dejan de funcionar en la escala de las partículas individuales de luz o materia. Es entonces cuando entra en juego la física cuántica, pero las partículas individuales no son fáciles de aislar de su entorno y enseguida pierden sus misteriosas propiedades cuánticas según interaccionan con el exterior.

Hasta ahora estos fenómenos no se podían observar directamente, y sólo se formulaban planteamientos teóricos. Pero los trabajos de los dos galardonados han demostrado con ingeniosas técnicas de laboratorio que se pueden cuantificar y controlar los frágiles estados cuánticos.

Wineland atrapa iones –átomos cargados eléctricamente–, controlándolos y midiéndolos con partículas de luz, con fotones. Sin embargo, Haroche utiliza el enfoque opuesto: manipula y mide fotones mediante el envío de átomos a través de una trampa.

El investigador francés, que nació el 11 de septiembre de 1944 en Casablanca (actual Marruecos), es principalmente conocido por demostrar la ‘decoherencia cuántica’ (explica la mecánica que ocurre a escala ‘micro’ en física cuántica). Haroche obtuvo su licenciatura en la Universidad Pierre y Marie Curie de París en 1971.

Por su parte, el estadounidense Wineland, que nació en Milwaukee en 1944 y se licenció en la Universidad de Harvard en 1970, ha desarrollado avances relevantes en óptica. Sus líneas de investigación se han centrado en el enfriamiento láser de partículas iónicas y en el uso de iones atrapados para implementar operaciones de computación cuántica.

Entre sus múltiples premios destaca la medalla Benjamín Franklin en Física que recibió en 2010 de manos del Instituto Franklin, junto al español Juan Ignacio Cirac y Peter Zoller.

Ambos laureados trabajan en el campo de la óptica cuántica estudiando la interacción entre la luz y la materia, un ámbito que ha progresado de forma considerable desde mediados de los 80. Los métodos innovadores que han introducido han permitido avanzar hacia la construcción de un nuevo tipo de computadora cuántica súper rápida que puede revolucionar la informática del futuro.

Además, sus investigaciones también han ayudado a la construcción de relojes extremadamente precisos, que podrían convertirse en la base de un nuevo estándar de tiempo, con una precisión cien veces superior a los actuales relojes de cesio.

Haroche y Wineland compartirán, a partes iguales, los 8 millones de coronas suecas con los que la Real Academia Sueca de las Ciencias dota al Nobel de Física. (Fuente: SINC)