lunes, 30 de abril de 2012

CIENCIA VIRTUAL: MEDICINAS QUE NACEN EN LA COMPUTADORA


Tras décadas buscando componentes en la naturaleza con potencial medicinal, hoy la mayoría de las farmacéuticas más destacadas está diseñando medicamentos de manera virtual. Gracias a análisis computarizados poderosos, los científicos manipulan las moléculas en las pantallas de sus computadoras para crear compuestos a la medida que ataquen las proteínas que causan enfermedades.

Este método de confección de moléculas es llamado diseño por estructura. La técnica fue usada para crear Xalkori, un tratamiento que Pfizer Inc. lanzó el año pasado para una forma rara y resistente de cáncer de pulmón. El fármaco también ha sido empleado en un tratamiento para Alzheimer desarrollado por Eli Lilly & Co., un antibiótico fabricado por GlaxoSmithKline PLC y un descoagulante de Sanofi SA.

Las farmacéuticas están encontrando tratamientos que nunca hubiesen descubierto de otra manera, dice Magid Abou-Gharbia, director del Centro de Descubrimientos de Drogas de la Universidad de Temple. El diseño es muy distinto a las técnicas tradicionales de desarrollo de fármacos, dice Jean Cui, la investigadora responsable de Xalkori.

Normalmente, una medicina ataca la proteína que está causando la enfermedad, y que interactúa con otras moléculas de una manera nociva. El medicamento hace contacto con la proteína y puede detenerla, restaurando así las reacciones saludables o compensando las enfermizas.

Por años, las farmacéuticas han acumulado vastas bibliotecas de compuestos y utilizado robots para que generen cientos de miles de muestras que les permitan descubrir si alguna tenía algún potencial médico. Sin embargo, casi todo se dejaba a la suerte. Los investigadores descubrían una nueva medicina pero no sabían cómo o por qué funcionaba. No sabían cómo lucían las llaves ni las cerraduras.

Determinar la forma de una cerradura no es fácil. Las proteínas se escapan de los rayos X por lo que sus imágenes no pueden ser captadas. Los científicos necesitan cristalizarlas para que no se disipen y entonces deducir su forma a partir de los trazos dejados en los rayos X. Este proceso requiere miles de modelos de interferencia y de computadoras potentes para analizarlos.

Los investigadores luego deben diseñar una molécula que encaje en esa cerradura, lo que es un reto. Además, la molécula debe conectar con el blanco y no puede ser metabolizada por el cuerpo ni demasiado despacio ni demasiado rápido, y tiene que ser capaz de ser sintetizada y fabricada en grandes cantidades.

Por todos estos desafíos, el diseño por estructura es más un instrumento para aumentar los descubrimientos que para revolucionarlos. Este procedimiento provee información útil y a veces crucial para el hallazgo de nuevos fármacos, pero no puede generar el candidato ideal sin información y trabajo adicional.

Según Pfizer, Xalkori no habría sido descubierto a principios de la década pasada sin el diseño por estructura. Sus científicos habían identificado la molécula c-Met, que jugaba un papel importante en el crecimiento de tumores de cáncer. Con la nueva técnica, cristalizaron la c-Met con uno de los prototipos de moléculas, le tomaron rayos X y, utilizando computadoras, dedujeron la estructura de la proteína y cómo el prototipo encajaba en ella como una llave en una cerradura.

Los investigadores enviaron los resultados a Cui, quien se dedicó a buscar una nueva molécula que bloquease la proteína c-Met y tuviese las características convenientes para un fármaco. Fue difícil, recuerda Cui. La nueva molécula tendría que encajar en un sitio de la proteína c-Met que los científicos no esperaban, y que requería una compresión en un espacio más pequeño. Cui se sentía dentro de un rompecabezas.

En mayo de 2002, después de cinco meses estudiándolo, Cui al fin visualizó el diseño. Sus colegas se encargaron de fabricar compuestos de manera virtual en la computadora, y en tubos de ensayo para estudios posteriores. En febrero de 2003, pruebas en animales demostraron que la molécula podía parar el crecimiento del tumor. Los científicos refinaron, sintetizaron y estudiaron la molécula hasta que Xalkori se volvió apto para ser probado en humanos.

El trabajo mostró que Xalkori se adhería y bloqueaba la proteína llamada ALK que causaba actividad tumoral y también la c-Met. Xalkori fue aprobado el año pasado para el tratamiento de cáncer de pulmón de células no pequeñas causado por un problema genético que afecta la ALK. Su uso en otros cánceres en los que la proteína c-Met está implicada sigue bajo investigación.

Jonathan D. Rockoff

sábado, 28 de abril de 2012

LA CIENCIA, Y NO LA POLÍTICA O LA ECONOMÍA, ES LA CLAVE PARA LOGRAR UN MUNDO MÁS PRÓSPERO


El premio Nobel de Química de 2010 recayó en Richard F. Heck, Akira Suzuki y Ei-ichi Negishi.

La reacción que lleva el nombre de este japonés afincado en Estados Unidos se estudia en los libros de texto que circulan por las facultades de Química de todo el mundo. Los trabajos de Ei-ichi Negishi han contribuido a que la ciencia, y sobre todo, la sociedad, lo que considera su mayor "premio", pueda disponer de un modo "más eficiente" de moléculas más complejas a partir de procedimientos mucho más simples y baratos, como reconoció la Academia Sueca al concederle el Nobel.

Gracias a esas moléculas, los fármacos mejorarán, pero también lo harán los aparatos electrónicos, que podrán disponer de pantallas más delgadas, o los cultivos, a través de sustancias que les protegerán frente a las plagas.

¿Viviremos más y más sanos gracias a los nuevos fármacos?

Podemos ir en esa dirección, siempre que se haga un buen uso, y no un abuso, de la tecnología científica, porque a veces se hace el medicamento equivocado. Honestamente, nuestra pretensión es facilitar el avance de la ciencia de la salud. En el objetivo de vivir más y más sanos creo que la química puede ayudar, pero insisto, tenemos que ser precavidos para no abusar.

¿Su hallazgo, que permite recrear compuestos orgánicos, ¿puede hacer que un científico caiga en la tentación de creerse Dios?

No. Cuanto más avanzamos en química, más nos extraña todo lo que Dios, la naturaleza, pudo hacer. Estamos muy lejos de eso, pero lo que he empezado a sentir es que podemos ayudar a Dios haciendo nuestras cosas de una manera diferente a como Dios, la naturaleza, las ha hecho. No necesitamos hacerlo todo de una manera biológica solo porque sea conocido, disponible, dado por la naturaleza, cuando muchas veces es más complicado. La manera química es mucho más simple, pero igual de útil.

¿Los compuestos sintéticos en el textil han desplazado a las materias primas naturales. ¿Ocurrirá lo mismo en todas las áreas?

La química y los compuestos sintéticos no tienen por qué dominar sobre los naturales, que tienen su propio mérito y ventajas. Los dos pueden convivir con el mismo éxito. Habrá una competencia continua entre múltiples posibilidades que será interesante siempre que nos permita sobrevivir de una manera más próspera y sostenible. Esas son las dos palabras clave que debemos perseguir.

Parecen más fáciles de enunciar que de lograr...

Sí. La ciencia y la ingeniería, más que la política o la economía o cualquier otra cosa, deberían ser las que prevalezcan para lograr que el mundo pueda sobrevivir sin demasiadas luchas.

Siempre defendió que la inversión en investigación y desarrollo produce beneficios. ¿Cómo convencer a los gobiernos, que recortan los presupuestos?

Estoy en ese caso. He conseguido que el gobierno japonés ponga más dinero en nuestra investigación y estoy intentando lograr lo mismo del estadounidense. Creo que hay que mostrarles algún ejemplo exitoso. Si pides dinero, el dinero escapa de ti, pero si buscas el éxito, el dinero le seguirá, y siento que esa es exactamente la actual situación.

¿Eso no supone una presión extra para el investigador?

¡Un montón de presión extra! Pero la presión, en la mayoría de los casos, es buena y necesaria en la investigación. Tienes que tener una meta. Si la logras, el dinero viene. Hay que ir a por la excelencia.

En la rueda de prensa afirmó que debemos aprender a reciclar el dióxido de carbono, el gran responsable del calentamiento global.

En la evolución, el CO2 ha sido un principal iniciador de materiales orgánicos, incluyéndonos a nosotros, la principal fuente de carbono. Deberíamos hacer lo mismo, reciclarlo, usarlo como punto de partida para producir lo que necesitamos. No tanto para comida sintética, de la que no soy muy partidario, como para fibras y medicinas, y, sobre todo, fuel.

¿Cómo se hace?

La naturaleza ya lo ha hecho con la fotosíntesis, convirtiendo gases en carbohidratos. Tenemos sol y plantas verdes, que son los catalizadores. Debemos imitarlos, pero de una forma diferente. Hay que ponerse a ello. Es una de las metas más importantes para la química. Muchos equipos de investigación están llamando a esa puerta, pero ninguno ha conseguido ver todavía qué hay detrás.

¿Qué opina de la energía nuclear? ¿Se puede confiar en ella?

Es una fuente de energía legítima, pero no confío en su actual nivel de seguridad. Hay que mejorarla. Cuando se haya hecho, no hay razón para que no la usemos, aunque creo que al tiempo debemos incrementar la capacidad de la energía química y entonces quizás no necesitemos de la nuclear.

Durante la entrega del Nobel subrayó que la felicidad debe ser la meta final de los seres humanos y ofreció una receta...
Se necesita buena salud, eso está en la base. Pero también un entorno feliz, una pareja, o una familia. Algunos pueden vivir solos, pero yo no creo poder hacerlo. Además, está dedicarse a una carrera que valga la pena, pero también disfrutar de algún hobby.

http://www.farodevigo.es/sociedad-cultura/2012/04/26/ciencia-politica-o-economia-clave-lograr-mundo-prospero/643715.html

INGESTA DE ANTIOXIDANTES SERÍA CAUSA DE CÁNCER


Investigadores estadounidenses advirtieron hoy de que la acción anticancerígena que se atribuye a algunos suplementos antioxidantes no ha sido demostrada científicamente y afirmaron que su ingesta incluso podría ser contraproducente.

Según un equipo de cinco científicos liderado por María Elena Martínez, de la Universidad de San Diego (California, Estados Unidos), los supuestos beneficios anticancerígenos de suplementos como el betacaroteno o las vitaminas C y E son "en su mayoría un mito".

En un artículo publicado hoy en la revista británica Journal of the National Cancer Institute, los expertos señalan que estas sustancias podrían incluso producir efectos biológicos que promueven el desarrollo de un cáncer.

La ingesta de antioxidantes se ha generalizado desde la popularización de la teoría de que previenen el envejecimiento y ciertas enfermedades como el cáncer, en cuyo origen podría tener un papel importante el estrés oxidativo de las células.

Sin embargo, según Martínez, la gente está siendo "engañada por los mensajes de los fabricantes de suplementos", que subrayan los beneficios para la salud de sus productos, entre los que destacan la prevención del cáncer.

"La suposición de que cualquier suplemento dietético es seguro bajo cualquier circunstancia y en cualquier cantidad no se sustenta empíricamente", subrayó Martínez.

En los últimos años numerosos estudios en animales han apoyado la teoría de que estos suplementos podrían reducir el riesgo de desarrollar un cáncer, sin embargo, sus conclusiones no han sido confirmadas aún mediante ensayos controlados aleatorios, la "prueba de oro" en la medicina, argumentó Martínez.

Sólo un pequeño número de suplementos ha sido sometido a este tipo de pruebas, agregó Martínez, y algunos estudios han concluido que, de hecho, el riesgo aumentó tras la toma de dichos antioxidantes.

"La ingesta de antioxidantes exógenos puede ser una espada de doble filo. Estos componentes podrían actuar como pro oxidantes -el efecto contrario al que se pretende obtener- o interferir en algunos procesos protectores del organismo, como la inducción de la apoptosis", escribieron los investigadores en su artículo.

La apoptosis, o muerte celular programada, es un proceso por el cual las células con problemas provocan su propia muerte.

Diversos estudios experimentales han demostrado que los distintos tejidos del organismo responden de manera diferente a cada uno de los nutrientes, "por lo que un antioxidante asociado a la protección contra un cáncer en un tejido concreto podría causar daño en otro", concluye el artículo.

http://www.pulsoslp.com.mx/Noticias.aspx?Nota=101376

CIENCIA DEL FUTURO Y PARA EL FUTURO


La historia reconoce a la ciencia como el conjunto sistematizado de la experiencia acumulada por la humanidad en el reconocimiento e interpretación del mundo exterior y en ella se distingue, como una de sus virtudes principales, la de constituir una firme base para la capacidad de anticipación, es decir, de servir como fundamento de la predicción.

En nuestro medio predomina la percepción de la actuación científica como la unidad dialéctica entre el sistema de conceptos, categorías, leyes, el método de conocimiento y la vinculación con la práctica, elemento este último que resulta indispensable como punto de partida y también como criterio confirmatorio del conocimiento.

Si bien el origen remoto de la ciencia se pierde en la memoria de los grupos humanos, es un hecho convencional reconocer su origen, al menos tal como la percibimos hoy, en el mundo antiguo y en particular en la Grecia clásica. Olvidada por siglos como resultado del oscurantismo imperante, parte de esa ciencia antigua resurgió en la Edad Media con la reactivación de ciertos métodos clásicos, los que fueron conservados en obras que eran a su vez copiadas y traducidas, en un proceso repetitivo en el que se añadían en ocasiones comentarios más o menos críticos.

En la época del Renacimiento tienen lugar una serie de eventos a los cuales se reconocen como el surgimiento de la ciencia moderna y es a partir de entonces que se opera de manera sistemática una expansión y perfeccionamiento gradual de sus métodos, lo que alcanza hoy magnitudes que resultaban insospechables hace sólo cinco siglos.

A partir de la segunda mitad del siglo XVI, se suceden descubrimientos y elaboraciones que abrieron el camino a la era de la Ilustración, cuyo decurso se ha identificado como la primera revolución científica. La astrología cede su lugar a la astronomía, la mecánica newtoniana se erige en sólida base de la física moderna, se describe correctamente la circulación de la sangre, irrumpe en la matemática el cálculo infinitesimal y se abre paso a desarrollos cualitativos y cuantitativos con los cuales la química sustituye y deja atrás a la alquimia. La biología perfecciona sus descripciones y se desarrolla y fructifica en su seno la concepción evolucionista.

Algo después, a partir de las primeras décadas del siglo XX, tienen lugar espectaculares saltos conceptuales que marcan la llamada segunda revolución científica. Se trata de la formulación y aceptación de la teoría de la relatividad y de la mecánica cuántica, a lo que van aparejadas en vertiginosa sucesión avances incomparables en el campo de la cosmología, así como el surgimiento y florecimiento de la cibernética, la llegada de la biología molecular y el desarrollo y maduración sucesiva de los estudios ecológicos.

Por otro lado, es un hecho establecido que la tecnología, entendida como el “saber para hacer” antecedió históricamente a la ciencia y marchó separada de ella durante muchos siglos. En la práctica, tanto la técnica como la tecnología constituyeron instrumentos utilizados por el hombre para “transformar el mundo” durante largos períodos históricos, en los que a menudo eran muy rudimentarios, escasos o frágiles los instrumentos racionales aportados por la ciencia para “interpretarlo”.

La peculiar interrelación entre ciencia y tecnología a lo largo del tiempo se pone de manifiesto en el transcurso de las llamadas “revoluciones tecnológicas” y la impronta de estas últimas en el desarrollo de la sociedad, que muchos prefieren describir como “modernizaciones”. La primera de las revoluciones tecnológicas reconocidas tuvo como exponentes supremos la mecanización de los telares y la aplicación a la agricultura y a la industria de la máquina de vapor.

La segunda se identifica con la irrupción en la práctica de la electricidad como fuente energética, del motor de combustión interna y con la producción de acero en gran escala. La tercera revolución tecnológica ha tenido por ámbitos la electrónica, la computación, la conformación de redes, el advenimiento de la energética nuclear, el desarrollo de la tecnología aeroespacial y los avances de la biotecnología moderna.

En un sentido más general, se pudiera afirmar que la considerada como primera modernización (o modernización clásica) fue el factor determinante en el paso de la sociedad agrícola, predominantemente rural, a la sociedad industrial, con sus rasgos distintivos en términos de urbanización, mercantilización y democratización.

Se afirma por los estudiosos del tema que en la actualidad nos encontramos inmersos en una segunda modernización, que estaría determinada por el paso de la sociedad industrial a la sociedad del conocimiento, caracterizada esta última por la supremacía de la informatización, la mundialización de los procesos y lo ineludible del enfoque ecológico.

Estudios académicos relativamente recientes han descrito como 24 países, que involucraban entonces alrededor de 930 millones de habitantes, habían completado hacia el año 2005 la llamada primera modernización y se adentraban a ritmo más o menos acelerado en la segunda. Por otra parte se estima que, en los próximos 50 años, serán de dos a tres mil millones las personas que pugnarán por culminar la primera modernización y seguir adelante.

Ahora bien, el proceso descrito tropieza con una contradicción fundamental: la forma de “vida moderna” que se quiere hacer prevalecer colisiona de manera creciente con la disponibilidad de recursos naturales y la degradación y afectación medioambiental que lleva aparejadas se vuelven incompatibles con la permanencia de la civilización y amenaza incluso las bases de subsistencia de la vida en el planeta.

El notable físico e historiador de la ciencia John D. Bernal, subrayó en su momento la trascendencia particular, para la historia de la ciencia y la tecnología, del período comprendido entre 1760 y 1830 (que incluye la revolución industrial en Inglaterra y las revoluciones políticas en Norteamérica y Francia).

Sobre él apuntó con acierto el estudioso británico que “fue entonces, y solamente entonces, cuando se dio el giro decisivo en el dominio del hombre sobre la naturaleza (…) las dos transformaciones básicas de los siglos XVI y XVII que hicieron posibles las del XIX fueron el nacimiento de la ciencia experimental cuantitativa y de los métodos de producción capitalistas.”

El conflicto actual está dado porque el régimen económico y social capitalista, que por varios siglos impulsó el florecimiento de la ciencia moderna, en la actualidad utiliza el conocimiento y la tecnología con propósitos ciegamente lucrativos, que llevan aparejados un grave deterioro ambiental y agotamiento de recursos no renovables, lo que pone en riesgo la supervivencia de la especie humana.

Como un corolario de lo anterior, es alarmante el uso del conocimiento y la tecnología avanzada para fines militares agresivos: dispositivos para multiplicar capacidades humanas y obtener “supersoldados”, “superbombas” capaces de pulverizar fortificaciones otrora virtualmente inexpugnables y, en general, mecanismos cada vez más perfeccionados para inducir destrucción y muerte.

De manera paradójica, el alcance del conocimiento científico contemporáneo es de tal naturaleza, que evidencia y fundamenta la necesidad de detener la mercantilización y deshumanización que prevalece en los actuales modelos de producción y consumo y de sustituirlos por un sistema socio-productivo que haga posible alcanzar la máxima compatibilidad ambiental y poner el acento en el desarrollo humano.

Para la ciencia del presente y, en mayor medida, para la del futuro se hace ineludible ofrecer un enfoque integral y transdisciplinario de los principales problemas de la Naturaleza y la Sociedad, así como hace buena su capacidad predictiva mediante la contribución a una visión prospectiva y a la formulación de alternativas plausibles para un nuevo tipo de desarrollo sobre bases sostenibles.

Desde la segunda mitad del siglo pasado no han tenido lugar en el terreno de la ciencia saltos comparables a los observados en momentos anteriores. A lo largo de ese periodo la tecnología, en cambio, ha acelerado sus innovaciones y reducido sistemáticamente los plazos transcurridos entre los nuevos desarrollos y su utilización masiva. Cabe entonces preguntarse: ¿estaremos a las puertas de una nueva revolución transformativa en la ciencia?

Eminentes colectivos científicos responden de manera afirmativa a esa interrogante y avizoran la eclosión de una necesaria “tercera revolución científica” hacia mediados del presente siglo. Entre ellos se encuentra el importante grupo especial creado hace poco por la Academia de Ciencias China para elaborar una proyección de la ciencia hasta el año 2050.

Los rasgos detallados de una proyección como esa son susceptibles de mayor o menor disenso entre los estudiosos, pero lo que sí se puede considerar fuera de discusión es que el logro principal que deberá aportar la próxima revolución científica ha de ser su contribución decisiva a la sostenibilidad ambiental, económica y social y el reajuste del modelo de desarrollo seguido hasta el presente.

Sin otra pretensión que brindar un atisbo de los saltos cualitativos que se avizoran, cabría mencionar la profundización esperada en la comprensión de los mecanismos de aprovechamiento de la energía solar y el perfeccionamiento de los dispositivos para su aprovechamiento energético directo, la explotación de recursos a grandes profundidades subterráneas y en las plataformas oceánicas.

De igual modo se ampliará y profundizará la comprensión de los mecanismos de interacción entre los nutrientes, el suelo, el agua, la luz, la temperatura y las plantas, todo lo cual habrá de repercutir en el orden práctico en el sostén alimentario de la población mundial y en una respuesta efectiva a las consecuencias del cambio climático.

A partir de una visión dialéctica de su historia, es consecuente asumir como válidos los razonamientos de quienes pronostican esa nueva revolución en la ciencia. Se encontraría en ellos, de manera no fortuita, una nítida respuesta a la aspiración expresada por el compañero Fidel en una de sus más alentadoras reflexiones: “El ser humano necesita aferrarse a una esperanza, buscar en la propia ciencia una oportunidad de supervivencia, y es justo buscarla y ofrecérsela”.

Fuente: http://www.cubarte.cult.cu/periodico/opinion/21929/21929.html

lunes, 23 de abril de 2012

ESTUDIO CUESTIONA PESO DE MATERIA OSCURA EN EL UNIVERSO


Un equipo científico que utilizó los telescopios del observatorio de la agencia europea ESO en Chile, analizó una extensa superficie del universo en torno al sol, tras lo cual comprobó que la materia oscura no gravita del modo que usualmente se considera.

Un comunicado difundido hoy por la agencia europea mostró que los científicos del observatorio La Silla calcularon la masa de materia en las vecindades del sol, con base en un volumen cuatro veces mayor al utilizado hasta ahora.

"La cantidad de masa derivada encaja muy bien con lo que vemos, estrellas, polvo y gas, en la región que rodea al Sol", señaló el investigador Christian Moni Bidin, líder del equipo científico y miembro del Departamento de Astronomía de la Universidad de Concepción, que trabajó en el observatorio en la región de Coquimbo (norte).

"Pero esto no deja espacio para materia extra, la materia oscura que esperábamos encontrar. Nuestros cálculos muestran que debería haberse visto claramente en nuestras medidas. Pero simplemente no estaba allí", agregó.

El descubrimiento de los movimientos de más de 400 estrellas situadas a más de 13.000 años luz del sol, pone en cuestión las teorías de científicos sobre la materia oscura, que afirmaban que constituía cerca de 80 por ciento de la masa del universo.

La materia oscura es una sustancia misteriosa que no puede verse, pero que se muestra por la atracción gravitatoria que ejerce en la materia que hay a su alrededor.

Esta afirmación surgió en un principio como explicación de por qué las partes más externas de las galaxias, incluida la Vía Láctea, rotaban tan rápido, pero la materia oscura ahora también es un componente esencial de las teorías que intentan explicar cómo se formaron y evolucionaron las galaxias.

Esto puede significar que es bastante improbable que los intentos por detectar directamente partículas de materia oscura en la Tierra tengan éxito.

En la actualidad se admite ampliamente que este componente oscuro constituye cerca de 80 por ciento de la masa del Universo, pese al hecho de que se ha resistido a todos los intentos de aclarar su naturaleza, que permanece a oscuras. 

Todos los intentos por detectar materia oscura en laboratorios en la Tierra han sido un fracaso.

Al medir cuidadosamente los movimientos de numerosas estrellas, particularmente aquellas que están lejos del plano de la Vía Láctea, el equipo pudo ir hacia atrás y deducir cuánta materia está presente, indicó la entidad.

Los movimientos son el resultado de la atracción gravitatoria mutua de todo el material, ya sea materia normal, como estrellas, o materia oscura, explicó.

Los actuales modelos de los astrónomos, que explican cómo se forman y rotan las galaxias, sugieren que la Vía Láctea está rodeada por un halo de materia oscura. 

Tampoco pueden predecir con precisión qué forma adquiere el halo, aunque se espera encontrar una gran cantidad de esta materia oscura en la región que rodea al sol.

Sólo formas muy improbables para el halo de materia oscura, como una forma muy alargada, pueden explicar la ausencia de este elemento, según el nuevo estudio.

Los resultados también pueden implicar que los intentos por detectar materia oscura en la Tierra para explicar las extrañas interacciones entre las partículas de materia oscura y la materia normal tienen pocas probabilidades de éxito, señaló la agencia ESO.

http://spanish.peopledaily.com.cn/92121/7793735.html

martes, 3 de abril de 2012

PRESENTAN LAS MEDIDAS MÁS PRECISAS ENTRE GALAXIAS DESDE QUE EL UNIVERSO SE ACELERA


La colaboración internacional Sloan Digital Sky Survey ha presentado las medidas más precisas obtenidas hasta el momento de las distancias de 300.000 galaxias llegando al universo lejano.

Tras más de dos años de trabajo del proyecto Baryon Oscillation Spectroscopic Survey (BOSS), un proyectos de la colaboración SDSS-III en el que participan científicos españoles, se presentan ahora los resultados. Hoy se presentan las medidas más precisas obtenidas hasta la fecha de las distancias de 300.000 galaxias llegando hasta el universo lejano, según recogen seis artículos publicados en el repositorio digital arXiv.

Uno de los descubrimientos más sorprendentes de las últimas dos décadas en astronomía, reconocido con el Premio Nobel de Física de 2011, ha sido la constatación de que nuestro Universo no solo se expande, sino que esa expansión se está acelerando, posiblemente como resultado de la acción de la llamada energía oscura, cuya naturaleza se desconoce.

El propósito del proyecto BOSS para tratar de dar respuesta a este problema ha sido realizar un gran cartografiado del mayor número posible de galaxias con medidas precisas de sus distancias. A partir de estas medidas, los astrónomos pueden deducir la historia de la expansión del Universo y su ritmo de aceleración.

BOSS empezó a tomar datos a mediados de septiembre de 2009, con un nuevo espectrógrafo instalado en el telescopio de 2,5 metros del SDSS en el Observatorio Apache Point en Nuevo México, EEUU. En tan solo dos años y medio, este experimento ha medido las posiciones exactas de más de 300.000 galaxias en todo el cielo, lo cual permite remontarnos hacia el pasado de nuestro Universo, a más de 6.000 millones de años. BOSS seguirá recopilando datos hasta 2014, año en que se completará el cartografiado final, que triplicará el tamaño del que se ha analizado hasta ahora.

El rastreo del cielo llevado a cabo por BOSS reproduce un mapa de galaxias y cúmulos de galaxias agrupadas en paredes y filamentos, con gigantescos vacíos que separan estas estructuras. Todas estas estructuras surgieron a partir de pequeñas variaciones de densidad en los inicios del Universo que llevaban el sello de las oscilaciones acústicas de bariones (BAO), unas ondas de sonido que se propagaban por el Universo temprano a través de la materia, que más tarde empezaría a colapsar para formar las galaxias.

Miles de millones de años mas tarde la huella de las BAO todavía puede reconocerse en el Universo. Este patrón puede interpretarse como una huella dactilar cósmica reflejada en la distribución de galaxias. De los detalles de esta huella dactilar pueden medirse los parámetros del Universo y las propiedades de la energía oscura. En otras palabras, de la misma manera que las huellas dactilares son únicas para cada persona, la huella dactilar cósmica permite determinar cómo es el Universo.

Con los datos tomados hasta la fecha, BOSS ha sido capaz de medir las BAO con un error del 2%, la medición más precisa de este dato realizada hasta hoy. El mapa producido por BOSS permite ver el Universo cuando tenia la mitad de su edad actual y ver el momento en el que empieza a acelerarse su expansión.



http://www.massalamanca.es/ciencia/8898-presentan-las-medidas-mas-precisas-entre-galaxias-desde-que-el-universo-se-acelera.html