martes, 26 de enero de 2010

El año 2009, el segundo más cálido del siglo para la Tierra


El presente invierno se está mostrando especialmente crudo en gran parte del hemisferio norte y especialmente en Europa, pero el calentamiento sigue avanzando a escala planetaria. Un nuevo análisis de la temperatura global en superficie realizado por científicos de la NASA ha encontrado que el pasado año 2009 ha empatado con otros como el segundo más cálido desde 1880, algo más de un siglo. En el caso del hemisferio sur, ha sido el más cálido desde que existen registros.
Aunque 2008 fue el año más frío del decenio debido a la fuerte actividad del fenómeno océanico conocido como «La Niña», que enfrió la zona tropical del Oceáno Pacífico, 2009 conoció un retorno a temperaturas globales cercanas al record, de acuerdo con los nuevos análisis realizados por el Instituto Goddard de Estudios Espaciales (GISS), en Nueva York.
El año pasado fue sólo una pequeña fracción de grado más frío que 2005, el año más caluroso hasta la fecha en los registros, poniendo a 2009 en un virtual empate con otros años -1998, 2002, 2003, 2006 y 2007- como segundo año más caluroso en los registros.
«Siempre hay interés en los números de la temperatura anual y su situación en la clasificación histórica, pero este ránking a menudo pierde su significado real», afirma James Hansen, director de este organismo. «Hay una variabilidad sustancial entre año y año de la temperatura global causada por los ciclos de los fenómenos de 'El Niño' y 'La Niña'. Cuando promediamos la temperatura en cinco o diez años minimizamos esa variabilidad, y encontramos que el calentamiento global continua sin pausa».
La década más cálidaEl período enero de 2000 a diciembre de 2009 fue la década más cálida nunca registrada. Mirando hasta 1880, cuando la instrumentación científica moderna comenzó a utilizarse, una clara tendencia al calentamiento está presente, aunque se produjo una cierta nivelación entre los décadas de 1940 y 1970.
Pero en las tres últimas décadas, los registros de temperaturas tomadas por el GISS muestra una tendencia al incremento de 0, 2 grados centígrados por década. En total, el promedio de temperatura global ha subido en 1,5 grados desde 1880. «Ese es un número importante para mantener en la cabeza», declaró el climatólogo Gavin Schmidt.

Los huracanes que vienen serán menos pero mucho más destructivos


Los huracanes que barrerán la cuenca atlántica durante este siglo serán menos cada temporada, pero más destructivos, según un estudio de la revista Science.
Los huracanes más intensos se concentrarán en la región occidental del Atlántico, lo que significa que la región más amenazada incluirá a la isla de La Española, ocupada por Haití y República Dominicana, además de las Bahamas y la costa sudoriental de Estados Unidos.
La investigación, realizada por científicos del Gobierno de EE.UU., se basa en pronósticos de otros estudios y está lejos de ser la última palabra, ha advertido Richard Kerr, editor de la revista. No obstante, James Kossin, del Centro Nacional de Datos del Clima en la Universidad de Wisconsin, ha añadido que todos esos modelos parecen coincidir en lo que se refiere al número y la intensidad. En comparación con otros estudios «éste es mucho más creíble e importante», ha añadido.
Oficialmente, la temporada de huracanes comienza el 1 de junio y finaliza el 30 de noviembre. Las tormentas nacen frente a las costas atlánticas de África y se precipitan sobre el territorio americano con una intensidad alimentada por la mayor temperatura de las aguas oceánicas.
En 2009 la Administración de Nacional de Océanos y Atmósfera (NOAA) de EE.UU. pronosticó la formación de entre siete y once tormentas tropicales, de las cuales de tres a seis podían derivar en huracanes, uno o dos de ellos de gran intensidad (categoría 3,4 ó 5) en la escala de intensidad Saffir-Simpson. Los científicos de la NOAA indicaron que la temporada de huracanes de 2009, que concluyó el 30 de noviembre, sería ligeramente más suave debido a los efectos del fenómeno meteorológico de «El Niño».
Pronóstico cumplidoEl pronostico se cumplió y en 2009 los huracanes fueron relativamente menos destructivos y frecuentes que en los años anteriores. Según el modelo de los científicos del Laboratorio de Dinámica Geofísica de NOAA, aunque habrá una declinación en el número de huracanes éstos causarán mayores daños.
El grupo destaca que los huracanes de categoría 3 a 5 han representado el 86 por ciento de todo el daño sufrido en el territorio estadounidense pese a que sólo constituyeron el 24 por ciento de los que tocaron tierra. El informe explica que cuando una tormenta de ese tipo sube a una categoría superior, el daño que provoca se duplica. Como resultado, el aumento de esa intensidad significará un mayor daño potencial de alrededor de un 30 por ciento.
Por otra parte, los científicos explican que en su nuevo modelo no hay indicaciones que fundamenten las afirmaciones de que el calentamiento global influya en la actividad de las tormentas. Cualquier efecto del calentamiento causado por los gases invernadero sería insignificante entre las variaciones naturales de la actividad de los huracanes, según los expertos

Cómo descubrir si "heredarás" un cáncer


¿Es el cáncer una enfermedad hereditaria? ¿Tener casos en nuestra familia nos predispone a la enfermedad? Estas son algunas de las preguntas a las que pretende contestar «Consejo genético. Guía para prevenir el cáncer hereditario» (en pdf), un manual elaborado por el Centro de Investigación del Cáncer a través de la Fundación para la Investigación del Cáncer de la Universidad de Salamanca.La respuesta es que lo que se hereda no es el cáncer sino «genes, que si mutan, están más predispuestos a inducir a otros a producir un cáncer». Pero incluso en estos casos, este factor no es más determinante que los hábitos de vida poco saludables «como fumar o llevar una vida sedentaria», explica el investigador principal del Centro de Investigación del Cáncer (CIC) y catedrático de la Universidad de Salamanca, Rogelio González Sarmiento. Aproximadamente entre un 5 y un 10 por ciento de los más de 200 cánceres que se conocen actualmente tienen un factor hereditario. Entre ellos se encuentra el cáncer de piel (melanoma), el de mama, ovario, próstata y colon; y algunos que afectan sobretodo a los niños como el retinoblastoma o cáncer de la retina.Por ello es importante que las personas con antecedentes de un mismo tipo de cáncer en su familia acudan al médico para que éste valore la conveniencia de realizar un consejo genético, cuyo objetivo es determinar la predisposición a desarrollar cánceres para evitar en lo posible que lleguen a producirse. Para averiguarlo se recopila información de tipo estadístico y, si es necesario, se realiza un test genético, que consite en una extracción de sangre, para analizar el ADN.Factores ambientales
En cualquier caso, el hecho de contar con estos genes no siempre significa que se tengan el cien por cien de papeletas para desarrollar un cáncer, ya que «la mutación debe desencadenarse por determinadas circunstancias ambientales», entre las que se encuentran el tabaco, una dieta poco equilibrada o la radiación solar. Así, se puede dar perfectamente el caso de personas que, a pesar de haber heredado la predisposición no desarrollen la enfermedad. «Únicamente un 10 por ciento de los mismos resultan ser casos positivos», destaca González Sarmiento, que afirma que la persona sana es quien se beneficia de estos programas, que previenen o detectan de manera precoz. «Hay portadores que nunca desarrollan cáncer si hacen una vida sana», concluye el investigador

.Una nueva técnica facilita el trasplante de cordón umbilical

Para algunos cánceres, el trasplante de cordón umbilical es la mejor opción. Es lo que ocurre cuando el paciente se ha visto sometido a un agresivo tratamiento que ha acabado con su propia capacidad de generar las células sanguíneas o del sistema inmunitario. Pero esta práctica tiene dos problemas: encontrar un donante compatible, y que el trasplante actúe con la rapidez suficiente para evitar las infecciones o la anemia mientras el enfermo se recupera. Una nueva técnica descrita por el Fred Hutchinson Cancer Research Center de Seattle (EE UU) evita ambas complicaciones, según publican los autores en Nature Medicine.
La técnica, que utiliza el denominado sistema de señalización Notch, que permite seguir el desarrollo de las células, consigue multiplicar por 164 la concentración de precursores hematopoyéticos (que luego darán lugar a las células de la sangre, desde plaquetas a glóbulos blancos). En ensayos en humanos se consiguió que el trasplante empezara a producir resultados en dos semanas, en vez de las cuatro habituales. Con ello se evita el tiempo en que el paciente es más vulnerable ante las infecciones.

California elimina los límites a la marihuana para uso médico

El Tribunal Supremo de California ha eliminado todos los límites al cultivo y la tenencia de marihuana para uso médico de pacientes en una esperada sentencia emitida el jueves por la noche (madrugada en España) y que se aprobó de forma unánime. Desde ahora, los enfermos que sean autorizados por sus médicos a usar cannabis para mitigar su dolor podrán cultivar tantas plantas o comprar tanta marihuana como deseen.
"Los individuos no están sujetos a ningún límite específico y no necesitan de la recomendación de médico alguno para exceder ningún límite; por el contrario, pueden poseer tantas cantidades de marihuana médica como sea razonablemente necesario para sus necesidades médicas personales", asegura el presidente del Tribunal, Ronald M. George, en la sentencia.
La máxima instancia judicial del Estado desautoriza de este modo al Senado y a la Asamblea Legislativa de California, que en 2003 aprobaron unos estrictos límites a la tenencia de marihuana para uso médico, legalizada en 1996 a través de votación popular. El legislativo prohibió en 2003 que los pacientes poseyeran más de 227 gramos de marihuana y seis plantas maduras, con cogollos, o doce plantas jóvenes.
Aquel mismo año se creó, además, por ley un registro en el que deben inscribirse todos los pacientes a los que se les autorice a consumir marihuana y a través del cual obtienen una tarjeta de identificación personal con la que pueden comprar la sustancia. En la misma sentencia emitida el jueves, los jueces del Supremo decidieron que el uso de estas tarjetas de identificación es legal y que los condados deben seguir expidiéndolas.
El requisito principal para comercializar marihuana en California es que el establecimiento que la venda sea administrado por una cooperativa u otra organización sin ánimo de lucro, en la que los vendedores no obtengan beneficio alguno. El pasado martes, el Gobierno local de Los Ángeles ordenó el cierre de unas 800 tiendas de marihuana en aquella ciudad y estableció que el número de establecimientos que ofrecen la sustancia se mantenga en 70.
Un día antes, en su último día como gobernador de Nueva Jersey, el demócrata John Corzine ratificó una ley que legaliza también el uso de marihuana médica en aquel Estado, que es el decimocuarto de EE UU en aprobar una normativa semejante.
Diversos estudios demuestran que la marihuana puede ayudar a combatir ciertos síntomas de enfermedades como el cáncer o el sida, o a combatir los efectos secundarios de la quimioterapia, como las náuseas. Otras investigaciones ofrecen pruebas de que el abuso de esta misma sustancia puede tener efectos nocivos como pérdida de memoria a corto plazo o ataques de ansiedad.

Descubren la zona cerebral que podría localizar la esquizofrenia

La esquizofrenia es una enfermedad psiquiátrica crónica y grave y se sabe que en el 70% de los casos puede tener un origen genético. Un equipo de investigadores de la Unidad de Psicosis en Investigación de Benito Menni CASM de Sant Boi de Llobregat (Barcelona), integrada en el Centro de Investigación Biomédica en Red de Salud Mental (CiberSAM), ha identificado por primera vez anomalías en la corteza frontal media del cerebro que podrían ser la causa de la esquizofrenia, según el estudio publicado en la revista científica Molecular Psychiatry. Hasta el momento, ningún otro trabajo había encontrado este tipo de disfunciones localizadas en la misma región del cerebro, informan los autores del trabajo en un comunicado.
Para realizar este estudio, los científicos liderados por Edith Pomarol-Clotet utilizaron tres técnicas distintas de resonancia para examinar y comparar el cerebro de 32 pacientes con esquizofrenia con el cerebro de 32 personas sanas. Una de las técnicas mide el volumen de materia gris del cerebro, otra examina las conexiones de la sustancia blanca subyacente y una tercera técnica registra el patrón de actividad en diferentes zonas del cerebro mientras los sujetos realizan un test cognitivo. Las tres técnicas coincidieron en sus resultados: en todos los pacientes esquizofrénicos la anormalidad se encontraba en la misma región, la corteza frontal media. La corteza frontal media es un área incluida en los lóbulos frontales situados en la parte anterior del cerebro, que en muchos estudios ya se había relacionado con la patofisiología de la esquizofrenia.
La corteza frontal media forma parte de una red de regiones cerebrales descubierta recientemente y que se denomina Default Mode Network (del inglés, red neuronal por defecto). Esta red parece tener un papel crucial en la creación y elaboración de los pensamientos que aparecen cuando la persona no se encuentra ocupada en ninguna tarea mental concreta. La Default Mode Network también ha sido relacionada con otras enfermedades como el alzheimer o la depresión.
El hecho de que las tres técnicas de neuroimagen hayan identificado la misma región cerebral es relevante. Según Peter McKenna, investigador principal del CIBER de Salud Mental y uno de los autores del artículo, "la convergencia de estos hallazgos cerebrales, estructurales y funcionales sugiere que la corteza frontal medial puede ser un lugar indicado para concentrar los esfuerzos de investigación en el futuro. Puede ser una pista para encontrar las causas de la esquizofrenia".
Pero, ¿por qué se producen esos cambios en esa zona del cerebro? Por ahora es una cuestión sin resolver y precisamente estos investigadores quieren tratar de averiguarlo: "Estamos empezando a planificar un estudio neuropatológico que confiamos que nos revele nuevos datos en este sentido", afirma la doctora Pomarol-Clotet.
En este estudio también han participado miembros del Grupo de Investigación en Aplicaciones Biomédicas de la Resonancia Magnética Nuclear de la Universidad Autónoma de Barcelona (UAB), perteneciente al CIBER de Bioingeniería, Biomateriales y Nanomedicina (CIBER-BBN), en el que colabora el investigador Antonio Capdevilla desde hace más de 10 años; la Fundació Sant Joan de Déu de Barcelona y el Departamento de Neuroimagen del Centro de Neurociencia de Cuba. Un equipo del CiberSAM y de Enfermedades Raras (CiberER) desveló recientemente el importante papel de una región de los cromosomas 6, 11 y 18 en esta enfermedad.
En España, la esquizofrenia afecta en sus diversas modalidades a unas 400.000 personas y la edad de aparición está comprendida entre los 18 y los 25 años, en hombres, y entre los 23 y los 35 años en mujeres. A pesar del estigma de violencia que arrastran estos enfermos, la agresividad no es una conducta que deba asociarse a este trastorno: algunos estudios indican que sólo un 5% de los pacientes tratados tiene conductas violentas. Esta enfermedad se caracteriza por una mutación sostenida de varios aspectos del funcionamiento psíquico del individuo, principalmente de la conciencia de realidad, y una desorganización neuropsicológica más o menos compleja, que lleva a una dificultad para mantener conductas motivadas y dirigidas a metas y a una significativa disfunción social. Las personas con esquizofrenia suelen mostrar un pensamiento desorganizado, delirios, alucinaciones, alteraciones afectivas en el ánimo y las emociones, del lenguaje y conductuales.

lunes, 18 de enero de 2010

La temperatura más baja registrada jamás en el planeta:89º bajo cero


Una investigación ha revelado las causas que llevaron a registrar la temperatura más baja de la historia, -89,2º, alcanzada en la Antártida en julio de 1983. Semejante temperatura fue provocada por efecto de una corriente de aire frío que se situó en la meseta antártica sin dejar paso al aire más cálido procedente de latitudes más bajas.
La investigación, llevada a cabo por la
British Antartic Survey (BAS) y el Artic and Antartic Research Institute de Rusia (AARI), indica que esa temperatura récord fue inferior en 30º a la media de 66º que impera en esa zona en el invierno del hemisferio sur.
La masa de aire frío procedente del océano Antártico se instaló durante diez días sobre la parte alta de la meseta antártica, donde está ubicada la estación científica rusa de Vostok, que registró este récord y que lleva desde 1958 midiendo las temperaturas de la región.
La corriente impedía que llegasen a esta zona masas de aire más cálido procedente de latitudes más bajas, lo que aisló la estación y creó las condiciones para que se dieran temperaturas tan extremas. Además, la ausencia de nubes y una capa de minúsculas partículas de hielo suspendidas en el aire -fenómeno conocido como diamante en polvo- contribuyeron a que el calor procedente de la superficie se perdiera en el espacio.
Se podría llegar a -96ºLa meseta antártica del este, donde se sitúa Vostok, está muy lejos del océano y a una altitud de 3.488 metros, lo que la hace extremadamente fría, de forma que se podrían alcanzar los -96º si se llegase a un periodo de aislamiento provocado por corrientes frías semejante a la que asoló Vostok en julio de 1983.
«El estudio ha permitido simular con éxito la rápida pérdida de calor en este periodo de 10 días, lo que ayudará al desarrollo de modelos climáticos utilizados para predecir la evolución futura del clima de la Antártida», ha explicado el investigador de la BAS y autor del estudio, John Turner.
Turner señaló que la Antártida todavía no ha sufrido los efectos del calentamiento global de la misma manera que la zona ártica, pero que en el próximo siglo se espera que se vea afectada por la subida generalizada de las temperaturas mundiales consecuencia del efecto invernadero, por lo que dudó de que se pueda repetir este récord.
Para Turner, esta investigación ha confirmado lo extremos que pueden ser los fenómenos naturales y nos alerta de la necesidad de estar atentos por si vuelven a producirse estas anomalías meteorológicas.
La tecnología utilizada en este estudio se ha basado en una combinación de gráficos meteorológicos, imágenes de satélite, y registros de temperatura, presión atmosférica, velocidad y dirección del viento tomados cada seis horas.

El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron luga


El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron lugar a los depósitos de carbón de la región y era el centro del «supercontinente Pangea» -que configuraba la estructura terrestre- hace 305 millones de años.
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la
Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximonúmero de la revista científica sobre geología más antigua del mundo,
Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
El origen del carbónLa formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.

A falta de una solución definitiva para la diabetes, la esperanza está en la tecnología, en crear un sistema que imite al páncreas y haga la vida más fácil a los pacientes. En los últimos años ha habido varios intentos para desarrollarlo, pero el páncreas artificial aún es más un deseo que una realidad. La Fundación para la Investigación en Diabetes Juvenil (JDFR) ha anunciado un acuerdo con dos compañías estadounidenses para desarrollar el primer dispositivo que, de verdad, podría llamarse páncreas artificial. La tecnología ya está a punto y podría estar preparada para su aprobación en menos de cuatro años.
Si todo se desarrolla según los planes previstos los diabéticos que utilicen el dispositivo se liberarían de los continuos controles de glucosa y de las tradicionales inyecciones de insulina. El dispositivo inteligente se ocuparía de casi todo: un detector continuo comprobaría el nivel de glucosa y una bomba de insulina le proporcionaría la cantidad de insulina que necesite en cada momento el paciente.
El beneficio es doble; no sólo mejora la calidad de vida de los diabéticos sino que se logra un control más estricto de la enfermedad con menos complicaciones. Algunas tan graves como el fallo renal o la ceguera.
Como un órgano vivo
Los diabéticos tipo 1 deben hacerse varios controles al día para comprobar las fluctuaciones que sufren sus cifras de glucosa. Estos análisis son incómodos para todos los enfermos, pero más aún cuando se trata de niños o de pacientes jóvenes.
Ya existen dispositivos, aprobados incluso en España, que se aproximan bastante a esta idea, aunque aún no son tan perfectos. Los sistemas más sofisticados avisan si el nivel de glucosa baja peligrosamente e incluso interrumpen el flujo de insulina si es necesario, aunque no eliminan por completo la intervención humana. El enfermo debe comprobar los niveles de glucosa y programar la bomba.
El nuevo proyecto tiene como objetivo liberar, casi por completo, a las personas con diabetes. La clave está en el desarrollo de un software muy sofisticado que conecte la bomba de insulina con el detector de glucosa y permita al páncreas artificial decidir sobre las necesidades de azúcar en sangre como si fuera un órgano vivo. Lo hará tanto de día como de noche.
«Esa es la magia, el poder conectar los dos dispositivos que trabajan de forma independiente», explicaba ayer a Reuters, Alan Lewis, presidente de la Fundación para la Investigación en Diabetes Juvenil de Estados Unidos.
La fundación invertirá 8 millones de dólares en los próximos tres años en este proyecto con el objetivo de tener una primera generación preparada para su autorización en menos de cuatro años. Esta organización lleva años trabajando en este proyecto con centros de investigación para desarrollar un dispositivo con menos ataduras para las personas con diabetes que ahora ya está listo para empezar a desarrollarse. Las compañías Johnson&Johnson y Animas participan en el proyecto.

El primer animal que funciona como como una planta


La capacidad de realizar la fotosíntesis estaba hasta ahora reservada a las plantas y las algas, pero los científicos han encontrado el primer animal que la practica y «funciona» como si fuera un vegetal. Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.

Un equipo de científicos de la Universidad de Essex (Reino Unido) han patentado un mecanismo para fabricar sangre artificial gracias a la manipulación

Un equipo de científicos de la Universidad de Essex (Reino Unido) han patentado un mecanismo para fabricar sangre artificial gracias a la manipulación de la hemoglobina, molécula encargada de transportar el oxígeno por todo el cuerpo.
Según explica el autor de la investigación, Chris Cooper, la hemoglobina puede resultar tóxica cuando se separa de los glóbulos rojos, ya que «produce radicales libres que pueden dañar el corazón y los riñones», de ahí que la alternativa utilizada haya sido modificar dicha molécula en el laboratorio para evitar dicha toxicidad.
Hasta el momento, se habían investigado diferentes mecanismos para el desarrollo de sangre artificial, a partir de productos químicos utilizados para fabricar bombas atómicas e incluso mediante sangre de vaca. Sin embargo, en ningún caso se había conseguido crear una sangre totalmente segura.
Gracias a este hallazgo, como explica el propio Cooper, «que nadie ha conseguido hasta ahora», se podría desarrollar una sangre que sería útil para poderse almacenar en hospitales sin necesidad de que fuese necesario un grupo sanguíneo concreto, garantizándose que su no contaminación por algún virus.
Actualmente, se producen más de 75 millones de trasfusiones de sangre en los hospitales de todo el mundo, de ahí que se haya iniciado una carrera para ver quién es el primero en desarrollar un modelo de fabricación de sangre seguro y eficaz. En los últimos 20 años, se han invertido más de 1. 000 millones de libras (unos 1.128 millones de euros) en este cometido.

domingo, 17 de enero de 2010

El seísmo de Haití fue 35 veces más potente que la bomba de Hiroshima


El terremoto de 7 grados en la escala de Richter que el martes sacudió Haití fue 35 veces más potente que la bomba atómica arrojada sobre Hiroshima (Japón) al final de la II Guerra Mundial.
Así lo cree Roger Searle, profesor de geofísica en la Universidad de Durham (Reino Unido), que comparó también la energía liberada por el terremoto en el país caribeño con la explosión de medio millón de toneladas de explosivo TNT (trinitrotolueno).
No obstante, Searle señaló que, pese a la magnitud de este terremoto, "la energía liberada ha sido sólo una centésima parte de la del seísmo que azotó Banda Aceh (Indonesia) en 2004".
El geofísico explicó que, "aunque no es posible predecir cuándo se va a producir un terremoto, sí que se puede saber dónde va a tener lugar, ya que la mayoría se producen en los límites entre placas tectónicas".
Red de fallas bajo Haití
"Allí donde se encuentran dos placas tectónicas se crea una compleja red de fallas que permite predecir cuál de ellas se va a mover primero, pero no cuándo se van a producir los movimientos", argumentó Searle.
Según el Servicio Geológico Británico, aunque hacía 250 años que no se producía un terremoto allí, "bajo Haití hay una red de fallas, que le hacían susceptible de sufrir un terremoto, aunque fuera imposible prever el momento", sostuvo el profesor de geofísica.
Searle puntualizó que cada año se producen en el mundo 50 terremotos de la misma magnitud que el de Haití, que no causan este grado de destrucción y muerte por ocurrir lejos de zonas densamente pobladas o en lugares próximos a placas tectónicas donde la construcción es más sólida, como Japón o California (EEUU).
Es probable que haya otro gran seísmo en la zona
De acuerdo con Searle, quedarse dentro de un edificio hasta que pase el terremoto o situarse debajo de una mesa o bajo el quicio de una puerta son algunos consejos a seguir ante un seísmo.
Para el experto en geofísica, la reconstrucción de infraestructuras como las carreteras, los suministros de agua y energía, el restablecimiento de las comunicaciones y la construcción de hospitales son algunos de los "grandes problemas" que tendrá que afrontar Haití, "en un contexto en el que serán habituales los corrimientos de tierra".
Según el experto, es probable que, además de las réplicas que se están sucediendo desde que se produjera el terremoto el martes, tenga lugar otro gran terremoto en la zona, "pero no podemos saber si será hoy o dentro de cientos de años".

Los cocodrilos respiran como las aves


Los pulmones de los cocodrilos funcionan como los de las aves, en los que el aire fluye en un solo sentido en vez de entrar y salir como una ola, han hallado científicos de la Universidad de Utah, que han trabajado directamente con aligatores americanos. Hasta ahora se creía que este circuito sólo se daba en las aves y el hecho de que se haya verificado también en estos parientes de los cocodrilos sugiere que tiene un antiguo origen ancestral, en los arcosaurios del Triásico, antepasados comunes de los dinosaurios (extinguidos), los pájaros y los cocodrilos.
A medida que el planeta se fue recuperando, los arcosaurios (del griego, reptiles dominantes) se convirtieron en los animales terrestres dominantes. Entonces se desarrollaron en dos ramas importantes: los cocodriloideos, que son los antepasados de los cocodrilos, y una rama que dio lugar a los pterosaurios, los dinosaurios y posiblemente los pájaros (técnicamente arcosaurios).
El nuevo estudio demuestra que este patrón de respiración se desarrolló probablemente antes de hace 246 millones de años, cuando los cocodriloideos se separaron de la otra rama. Esto significaría que la circulación del aire dentro de los pulmones de los cocodrilos se desarrolló en los arcosaurios antes de lo que se pensaba. Ello podría explicar por qué esos animales dominaron el periodo Triásico temprano, después de la gran extinción y cuando el ecosistema que se recuperaba era caliente y seco, con niveles de oxígeno quizá tan bajos como el 12%, en comparación con el 21% de oxígeno existente hoy en día.
"La verdadera importancia de este descubrimiento es que puede explicar el volumen de renovación de la fauna entre el Pérmico y el Triásico, cuando los sinápsidos perdieron su dominio y fueron suplantados por estos arcosaurios", dice Colleen G. Farmer , principal autora del estudio, de la Universidad de Utah. "Esta es la razón principal de que sea científicamente importante".
Incluso con mucho menos oxígeno en la atmósfera, muchos arcosaurios, como los pterosaurios, eran, al parecer, capaces de mantener un ejercicio vigoroso. "El diseño del pulmón pudo haber desempeñado un papel clave en esta capacidad, porque el pulmón es el primer paso en la cascada de oxígeno procedente de la atmósfera que pasa a los tejidos animales y que sirve para quemar combustible y producir energía".
En los pulmones de los seres humanos y de otros mamíferos la circulación de aire es como las mareas. Cuando inhalamos, el aire se mueve a través de las vías aéreas, progresivamente más pequeñas hasta los callejones sin salida llamados alvéolos, donde el oxígeno se incorpora a la sangre y el dióxido de carbono se traslada desde la sangre a los pulmones. Se sabe desde hace tiempo que la circulación de aire en pájaros es unidireccional y las unidades pulmonares de intercambio del gas no son alvéolos, sino tubos conocidos como parabronquios, a través de los cuales el aire fluye antes de salir del pulmón.
Farmer dirigió el estudio, financiado por la National Science Foundation, con Kent Sanders, un profesor asociado de radiología en la universidad de Utah. Se realizaron tres experimentos para demostrar la circulación de aire unidireccional en los pulmones de los cocodrilos. Mediante cirugía, insertó en los pulmones de seis cocodrilos anestesiados unos instrumentos para medir la velocidad y dirección del flujo del aire. En los pulmones extraídos de otros cuatro cocodrilos, inyectó y extrajo aire, supervisando el flujo y demostró que el aire iba en la misma dirección a través de varias gradas de bronquios y de nuevo a la tráquea. Por último, extrajo los pulmones de otro reptil muerto e hizo lo mismo con líquido con diminutas partículas fluorescentes. De nuevo demostraba el flujo unidireccional. La autora del estudio dice que el hecho de que los pulmones de cocodrilo todavía tuvieran flujo unidireccional, una vez extraídos, demuestra que la circulación del aire es causada por las válvulas aerodinámicas dentro de los pulmones, y no por otros factores como sacos de aire o el hígado, que actúan como un pistón que ayuda al animal a respirar.
El flujo de aire unidireccional en pájaros se ha atribuido sobre todo a la existencia de sacos de aire en los pulmones. Farmer discrepa, ya que los reptiles no tienen sacos de aire debido a las válvulas aerodinámicas de sus pulmones. La científica cree que los sacos de aire ayudan a los pájaros a redistribuir el peso para controlar mejor su vuelo. En su opinión, muchos científicos asumen simplemente que los sacos de aire son necesarios para la circulación de aire unidireccional y desdeñan las visiones contrarias. Ahora no podrán discutir sus datos, dice contundente: "Tengo tres líneas de evidencia. Si no las creen, necesitan conseguir un cocodrilo y hacer sus propias medidas".

El cromosoma Y de humanos y chimpancés difiere en un 30%

En 2003 se completó la secuencia genética del cromosoma Y humano, el que determina el sexo masculino, pero hasta ahora no se había hecho lo propio con el del chimpancé, la especie más próxima evolutivamente a la humana. La comparación de ambos cromosomas Y ha sorprendido a los científicos, porque sus regiones específicamente masculinas (alrededor del 95% del total) son notablemente distintas, tanto en su estructura como en los genes que contienen. Mientras que el genoma completo de ambas especies coincide en un 98,8%, el del cromosoma Y difiere en más de un 30%. Además, en el del chimpancé hay muchos menos genes que en el del ser humano, tanto porque ha perdido genes respecto al ancestro común como porque el humano los ha ganado.
Dado que ambas especies se separaron hace seis millones de años, este resultado indica que ha habido una evolución muy rápida en el cromosoma Y humano, explican en la revista Nature los científicos, liderados por David C. Page, del Instituto Whitehead del MIT (EE UU). Entre los factores que han contribuido a esta "extraordinaria divergencia", señalan los autores, están el papel predominante de esta región del cromosoma en la producción del esperma, las diferencias en el comportamiento sexual de ambas especies (en el chimpancé varios machos copulan con la misma hembra en un mismo ciclo ovulatorio, por que el esperma funciona en un marco de competencia) y diferentes mecanismos de recombinación.
El cromosoma Y, foco de atención especial desde su descubrimiento, ha resultado ser muy especial, tanto en su comportamiento genético como en sus características genómicas. Los dos cromosomas sexuales, el X y el Y, se originaron hace centenares de millones de años, a partir de un cromosoma ancestral no sexual, durante la evolución de los distintos sexos en los seres vivos. En la actualidad, la secuencia de pares de bases del Y es tres veces más corta que la del X. Por eso se ha supuesto que es un cromosoma degenerado, que ha ido perdiendo la carga genética no relacionada con la determinación sexual y que en el futuro podría incluso llegar a desaparecer.
Su secuenciación en 2003 demostró, sin embargo, que es muy complejo y que se renueva constantemente. El nuevo estudio remacha la insuficiencia de las teorías de degeneración decelerada.