Una pelvis de mujer puede dar la vuelta a lo que se sabía, o se creía saber, de nuestros antepasados. El fósil fue localizado en el año 2000 en la región de Gona, en la región Afar de Etiopía. Perteneció a una hembra de 'Homo erectus', la primera especie que muchos consideran humana y vivió hace entre 1,8 millones y 160.000 años.
FUENTE | El Mundo Digital 14/11/2008
Los investigadores revelan en la revista 'Science', que el tamaño del cerebro del feto era más grande que el de los homínidos anteriores, como el 'Homo habilis', y que los 'H. erectus' no fueron tan esbeltos como se les imaginaba, una tesis que ya en 1994 defendieron los paleontólogos españoles de Atapuerca (Burgos) y ahora parece confirmarse.
Es decir, que no hubo una adaptación a un clima tropical ni a la necesidad de una mayor resistencia para correr, que facilitan unas piernas más largas. Más bien, parece que eran rechonchos, anchos y bajos, muy parecidos a los 'H. heildebergensis' de hace 800.000 años encontrados en los yacimientos de Atapuerca, y antepasados de los neandertales.
Han tenido que pasar varios años para que finalmente viera la luz el análisis de la pelvis y una vértebra lumbar encontrada en Gona, en un área desértica que en el Pleistoceno era un pantano próximo a una pradera. Todo un acontecimiento, habida cuenta de los escasos retos de este ancestro humano que han salido a la luz hasta ahora.
Los paleontólogos norteamericanos, dirigidos por Scott W. Simpson, de la Universidad de Cleveland (EE.UU.), han reconstruido en alta resolución las partes que faltaban en la pelvis para concluir que su canal para el parto era más grande de lo que previamente se pensaba hasta ahora.
El investigador español Manuel Domínguez-Rodrigo, de la Universidad Complutense, que ha trabajado con el equipo que encontró la pelvis en Etiopía, afirma que este fósil «demuestra que las hembras de esta especie no podían acomodar fetos de un 40% o un 50% del tamaño de los cerebros adultos, por lo que el inicio del proceso de un desarrollo lento y prolongado, como es el del humano actual, se retrotrae a hace 1,5 millones de años».
Eso no quiere decir que las crías fueran indefensas durante tanto tiempo como los niños de nuestra especie, puesto que su cerebro ya era bastante grande pero si indica que su desarrollo era más lento que el de los chimpancés y otros primates". Según el estudio, era un 30% mayor de lo que se pensaba antes de este hallazgo.
Otro rasgo importante de la pelvis es su acetábulo, el hueco en la pelvis en el que se coloca la cabeza del fémur. El fósil indica que era más pequeño que lo que se creía y eso quiere decir que la homínida en cuestión media únicamente entre 1,2 y 1,46 metros, muy lejos del 1,8 que se atribuía a sus congéneres varones.
Hay que recordar que las estimaciones anteriores se basaban principalmente en los fósiles del 'H. erectus' del famoso Niño de Turkana, unos restos de un varón de unos 11 años encontrados en Kenia en 1985. Fue el estudio de esos huesos lo que determinó el aspecto de la especie. Todas las teorías se construyeron sobre la apariencia de ese cuerpo larguirucho y ágil.
LA TESIS DE ATAPUERCA
Algunas voces, sin embargo, ya habían discrepado de esa interpretación, entre ellas las del equipo de Atapuerca, que encontró en 1994 una pelvis de 'H. heilderbergensis', bautizada como 'Elvis', que no cuadraba con la reconstrucción del Niño de Turkana porque era más ancha.
Juan Luis Arsuaga, codirector del proyecto Atapuerca, que fue quien encontró esta pelvis, estaba ayer satisfecho de que este trabajo confirme su tesis: "Desde hace 14 años ya venimos defendiendo en todos los foros internacionales que todo el modelo de evolución humana estaba mal hecho, que la anchura del cuerpo no varió hasta la aparición del 'Homo sapiens' y que la reconstrucción del 'Niño de Turkana' estaba equivocada y la estrechez de su pelvis no era tal porque no era una adaptación al clima. Por ello los neandertales también eran corpulentos", argumenta el paleontólogo.
En la misma línea se manifiesta otro de los codirectores, José María Bermúdez de Castro: "Con el Niño de Turkana se equivocaron los cálculos, se pensó su desarrollo como si éste fuera un humano moderno que sigue creciendo, y bastante, hasta los 18 años, pero el 'erectus' a los 12 años ya casi había cesado su desarrollo y nunca llegaría a medir 1,8 metros".
Bermúdez de Castro también cree que estos antepasados humanos, que habitaron el planeta hace 1,8 millones de años, nacían "más espabilados" que los bebés de hoy".
Domínguez Rodrigo pone otro asunto sobre la mesa: el dimorfismo sexual (diferencia del tamaño de hembras y machos) que podría reflejar esta nueva pelvis. El paleontólogo considera que, si realmente el Niño de Turkana llegó a ser alto, ello significaría que habría habido dos tipos de hembras. Unas habrían sido esbeltas y adaptadas a medios tropicales y otras de estatura más baja y más adaptadas a climas templados o fríos.
"Una segunda opción es que lo que ahora llamamos 'Homo erectus' realmente sean dos especies diferentes. La anatomía del Niño de Turkana muestra una adaptación tropical, preparada para una carrera de fondo, que no se documenta en la hembra de la nueva pelvis", afirma este experto.
Es decir, en su opinión, el nuevo estudio no rebate la idea de que el 'erectus' no fuera alto y ágil para correr, sino que es otra especie aún por determinar. Desde su punto de vista, "ningún paleontólogo puede refutar que 'Homo erectus' fuera un homínido adaptado al medio tropical, con dimorfismo sexual [diferencias entre hembras y machos] reducido y adaptado a la carrera de fondo para su supervivencia".
Todo ello viene a decir que aún nos queda mucho por saber de nuestro pasado y que las interpretaciones pueden ser muy diferentes porque aún faltan muchas piezas del 'puzzle' de la evolución humana.
Autor: Rosa M. Tristán
Noticias del blog relacionadas:
'Homo sapiens' pudo salir de África a través del Sahara
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
martes, 25 de noviembre de 2008
Datos del pasado para predecir el Cambio Climático
Este articulo me parece interesante porque refleja lo dificil que es demostrar las cosas en ciencia y como los conocimientos deben ser sometidos a continuas revisiones ya que nada en ciencia es dinámico y no se deben hacer valoraciones a la ligera, como sucede en nuestros tiempos, donde algunos se empeñan en buscar culpables para el cambio climático o decir que éste no existe, y se olvidan de poner en ,archa mecanismos para evitarlo o corregirlo.
Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico.
FUENTE | Público. Portugal 14/11/2008
Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.
El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima "tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural". La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.
Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, "son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero", explica el investigador.
Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar "en siete días una simulación que un ordenador normal tardaría 48 años en terminar".
MAYOR PRECISIÓN
El panorama es bueno, además, porque existen vías de mejora para estas modelizaciones climáticas. De un lado, explica Baldasano, "es necesaria una mayor regionalización de los datos. Al principio se estudiaba el clima con una resolución de malla de 500 kilómetros por cuadrícula y ahora estamos en una cantidad de 110 kilómetros por unidad de estudio. Esto nos permite ser más precisos en la proyección final". Y también, completa Hazeleger, es esencial compartir recursos y contenidos; en el programa EC-Earth, que él dirige, veinte institutos de investigación han estudiado "dos millones de líneas de software, muy lejos de las 10.000 que podría manejar una única persona".
"Los modelos tienen la capacidad de reproducir lo que ha pasado, por eso son fiables para anticipar lo que vendrá más adelante", explica Baldasano. ¿Y qué será? "Un incremento de la temperatura media de 2,4 grados si no se reducen al 50% las emisiones de gases de efecto invernadero y aerosoles actuales", confirma.
Autor: Víctor Charneco
Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico.
FUENTE | Público. Portugal 14/11/2008
Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.
El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima "tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural". La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.
Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, "son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero", explica el investigador.
Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar "en siete días una simulación que un ordenador normal tardaría 48 años en terminar".
MAYOR PRECISIÓN
El panorama es bueno, además, porque existen vías de mejora para estas modelizaciones climáticas. De un lado, explica Baldasano, "es necesaria una mayor regionalización de los datos. Al principio se estudiaba el clima con una resolución de malla de 500 kilómetros por cuadrícula y ahora estamos en una cantidad de 110 kilómetros por unidad de estudio. Esto nos permite ser más precisos en la proyección final". Y también, completa Hazeleger, es esencial compartir recursos y contenidos; en el programa EC-Earth, que él dirige, veinte institutos de investigación han estudiado "dos millones de líneas de software, muy lejos de las 10.000 que podría manejar una única persona".
"Los modelos tienen la capacidad de reproducir lo que ha pasado, por eso son fiables para anticipar lo que vendrá más adelante", explica Baldasano. ¿Y qué será? "Un incremento de la temperatura media de 2,4 grados si no se reducen al 50% las emisiones de gases de efecto invernadero y aerosoles actuales", confirma.
Autor: Víctor Charneco
La roca que convierte el CO2 en cuarzo
La peridotita, una roca abundante en el desierto de Omán, reacciona ávidamente con el CO2 para formar caliza o mármol. La posibilidad de transportarla hasta las factorías energéticas para absorber sus emisiones se ha descartado por su alto coste, pero ahora se abre camino la idea contraria: llevar el CO2 hasta la roca y bombearlo a su interior.
FUENTE | El País 24/11/2008
La peridotita de Omán, según los últimos cálculos, puede absorber 4.000 de los 30.000 millones anuales de toneladas de dióxido de carbono que producimos, más o menos la octava parte de lo que emiten en el mismo periodo las industrias y medios de transporte de todo el mundo.
La peridotita es la roca mayoritaria del manto, la capa que subyace a la corteza terrestre a profundidades mayores de 20 kilómetros. Pero los movimientos tectónicos han hecho aflorar tramos de manto -con unos cinco kilómetros de largo- en algunos lugares de la superficie terrestre, como el desierto de Omán, Papúa Nueva Guinea, Nueva Caledonia y las costas de Grecia y la antigua Yugoslavia.
Los cálculos de Peter Kelemen y Juerg Matter, de la Universidad de Columbia en Nueva York, no son producto de una revolucionaria tecnología de teledetección, sino de un lustro de anticuada geología de campo en el desierto de Omán. Kelemen y Matter han descubierto que la reacción de la peridotita con el CO2 ocurre continuamente de forma natural en el subsuelo. Y que unos simples métodos de taladro en la roca e inyección del gas pueden acelerarla un millón de veces y convertirla en un método barato y permanente para almacenar CO2 atmosférico.
Una de las ventajas del proceso de inyección, afirman los científicos, es que estaría en gran parte autoalimentado. Habría que gastar energía en meter el gas a presión en el agua, y en calentar ese fluido para inyectarlo por primera vez en la roca. Pero una vez arrancado, el ciclo se mantiene por dos fuentes internas de calor: el geotérmico (del subsuelo) y el derivado de la reacción de la peridotita con el CO2.
La técnica evita el traslado de la piedra hasta el gas, pero no el del gas hasta la piedra. Pero el gas no viajará mucho de momento: la primera industria emisora de CO2 que se ha mostrado interesada en un proyecto piloto con la peridotita de Omán es Petroleum Development Oman, la compañía petrolera estatal de ese país.
"Nuestra previsión es que las pruebas de campo usen CO2 de nuevas plantas energéticas en Omán", dice Kelemen. "Esto puede extenderse después; los omaníes planean incrementar mucho su producción de electricidad, y otros países árabes pueden ir detrás, porque prefieren exportar electricidad que gas natural".
¿Es entonces la peridotita una solución local? "Para Europa", responde Kelemen, "hay la opción de mandar el dióxido de carbono por tuberías hasta los grandes depósitos de peridotita de los Balcanes. Los otros grandes yacimientos existentes en superficie, que están en Papúa Nueva Guinea y Nueva Caledonia, serían inaccesibles para los países occidentales, pero hay depósitos menores en el oeste de Estados Unidos, el norte de África, Rusia y también en su país, España".
El otro autor del trabajo, Juerg Matter, añade: "La manera más inmediata de aplicar la técnica es capturar el dióxido de carbono en las factorías energéticas por métodos convencionales, y luego transportarlo a peridotitas cercanas por tuberías de corta distancia". Nuevamente, ¿el método se revelaría útil sólo para aplicaciones locales?
"Hay otras posibilidades", responde Matter. "El depósito de peridotita que hemos estudiado se extiende por debajo del fondo oceánico en el golfo de Omán. Taladrando agujeros de suficiente profundidad, podrían inyectarse cantidades masivas de agua marina en la roca".
Puesto que el agua del mar intercambia continuamente dióxido de carbono con la atmósfera (la concentración de CO2 está en equilibrio entre el aire y el agua, en la jerga), el resultado final de esta operación sería la retirada de dióxido de carbono de la atmósfera. Matter prosigue: "El fluido inyectado se calentaría gracias al gradiente geotérmico (el hecho de que las profundidades del subsuelo estén más calientes que la superficie, o que el mar) y el dióxido de carbono disuelto en el agua se iría convirtiendo en minerales de carbonato tras su reacción con la peridotita.
El ciclo se autoalimentaría por convección térmica (el agua caliente es menos densa y busca subir a la superficie), lo que haría innecesario gastar energía en bombear el agua entre el agujero de entrada y el de salida".
"Una de las principales fuentes de CO2 en Omán son las plantas de producción de electricidad alimentadas por gas natural", sigue explicando el científico de Nueva York. "El dióxido de carbono puede capturarse allí con tecnologías existentes (membranas, amine scrubbing)".
"Es una suerte que tengamos este tipo de rocas en la región del Golfo", dice Matter. "Gran parte del petróleo mundial se produce allí, y Omán está construyendo nuevas plantas eléctricas alimentadas por gas natural, que se convertirán en grandes fuentes de dióxido de carbono".
La peridotita no es la única roca que absorbe dióxido de carbono. Matter coordina otro proyecto en la planta geotérmica de Hellisheidi, en Islandia, para probar la utilidad del basalto local con ese mismo fin. Los ensayos empezarán la próxima primavera en colaboración con Reykjavik Energy y las universidades de Islandia y Toulouse.
Autor: Javier Sampedro
En el blog hay otra noticia relacionada con esta: Investigadoes estadounidenses proponen un método para almacenar CO2 de forma natural.
FUENTE | El País 24/11/2008
La peridotita de Omán, según los últimos cálculos, puede absorber 4.000 de los 30.000 millones anuales de toneladas de dióxido de carbono que producimos, más o menos la octava parte de lo que emiten en el mismo periodo las industrias y medios de transporte de todo el mundo.
La peridotita es la roca mayoritaria del manto, la capa que subyace a la corteza terrestre a profundidades mayores de 20 kilómetros. Pero los movimientos tectónicos han hecho aflorar tramos de manto -con unos cinco kilómetros de largo- en algunos lugares de la superficie terrestre, como el desierto de Omán, Papúa Nueva Guinea, Nueva Caledonia y las costas de Grecia y la antigua Yugoslavia.
Los cálculos de Peter Kelemen y Juerg Matter, de la Universidad de Columbia en Nueva York, no son producto de una revolucionaria tecnología de teledetección, sino de un lustro de anticuada geología de campo en el desierto de Omán. Kelemen y Matter han descubierto que la reacción de la peridotita con el CO2 ocurre continuamente de forma natural en el subsuelo. Y que unos simples métodos de taladro en la roca e inyección del gas pueden acelerarla un millón de veces y convertirla en un método barato y permanente para almacenar CO2 atmosférico.
Una de las ventajas del proceso de inyección, afirman los científicos, es que estaría en gran parte autoalimentado. Habría que gastar energía en meter el gas a presión en el agua, y en calentar ese fluido para inyectarlo por primera vez en la roca. Pero una vez arrancado, el ciclo se mantiene por dos fuentes internas de calor: el geotérmico (del subsuelo) y el derivado de la reacción de la peridotita con el CO2.
La técnica evita el traslado de la piedra hasta el gas, pero no el del gas hasta la piedra. Pero el gas no viajará mucho de momento: la primera industria emisora de CO2 que se ha mostrado interesada en un proyecto piloto con la peridotita de Omán es Petroleum Development Oman, la compañía petrolera estatal de ese país.
"Nuestra previsión es que las pruebas de campo usen CO2 de nuevas plantas energéticas en Omán", dice Kelemen. "Esto puede extenderse después; los omaníes planean incrementar mucho su producción de electricidad, y otros países árabes pueden ir detrás, porque prefieren exportar electricidad que gas natural".
¿Es entonces la peridotita una solución local? "Para Europa", responde Kelemen, "hay la opción de mandar el dióxido de carbono por tuberías hasta los grandes depósitos de peridotita de los Balcanes. Los otros grandes yacimientos existentes en superficie, que están en Papúa Nueva Guinea y Nueva Caledonia, serían inaccesibles para los países occidentales, pero hay depósitos menores en el oeste de Estados Unidos, el norte de África, Rusia y también en su país, España".
El otro autor del trabajo, Juerg Matter, añade: "La manera más inmediata de aplicar la técnica es capturar el dióxido de carbono en las factorías energéticas por métodos convencionales, y luego transportarlo a peridotitas cercanas por tuberías de corta distancia". Nuevamente, ¿el método se revelaría útil sólo para aplicaciones locales?
"Hay otras posibilidades", responde Matter. "El depósito de peridotita que hemos estudiado se extiende por debajo del fondo oceánico en el golfo de Omán. Taladrando agujeros de suficiente profundidad, podrían inyectarse cantidades masivas de agua marina en la roca".
Puesto que el agua del mar intercambia continuamente dióxido de carbono con la atmósfera (la concentración de CO2 está en equilibrio entre el aire y el agua, en la jerga), el resultado final de esta operación sería la retirada de dióxido de carbono de la atmósfera. Matter prosigue: "El fluido inyectado se calentaría gracias al gradiente geotérmico (el hecho de que las profundidades del subsuelo estén más calientes que la superficie, o que el mar) y el dióxido de carbono disuelto en el agua se iría convirtiendo en minerales de carbonato tras su reacción con la peridotita.
El ciclo se autoalimentaría por convección térmica (el agua caliente es menos densa y busca subir a la superficie), lo que haría innecesario gastar energía en bombear el agua entre el agujero de entrada y el de salida".
"Una de las principales fuentes de CO2 en Omán son las plantas de producción de electricidad alimentadas por gas natural", sigue explicando el científico de Nueva York. "El dióxido de carbono puede capturarse allí con tecnologías existentes (membranas, amine scrubbing)".
"Es una suerte que tengamos este tipo de rocas en la región del Golfo", dice Matter. "Gran parte del petróleo mundial se produce allí, y Omán está construyendo nuevas plantas eléctricas alimentadas por gas natural, que se convertirán en grandes fuentes de dióxido de carbono".
La peridotita no es la única roca que absorbe dióxido de carbono. Matter coordina otro proyecto en la planta geotérmica de Hellisheidi, en Islandia, para probar la utilidad del basalto local con ese mismo fin. Los ensayos empezarán la próxima primavera en colaboración con Reykjavik Energy y las universidades de Islandia y Toulouse.
Autor: Javier Sampedro
En el blog hay otra noticia relacionada con esta: Investigadoes estadounidenses proponen un método para almacenar CO2 de forma natural.
Los glaciares ocultos de Marte
Un grupo de científicos estadounidenses ha descubierto glaciares lejos de los polos de Marte y a pocos metros de la cubierta rocosa del planeta, según un estudio publicado por la revista "Science". "Se trata de un descubrimiento muy importante porque no sólo constata la existencia de agua en Marte sino que cubre la necesidad de ese elemento que tendrán las futuras misiones interplanetarias", señaló a Efe Ali Safaeinili, científico del Laboratorio de Propulsión a Chorro (JPL) de la NASA.
FUENTE | Agencia EFE 21/11/2008
También es importante porque el agua de esos glaciares se encuentra en latitudes bajas del planeta, lejos de los polos, y en algunos casos a sólo unos tres metros de profundidad", indicó. El descubrimiento fue hecho con el radar de la sonda Mars Reconnaissance Orbiter (MRO) de la agencia espacial estadounidense hace un año.
"Tardamos en hacer el anuncio del descubrimiento porque queríamos estar seguros de él e hicimos todas las verificaciones posibles", agregó. Debido a que el agua es uno de los ingredientes esenciales de la vida tal como la conocemos en la Tierra, el hallazgo de grandes reservas del líquido congelado es un signo alentador para los científicos que buscan vida más allá de nuestro planeta, indicó el estudio publicado por "Science".
Los glaciares cubren una superficie de decenas de miles de kilómetros cuadrados y se extienden desde las montañas marcianas con un espesor en algunos casos de unos 800 metros. La capa de material rocoso que cubre el hielo, en otros casos de un grosor de unos pocos metros, posiblemente preservó los glaciares como reliquias de una pasada glaciación, indicó "Science". Los primeros indicios de agua en Marte fueron detectados hace cuatro años por los vehículos "Spirit" y "Opportunity" y confirmados después por el "Phoenix", un tercer vehículo de la NASA.
"Sin duda estos glaciares representan la mayor reserva de agua en Marte, lejos de las capas polares. Sólo uno de los que examinamos es tres veces más extenso que la ciudad de Los Ángeles (California)...y hay muchos más", indicó John Holt, de la Escuela de Geociencias de la Universidad de Texas y autor del informe.
Además "son una ventana a un clima que fue muy diferente a lo que es hoy Marte", dijo Holt en una entrevista telefónica. El descubrimiento hecho por el radar de MRO despejó un misterio que había surgido en la década de 1970 cuando las sondas Viking de la NASA detectaron faldas ondulantes que provenían de las montañas. Una teoría indicaba que se trataba de flujos de rocas lubricadas por el hielo. Sin embargo, Holt indicó que se parecían mucho a los enormes glaciares detectados también bajo la roca en la Antártida y para cuyo estudio se había utilizado el radar.
"Y en la Tierra, esas masas de hielo oculto en la Antártida preservan el registro de antiguos organismos y la historia del pasado climático", dijo James Head, científico de la Universidad de Brown.
La solución del rompecabezas fue proporcionada por el radar de la sonda de la NASA, el cual indicó que esas configuraciones topográficas contienen enormes cantidades de hielo. Según el informe de "Science", las pruebas de la presencia de agua congelada son múltiples.
Los ecos del radar recibidos por el orbitador pasan a través del material y rebotan desde una superficie interior más profunda sin una pérdida importante de su fuerza, como ocurre cuando hay agua con una capa relativamente delgada que la cubre.
Por otra parte, la velocidad de las ondas de radio que atraviesan la capa se ajusta a una composición de agua congelada, indicó el informe. Los glaciares en los que se centró el estudio están ubicados en la región de la cuenca de Hellas, en el hemisferio sur marciano, pero el radar también detectó formaciones similares en el hemisferio norte.
"Existe un volumen todavía mayor de agua congelada en los depósitos del norte", aseguró Jeffrey Plaut, científico de JPL. Holt explicó que la presencia de glaciares en latitudes bajas de ambos hemisferios se explicaría por un cambio que sufrió en algún momento el eje de rotación de Marte, el cual empujó el agua de los polos a esos lugares.
FUENTE | Agencia EFE 21/11/2008
También es importante porque el agua de esos glaciares se encuentra en latitudes bajas del planeta, lejos de los polos, y en algunos casos a sólo unos tres metros de profundidad", indicó. El descubrimiento fue hecho con el radar de la sonda Mars Reconnaissance Orbiter (MRO) de la agencia espacial estadounidense hace un año.
"Tardamos en hacer el anuncio del descubrimiento porque queríamos estar seguros de él e hicimos todas las verificaciones posibles", agregó. Debido a que el agua es uno de los ingredientes esenciales de la vida tal como la conocemos en la Tierra, el hallazgo de grandes reservas del líquido congelado es un signo alentador para los científicos que buscan vida más allá de nuestro planeta, indicó el estudio publicado por "Science".
Los glaciares cubren una superficie de decenas de miles de kilómetros cuadrados y se extienden desde las montañas marcianas con un espesor en algunos casos de unos 800 metros. La capa de material rocoso que cubre el hielo, en otros casos de un grosor de unos pocos metros, posiblemente preservó los glaciares como reliquias de una pasada glaciación, indicó "Science". Los primeros indicios de agua en Marte fueron detectados hace cuatro años por los vehículos "Spirit" y "Opportunity" y confirmados después por el "Phoenix", un tercer vehículo de la NASA.
"Sin duda estos glaciares representan la mayor reserva de agua en Marte, lejos de las capas polares. Sólo uno de los que examinamos es tres veces más extenso que la ciudad de Los Ángeles (California)...y hay muchos más", indicó John Holt, de la Escuela de Geociencias de la Universidad de Texas y autor del informe.
Además "son una ventana a un clima que fue muy diferente a lo que es hoy Marte", dijo Holt en una entrevista telefónica. El descubrimiento hecho por el radar de MRO despejó un misterio que había surgido en la década de 1970 cuando las sondas Viking de la NASA detectaron faldas ondulantes que provenían de las montañas. Una teoría indicaba que se trataba de flujos de rocas lubricadas por el hielo. Sin embargo, Holt indicó que se parecían mucho a los enormes glaciares detectados también bajo la roca en la Antártida y para cuyo estudio se había utilizado el radar.
"Y en la Tierra, esas masas de hielo oculto en la Antártida preservan el registro de antiguos organismos y la historia del pasado climático", dijo James Head, científico de la Universidad de Brown.
La solución del rompecabezas fue proporcionada por el radar de la sonda de la NASA, el cual indicó que esas configuraciones topográficas contienen enormes cantidades de hielo. Según el informe de "Science", las pruebas de la presencia de agua congelada son múltiples.
Los ecos del radar recibidos por el orbitador pasan a través del material y rebotan desde una superficie interior más profunda sin una pérdida importante de su fuerza, como ocurre cuando hay agua con una capa relativamente delgada que la cubre.
Por otra parte, la velocidad de las ondas de radio que atraviesan la capa se ajusta a una composición de agua congelada, indicó el informe. Los glaciares en los que se centró el estudio están ubicados en la región de la cuenca de Hellas, en el hemisferio sur marciano, pero el radar también detectó formaciones similares en el hemisferio norte.
"Existe un volumen todavía mayor de agua congelada en los depósitos del norte", aseguró Jeffrey Plaut, científico de JPL. Holt explicó que la presencia de glaciares en latitudes bajas de ambos hemisferios se explicaría por un cambio que sufrió en algún momento el eje de rotación de Marte, el cual empujó el agua de los polos a esos lugares.
Recetas para abaratar la batalla contra el CO2
España no va a poder cumplir con sus compromisos de reducciones de CO2 como miembro de la Unión Europea antes de 2020 (20% menos de gases de efecto invernadero), ni los objetivos del Protocolo de Kioto en 2012 (-5%), según el Instituto de Sostenibilidad de los Recursos (ISR).
FUENTE | Cinco Días 21/11/2008
Aunque para este organismo esa certeza no invalida la Estrategia de Cambio Climático del Gobierno. Proyecto@O2, una iniciativa de este think tank privado que funciona como un lobby de interés medioambiental, propone 23 medidas agrupadas en diez soluciones para reducir la huella de carbono de la economía española.
El ISR critica que el Gobierno se haya centrado en llegar a Kioto priorizando el comercio de emisiones y el pago de multas, en lugar de impulsar proyectos para reducir las emisiones. En contrapartida, @O2 extiende la actuación a la reducción de emisiones, proyectos forestales, medidas fiscales, tecnologías verdes, movilidad sostenible, gestión de residuos, ahorro, construcción, renovables e I+D+i.
Su propuesta mejoraría medidas ya recogidas en la estrategia española. Pero va más allá. Plantea ampliar el comercio de emisiones a sectores muy contaminantes pero no sometidos a la normativa europea; propone la promoción de la conducción eficiente entre los automovilistas; impulsar el uso del ferrocarril como transporte sostenible; gravar el uso de la energía con un impuesto dirigido a los grandes consumidores y crear un etiquetado (carbono labelling) que refleje la 'huella del carbono' de cada producto; es decir, la cantidad de emisiones que se han emitido para producirlo.
Y además, defiende que saldría más barato que los actuales planes del Gobierno. Según sus cálculos, combatir el cambio climático con su plan ahorraría 729 millones de euros respecto de los 1.634 millones presupuestados por el Gobierno hasta 2020. Ese año la Unión Europea tendría que haber conseguido rebajar un 20% la emisión CO2 y utilizar un 20% de renovables, de acuerdo a la estrategia europea. Además, el plan del ISR restaría complejidad a la batalla contra los gases de efecto invernadero puesto que la estrategia oficial contempla más de 200 medidas frente a sus 23. Y, para rematarla, 'generarían riqueza y empleo', según aseguró Juan Ignacio Elorrieta, director del proyecto, en la presentación del informe Horizonte 2020, que plasma esas ideas.
Incluso en un escenario a más corto plazo, como el planificado por el Protocolo de Kioto (2008-2012), las ideas del ISR también abaratarían la factura. El coste estimado para alcanzar los objetivos de Kioto a partir de las propuestas del Ministerio de Medio Ambiente se cifra en 1.065 millones de euros anuales. La propuesta de Proyecto @O2 saldría por 142 millones de euros menos. Y, pese a que el ISR prefiere esperar a realizar los últimos ajustes para ofrecer estimaciones del empleo y la riqueza que generaría @O2, Elorrieta adelantó que sólo en el sector forestal 'produciría más de 6.500 nuevos puestos de trabajo'.
Si se implantasen las 23 medidas @O2, las emisiones crecerían un 51%, 'cinco puntos menos', según explicó Carlos Gómez, director del ISR. En contra, con las medidas previstas por el Gobierno, las emisiones de CO2 aumentarían un 56% sobre 1990 (año de referencia de Kioto). En el escenario proyectado por el plan europeo, a 2020, con las medidas del ministerio, España emitiría 504.603 kilotoneladas y, con las de @O2, 472.924.
@O2 excluye la energía nuclear y los biocombustibles ya que son áreas 'controvertidas' y 'por ahora, llenas de incertidumbres', según Elorrieta.
Autor: Marta Molina
1.- ¿Cual es la propuesta del Proyecto@02?
2.- ¿Qué medidas concretas propone realizar al Gobierno?
3.- ¿Qué es la huella del carbono?
4.- ¿Según el ISR sale "rentable" aplicar las 23 medidas que proponen?
FUENTE | Cinco Días 21/11/2008
Aunque para este organismo esa certeza no invalida la Estrategia de Cambio Climático del Gobierno. Proyecto@O2, una iniciativa de este think tank privado que funciona como un lobby de interés medioambiental, propone 23 medidas agrupadas en diez soluciones para reducir la huella de carbono de la economía española.
El ISR critica que el Gobierno se haya centrado en llegar a Kioto priorizando el comercio de emisiones y el pago de multas, en lugar de impulsar proyectos para reducir las emisiones. En contrapartida, @O2 extiende la actuación a la reducción de emisiones, proyectos forestales, medidas fiscales, tecnologías verdes, movilidad sostenible, gestión de residuos, ahorro, construcción, renovables e I+D+i.
Su propuesta mejoraría medidas ya recogidas en la estrategia española. Pero va más allá. Plantea ampliar el comercio de emisiones a sectores muy contaminantes pero no sometidos a la normativa europea; propone la promoción de la conducción eficiente entre los automovilistas; impulsar el uso del ferrocarril como transporte sostenible; gravar el uso de la energía con un impuesto dirigido a los grandes consumidores y crear un etiquetado (carbono labelling) que refleje la 'huella del carbono' de cada producto; es decir, la cantidad de emisiones que se han emitido para producirlo.
Y además, defiende que saldría más barato que los actuales planes del Gobierno. Según sus cálculos, combatir el cambio climático con su plan ahorraría 729 millones de euros respecto de los 1.634 millones presupuestados por el Gobierno hasta 2020. Ese año la Unión Europea tendría que haber conseguido rebajar un 20% la emisión CO2 y utilizar un 20% de renovables, de acuerdo a la estrategia europea. Además, el plan del ISR restaría complejidad a la batalla contra los gases de efecto invernadero puesto que la estrategia oficial contempla más de 200 medidas frente a sus 23. Y, para rematarla, 'generarían riqueza y empleo', según aseguró Juan Ignacio Elorrieta, director del proyecto, en la presentación del informe Horizonte 2020, que plasma esas ideas.
Incluso en un escenario a más corto plazo, como el planificado por el Protocolo de Kioto (2008-2012), las ideas del ISR también abaratarían la factura. El coste estimado para alcanzar los objetivos de Kioto a partir de las propuestas del Ministerio de Medio Ambiente se cifra en 1.065 millones de euros anuales. La propuesta de Proyecto @O2 saldría por 142 millones de euros menos. Y, pese a que el ISR prefiere esperar a realizar los últimos ajustes para ofrecer estimaciones del empleo y la riqueza que generaría @O2, Elorrieta adelantó que sólo en el sector forestal 'produciría más de 6.500 nuevos puestos de trabajo'.
Si se implantasen las 23 medidas @O2, las emisiones crecerían un 51%, 'cinco puntos menos', según explicó Carlos Gómez, director del ISR. En contra, con las medidas previstas por el Gobierno, las emisiones de CO2 aumentarían un 56% sobre 1990 (año de referencia de Kioto). En el escenario proyectado por el plan europeo, a 2020, con las medidas del ministerio, España emitiría 504.603 kilotoneladas y, con las de @O2, 472.924.
@O2 excluye la energía nuclear y los biocombustibles ya que son áreas 'controvertidas' y 'por ahora, llenas de incertidumbres', según Elorrieta.
Autor: Marta Molina
1.- ¿Cual es la propuesta del Proyecto@02?
2.- ¿Qué medidas concretas propone realizar al Gobierno?
3.- ¿Qué es la huella del carbono?
4.- ¿Según el ISR sale "rentable" aplicar las 23 medidas que proponen?
jueves, 20 de noviembre de 2008
España es el país desarrollado que más ha aumentado sus emisiones de CO2
A sólo dos semanas de que comience la decimocuarta Cumbre del Clima, que este año se celebra en Poznan (Polonia), la Secretaría de Cambio Climático de la ONU hizo públicos los datos de emisiones de gases de efecto invernadero de los países industrializados.
FUENTE | ABC Periódico Electrónico S.A. 18/11/2008
Entre éstos, los más relevantes son los de los 41 países que forman parte del Anexo I de la Convención de Cambio Climático. Estos son los países que tienen compromiso de reducción en el Protocolo de Kioto, si bien Estados Unidos y Turquía no han ratificado dicho Tratado, por lo que el nivel de cumplimiento queda restringido a 39 países.
España vuelve a situarse como el país que más ha aumentado sus emisiones desde 1990, año considerado base en el protocolo de Kioto. Los datos se refieren a 2006. En ese periodo de tiempo nuestro país ha aumentado sus emisiones un 49,5%, cuando nuestro objetivo en el Protocolo es el de no aumentarlas más de un 15 por ciento hasta 2012.
ACCIÓN URGENTE
En conjunto, los países desarrollados han disminuido sus emisiones desde 1990 en un 5%. A pesar de que este dato es positivo, lo cierto es que esconde una tendencia preocupante. Si el análisis se hace desde el año 2000 las emisiones han aumentado un 2,3 por ciento. Según señaló el secretario ejecutivo de la Convención del Cambio Climático, Yvo de Boer, «estos datos son motivo de preocupación y una señal de que se necesita una acción política urgente». Y es que aunque las emisiones se hayan reducido en un 5% desde 1990, ese retroceso se debió en buena medida a la caída de la Unión Soviética y de sus economías y menos a los esfuerzos en materia ambiental. Además, son precisamente estos países emergentes los que han experimentado un mayor crecimiento de sus emisiones (un 7,4%) entre 2000 y 2006.
No obstante, Yvo de Boer se mostró optimista en cuanto a las posibilidades de alcanzar los objetivos del protocolo de Kioto hasta 2012, si bien afirmó que la crisis económica internacional tendrá efectos importantes en la lucha contra el cambio climático.
POSICIÓN DE EE.UU.
Por ello, De Boer consideró positivo que aún quede más de un año, hasta diciembre de 2009, para perfilar el acuerdo que debe sustituir a Kioto y que deberá contener los esfuerzos que el mundo debe hacer en materia de mitigación hasta 2020. En este sentido, el representante de Naciones Unidas admitió tener grandes expectativas en la posición que tomará el presidente electo de Estados Unidos, Barack Obama, respecto a la lucha contra el cambio climático.
Autor: A. Acosta
FUENTE | ABC Periódico Electrónico S.A. 18/11/2008
Entre éstos, los más relevantes son los de los 41 países que forman parte del Anexo I de la Convención de Cambio Climático. Estos son los países que tienen compromiso de reducción en el Protocolo de Kioto, si bien Estados Unidos y Turquía no han ratificado dicho Tratado, por lo que el nivel de cumplimiento queda restringido a 39 países.
España vuelve a situarse como el país que más ha aumentado sus emisiones desde 1990, año considerado base en el protocolo de Kioto. Los datos se refieren a 2006. En ese periodo de tiempo nuestro país ha aumentado sus emisiones un 49,5%, cuando nuestro objetivo en el Protocolo es el de no aumentarlas más de un 15 por ciento hasta 2012.
ACCIÓN URGENTE
En conjunto, los países desarrollados han disminuido sus emisiones desde 1990 en un 5%. A pesar de que este dato es positivo, lo cierto es que esconde una tendencia preocupante. Si el análisis se hace desde el año 2000 las emisiones han aumentado un 2,3 por ciento. Según señaló el secretario ejecutivo de la Convención del Cambio Climático, Yvo de Boer, «estos datos son motivo de preocupación y una señal de que se necesita una acción política urgente». Y es que aunque las emisiones se hayan reducido en un 5% desde 1990, ese retroceso se debió en buena medida a la caída de la Unión Soviética y de sus economías y menos a los esfuerzos en materia ambiental. Además, son precisamente estos países emergentes los que han experimentado un mayor crecimiento de sus emisiones (un 7,4%) entre 2000 y 2006.
No obstante, Yvo de Boer se mostró optimista en cuanto a las posibilidades de alcanzar los objetivos del protocolo de Kioto hasta 2012, si bien afirmó que la crisis económica internacional tendrá efectos importantes en la lucha contra el cambio climático.
POSICIÓN DE EE.UU.
Por ello, De Boer consideró positivo que aún quede más de un año, hasta diciembre de 2009, para perfilar el acuerdo que debe sustituir a Kioto y que deberá contener los esfuerzos que el mundo debe hacer en materia de mitigación hasta 2020. En este sentido, el representante de Naciones Unidas admitió tener grandes expectativas en la posición que tomará el presidente electo de Estados Unidos, Barack Obama, respecto a la lucha contra el cambio climático.
Autor: A. Acosta
El vapor de agua multiplicará por dos el calentamiento del planeta
Una de las verdades más conocidas para los climatólogos es que el vapor de agua es el más potente gas de efecto invernadero. Es fácilmente comprobable por cualquiera que se duche y sienta que el cuarto de baño se ha recalentado, o cuando se viaja a un país tropical y la humedad aumenta la intensidad del calor.
FUENTE | El Mundo Digital 19/11/2008
Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.
Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).
Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.
Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.
Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.
El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.
Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.
Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.
"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.
LOS BOSQUES REGULAN EL CLIMA
Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).
Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.
Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.
Autor: Tana Oshima
FUENTE | El Mundo Digital 19/11/2008
Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.
Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).
Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.
Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.
Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.
El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.
Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.
Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.
"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.
LOS BOSQUES REGULAN EL CLIMA
Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).
Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.
Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.
Autor: Tana Oshima
jueves, 13 de noviembre de 2008
Desenmascarando al VIH
Para el VIH siempre es Halloween. O Carnaval. Se ha convertido en un auténtico maestro del disfraz, capaz de cambiar rápidamente de identidad para permanecer oculto en el organismo y propagarse a sus anchas. Sin embargo, esta habilidad a la que ahora saca tanto rendimiento podría servirle de poco en un futuro, ya que unos investigadores han manipulado unas células inmunes que, en cultivos celulares, han sido capaces de identificar todos los disfraces del virus.
FUENTE | El Mundo Digital 10/11/2008
Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).
Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.
Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.
Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.
"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.
UNA ESTRATEGIA DE DESGASTE
Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.
"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.
No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.
Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.
Autor: Isabel F. Lantigua
FUENTE | El Mundo Digital 10/11/2008
Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).
Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.
Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.
Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.
"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.
UNA ESTRATEGIA DE DESGASTE
Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.
"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.
No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.
Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.
Autor: Isabel F. Lantigua
Crece el agujero de la capa de ozono pero no alcanza el récord de 2006
Un grupo de científicos del Centro Aeroespacial Alemán (DLR) ha descubierto que el agujero de la capa de ozono en la Antártida ha aumentado este año respecto al 2007 pero es menor que en 2006.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008
La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.
A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.
El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.
Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.
Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".
El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".
Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".
El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.
Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.
1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?
2.- ¿Qué es el agujero de la caopa de ozono?
3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.
4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?
5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008
La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.
A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.
El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.
Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.
Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".
El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".
Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".
El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.
Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.
1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?
2.- ¿Qué es el agujero de la caopa de ozono?
3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.
4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?
5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?
A un paso del colapso de los océanos
Todos los datos apuntan "con aplastante evidencia" a que los océanos están sufriendo, especialmente durante este lustro, una degradación acelerada que los está llevando al "umbral del colapso", en palabras de Carlos M. Duarte, uno de los biólogos más reconocidos en ecosistemas marinos y codirector del Primer Congreso Mundial de Biodiversidad Marina, que reúne en Valencia a más de 500 investigadores.
FUENTE | El País 12/11/2008
Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".
¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".
Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.
Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.
La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.
Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.
También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.
En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.
Autor: Jaime Prats
1.- ¿Cuales son las principales muestras de deterioro oceánico?
2.- ¿Qué efectos del cambio climático son observables en los océanos?
3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?
4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?
FUENTE | El País 12/11/2008
Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".
¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".
Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.
Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.
La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.
Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.
También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.
En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.
Autor: Jaime Prats
1.- ¿Cuales son las principales muestras de deterioro oceánico?
2.- ¿Qué efectos del cambio climático son observables en los océanos?
3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?
4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?
martes, 11 de noviembre de 2008
Los niveles de metano en la atmósfera se dispararon a partir de 2007
La cantidad de metano en la atmósfera terrestre se disparó en el año 2007, poniendo fin a casi diez años en que los niveles atmosféricos de este potente gas de efecto invernadero se mantuvieron estables. Así lo revela un estudio publicado en la revista de la Unión Geofísica Americana, a partir de una red de medición de la NASA. Los niveles en la atmósfera de ese gas se han más que triplicado desde la era preindustrial, y actualmente suponen una quinta parte de la contribución humana al calentamiento global.
FUENTE | ABC Periódico Electrónico S.A. 03/11/2008
Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.
BALANCE DESCOMPENSADO
El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.
Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.
Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.
TEMPERATURAS ALTAS EN SIBERIA
De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.
Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.
MÁS ESTUDIOS
Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.
Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.
«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.
Autor: A. Acosta
1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?
2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?
3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?
4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?
5.- ¿Son estos estudios definitivos? Explica tu respuesta.
FUENTE | ABC Periódico Electrónico S.A. 03/11/2008
Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.
BALANCE DESCOMPENSADO
El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.
Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.
Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.
TEMPERATURAS ALTAS EN SIBERIA
De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.
Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.
MÁS ESTUDIOS
Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.
Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.
«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.
Autor: A. Acosta
1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?
2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?
3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?
4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?
5.- ¿Son estos estudios definitivos? Explica tu respuesta.
lunes, 10 de noviembre de 2008
Investigadores estadounidenses proponen un método para almacenar CO2 de forma natural
Si dejamos de lado la vacuna del sida o la cura del cáncer, quizá el descubrimiento científico más perseguido en la actualidad sea el invento que permita almacenar el exceso de CO2 que emitimos a la atmósfera. Esto supondría poner un punto final a los problemas derivados del calentamiento global.
FUENTE | El Mundo Digital 04/11/2008
En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.
Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.
En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.
Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).
Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.
Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.
"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.
Autor: Miguel G. Corral
FUENTE | El Mundo Digital 04/11/2008
En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.
Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.
En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.
Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).
Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.
Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.
"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.
Autor: Miguel G. Corral
miércoles, 29 de octubre de 2008
Los primeros aviones con biocombustible volarán dentro de cinco años
Los primeros aviones 'verdes' impulsados por biocombustibles empezarán a volar a lo largo del próximo lustro. La compañía Boeing ha anunciado que dentro de entre tres y cinco años obtendrán la licencia administrativa federal en Estados Unidos para poder llenar los depósitos de sus aeronaves con biocombustible.
FUENTE | El Mundo Digital 29/10/2008
Darrin Morgan, experto ambiental de Boeing ha declarado al diario británico The Guardian que «la certificación llegará mucho más pronto de lo que pensamos», y concretó que ese plazo se sitúa entre los tres y cinco años.
Aún así, aunque los motores de los aviones son capaces de quemar mezclas de hasta el 30% de biocombustible con el tradicional queroseno sin modificar los motores, el problema que no tiene perspectivas de solución tan cercanas es el aprovisionamiento regular del biocombustible.
El cambio de combustible para los 13.000 aviones comerciales que despegan cada día requeriría tierras de cultivo de soja del tamaño de toda Europa. Este sí que es el mayor freno que se presenta a la expansión del cambio de modelo.
Actualmente, la navegación comercial aérea requiere 386.000 millones de litros de queroseno anuales, que al quemarse emiten el 2% del total del CO2 mundial. También emiten otros gases de efecto invernadero, por lo que el transporte aéreo se ha convertido en un gigante de la contaminación mundial que, además, aumenta con el gran crecimiento que mantiene hace años.
De ahí que una docena de grandes aerolíneas hayan fundado la asociación de Usuarios de Combustible de Aviación, que ha invitado a organizaciones ecologistas mundiales como WWF y Natural Resources Defense Council a asesorarles. «Agradecemos la voluntad del sector de la aviación de reducir las emisiones de gases de efecto invernadero», declaró recientemente Jean-Philippe Denruyter, coordinador de Global Bioenergy de WWF.
No obstante, la ONG Amigos de la Tierra cree que el sector aéreo debe limitar los vuelos antes de introducir los biocombustibles. Añaden que todavía «hay verdaderas dudas acerca de si los biocombustibles son sostenibles y contribuyen a reducir las emisiones».
Los detractores de los biocombustibles sostienen que su producción masiva eleva los precios de los alimentos básicos, al utilizar el terreno agrícola que se dedicaba a producir cereales. También señalan que para despejar suelo para cultivar biocombustibles se arrasan zonas y bosques que cumplen mejor la función de absorción de CO2.
El Panel Intergubernamental para el cambio Climático (IPCC) ha estimado que la quema de bosques tropicales para producir masivamente aceites destinados a biocombustibles, son responsables de hasta el 20% de las emisiones totales de CO2.
Las investigaciones apuntan ahora a producir biocombustibles a partir de algas, cuyo contenido de materia grasa es muy superior al de los aceites vegetales. Las algas se pueden cultivar en espacios mucho más pequeños establecidos en tierra o en el mar, dependiendo de su origen.
De hecho, Virgin utilizará una mezcla del 20% de este tipo de biocombustible en un vuelo de demostración. El biocombustible será inyectado a uno de los motores a través de un sistema independiente para no mezclarse con el combustible normal que va a los otros tres motores. En enero, tendría lugar el vuelo de prueba sin pasajeros entre Heathrow, en Londres y el aeropuerto de Schipol, en Ámsterdam.
Autor: Gustavo Catalán Deus
Comenta este artículo respondiendo a las preguntas:
1.-¿Qué son los biocombustibles?
2.- En cuanto a ocupación del territorio se considera apropiado el cambio de combustibles fósiles por biocombustibles?
3.- ¿Cual es la forma en la que la navegación comercial aérea produce contaminación atmosférica?
4.- ¿Por qué hay detractores del uso de los biocombustibles?
5.- Echale un vistazo a la página del IPCC y aclara cuales son sus principales objetivos.
6.- ¿Qué alternativas en cuanto a materias primas se plantean para su utilización en los vuelos comerciales?
FUENTE | El Mundo Digital 29/10/2008
Darrin Morgan, experto ambiental de Boeing ha declarado al diario británico The Guardian que «la certificación llegará mucho más pronto de lo que pensamos», y concretó que ese plazo se sitúa entre los tres y cinco años.
Aún así, aunque los motores de los aviones son capaces de quemar mezclas de hasta el 30% de biocombustible con el tradicional queroseno sin modificar los motores, el problema que no tiene perspectivas de solución tan cercanas es el aprovisionamiento regular del biocombustible.
El cambio de combustible para los 13.000 aviones comerciales que despegan cada día requeriría tierras de cultivo de soja del tamaño de toda Europa. Este sí que es el mayor freno que se presenta a la expansión del cambio de modelo.
Actualmente, la navegación comercial aérea requiere 386.000 millones de litros de queroseno anuales, que al quemarse emiten el 2% del total del CO2 mundial. También emiten otros gases de efecto invernadero, por lo que el transporte aéreo se ha convertido en un gigante de la contaminación mundial que, además, aumenta con el gran crecimiento que mantiene hace años.
De ahí que una docena de grandes aerolíneas hayan fundado la asociación de Usuarios de Combustible de Aviación, que ha invitado a organizaciones ecologistas mundiales como WWF y Natural Resources Defense Council a asesorarles. «Agradecemos la voluntad del sector de la aviación de reducir las emisiones de gases de efecto invernadero», declaró recientemente Jean-Philippe Denruyter, coordinador de Global Bioenergy de WWF.
No obstante, la ONG Amigos de la Tierra cree que el sector aéreo debe limitar los vuelos antes de introducir los biocombustibles. Añaden que todavía «hay verdaderas dudas acerca de si los biocombustibles son sostenibles y contribuyen a reducir las emisiones».
Los detractores de los biocombustibles sostienen que su producción masiva eleva los precios de los alimentos básicos, al utilizar el terreno agrícola que se dedicaba a producir cereales. También señalan que para despejar suelo para cultivar biocombustibles se arrasan zonas y bosques que cumplen mejor la función de absorción de CO2.
El Panel Intergubernamental para el cambio Climático (IPCC) ha estimado que la quema de bosques tropicales para producir masivamente aceites destinados a biocombustibles, son responsables de hasta el 20% de las emisiones totales de CO2.
Las investigaciones apuntan ahora a producir biocombustibles a partir de algas, cuyo contenido de materia grasa es muy superior al de los aceites vegetales. Las algas se pueden cultivar en espacios mucho más pequeños establecidos en tierra o en el mar, dependiendo de su origen.
De hecho, Virgin utilizará una mezcla del 20% de este tipo de biocombustible en un vuelo de demostración. El biocombustible será inyectado a uno de los motores a través de un sistema independiente para no mezclarse con el combustible normal que va a los otros tres motores. En enero, tendría lugar el vuelo de prueba sin pasajeros entre Heathrow, en Londres y el aeropuerto de Schipol, en Ámsterdam.
Autor: Gustavo Catalán Deus
Comenta este artículo respondiendo a las preguntas:
1.-¿Qué son los biocombustibles?
2.- En cuanto a ocupación del territorio se considera apropiado el cambio de combustibles fósiles por biocombustibles?
3.- ¿Cual es la forma en la que la navegación comercial aérea produce contaminación atmosférica?
4.- ¿Por qué hay detractores del uso de los biocombustibles?
5.- Echale un vistazo a la página del IPCC y aclara cuales son sus principales objetivos.
6.- ¿Qué alternativas en cuanto a materias primas se plantean para su utilización en los vuelos comerciales?
martes, 28 de octubre de 2008
Ciencia para evitar catástrofes
El Consejo Internacional para la Ciencia (ICSU) se ha embarcado en un programa internacional de investigación de diez años de duración que se propone subsanar las lagunas de conocimiento que existen entre la aplicación de la ciencia y la evitación de catástrofes, a fin de reducir los riesgos de que éstas se produzcan. Esta decisión fue anunciada durante la XXIX Asamblea General del ICSU, celebrada en Maputo (Mozambique). Se trata de la primera Asamblea General celebrada por este organismo en un país subsahariano.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 27/10/2008
El nuevo programa, denominado Integrated Research on Disaster Risk (IRDR, Investigación integrada sobre el riesgo de catástrofes), se basará en diversas actividades de investigación ya en marcha y abordará el impacto de las catástrofes a cualquier escala (desde local hasta mundial).
«El programa IRDR fortalecerá las capacidades en todo el mundo para afrontar riesgos de catástrofes y tomar medidas más adecuadas para mitigar sus repercusiones», declaró el climatólogo Gordon McBean, presidente del Grupo de Planificación contra Riesgos del ICSU. Se prevé que el IRDR reunirá conocimientos técnicos y experiencias procedentes de todas partes del mundo y que brindará una oportunidad sin precedentes para que las ciencias naturales y sociales trabajen codo con codo como nunca antes.
«Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil», añadió el Dr. McBean.
El programa IRDR abarcará todo peligro de tipo geofísico, oceanográfico y climático, así como todo fenómeno que pueda ser provocado por la meteorología. Se engloba incluso la meteorología espacial y el posible impacto de objetos espaciales sobre la Tierra. Cabe destacar que este programa tendrá en cuenta el impacto de las actividades humanas por lo que concierne a provocar peligros o agudizarlos.
Los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres, al estar peor equipados para afrontar catástrofes. Se calcula que cada año las catástrofes naturales matan a cientos de miles de personas y que dañan de alguna forma a millones de ellas. Los supervivientes a dichas catástrofes suelen quedar desplazados y perder su medio de sustento. La comunidad científica ha observado un incremento en la frecuencia de las catástrofes naturales en los últimos años. Desde el comienzo del siglo XXI se han registrado más de 470 catástrofes al año, mientras que en la década de los cincuenta la cifra anual era apenas de 30.
Filipe Domingos Freires Lucio, miembro del Grupo de Planificación del ICSU y antiguo director general del Instituto Nacional de Meteorología de Mozambique, se refirió extensamente al posible impacto de las catástrofes sobre las poblaciones humanas. «En África una catástrofe puede tener un impacto enorme sobre las actividades económicas y los medios de sustento de la población. Mozambique es especialmente vulnerable a las catástrofes, y sobre todo a las asociadas a fenómenos meteorológicos y climáticos. El IRDR generará conocimientos que contribuirán a que en cada país se tomen mejores medidas, lo que redundará en una mejor gestión del riesgo de catástrofes», aseguró.
El ICSU, con sede central en París (Francia), es una organización no gubernamental a la que están afiliados organismos científicos nacionales (114 miembros) y uniones científicas internacionales (29 miembros).
Me gustaría que respondieras a las siguientes preguntas sobre el artículo anterior:
1.- ¿Cual es el objetivo del programa IRDR, Investigación integrada sobre el riesgo de catástrofes ?
2.- ¿A qué factor de riesgo se refiere el dr.McBean cuando dice «Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil»?
3.- ¿Qué tipo de riesgos abarcará el programa IRDR?
4.- ¿Por qué los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres? ¿Qué factor de riesgo va a cambiar en estos paises?
¿Qué es el ICSU? Pinchando aquí tienes el enlace a su página, puedes echarle un vistazo.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 27/10/2008
El nuevo programa, denominado Integrated Research on Disaster Risk (IRDR, Investigación integrada sobre el riesgo de catástrofes), se basará en diversas actividades de investigación ya en marcha y abordará el impacto de las catástrofes a cualquier escala (desde local hasta mundial).
«El programa IRDR fortalecerá las capacidades en todo el mundo para afrontar riesgos de catástrofes y tomar medidas más adecuadas para mitigar sus repercusiones», declaró el climatólogo Gordon McBean, presidente del Grupo de Planificación contra Riesgos del ICSU. Se prevé que el IRDR reunirá conocimientos técnicos y experiencias procedentes de todas partes del mundo y que brindará una oportunidad sin precedentes para que las ciencias naturales y sociales trabajen codo con codo como nunca antes.
«Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil», añadió el Dr. McBean.
El programa IRDR abarcará todo peligro de tipo geofísico, oceanográfico y climático, así como todo fenómeno que pueda ser provocado por la meteorología. Se engloba incluso la meteorología espacial y el posible impacto de objetos espaciales sobre la Tierra. Cabe destacar que este programa tendrá en cuenta el impacto de las actividades humanas por lo que concierne a provocar peligros o agudizarlos.
Los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres, al estar peor equipados para afrontar catástrofes. Se calcula que cada año las catástrofes naturales matan a cientos de miles de personas y que dañan de alguna forma a millones de ellas. Los supervivientes a dichas catástrofes suelen quedar desplazados y perder su medio de sustento. La comunidad científica ha observado un incremento en la frecuencia de las catástrofes naturales en los últimos años. Desde el comienzo del siglo XXI se han registrado más de 470 catástrofes al año, mientras que en la década de los cincuenta la cifra anual era apenas de 30.
Filipe Domingos Freires Lucio, miembro del Grupo de Planificación del ICSU y antiguo director general del Instituto Nacional de Meteorología de Mozambique, se refirió extensamente al posible impacto de las catástrofes sobre las poblaciones humanas. «En África una catástrofe puede tener un impacto enorme sobre las actividades económicas y los medios de sustento de la población. Mozambique es especialmente vulnerable a las catástrofes, y sobre todo a las asociadas a fenómenos meteorológicos y climáticos. El IRDR generará conocimientos que contribuirán a que en cada país se tomen mejores medidas, lo que redundará en una mejor gestión del riesgo de catástrofes», aseguró.
El ICSU, con sede central en París (Francia), es una organización no gubernamental a la que están afiliados organismos científicos nacionales (114 miembros) y uniones científicas internacionales (29 miembros).
Me gustaría que respondieras a las siguientes preguntas sobre el artículo anterior:
1.- ¿Cual es el objetivo del programa IRDR, Investigación integrada sobre el riesgo de catástrofes ?
2.- ¿A qué factor de riesgo se refiere el dr.McBean cuando dice «Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil»?
3.- ¿Qué tipo de riesgos abarcará el programa IRDR?
4.- ¿Por qué los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres? ¿Qué factor de riesgo va a cambiar en estos paises?
¿Qué es el ICSU? Pinchando aquí tienes el enlace a su página, puedes echarle un vistazo.
lunes, 27 de octubre de 2008
viernes, 24 de octubre de 2008
Identifican una nueva vía de dispersión del virus del sida en el sistema inmune
Jaque al sida. Un estudio liderado por científicos del Instituto de Investigación del Sida (IrsiCaixa) del Hospital Germans Trias de Badalona ha identificado una nueva vía que utiliza el VIH para infectar las células del sistema inmune. La importancia del hallazgo reside en que el virus utiliza como «caballos de Troya» las células dendríticas, las mismas que, en condiciones normales, se encargan de erradicarlo.
FUENTE | ABC Periódico Electrónico S.A. 23/10/2008
El descubrimiento, publicado en la revista «Blood», abre la puerta al desarrollo de nuevas terapias para combatir la enfermedad. El estudio, elaborado con la colaboración de las Unidades de Inmunología y Anatomía Patológica del Hospital Germans Trias i Pujol de Badalona (Barcelona) y del Departamento de Microbiología de la Universidad de Boston (EE.UU.), y con la financiación del Ministerio de Ciencia, revela que cuando un patógeno entra en el organismo, las células dendríticas juegan un papel clave en la organización de la respuesta inmune. Su función consiste en patrullar el organismo y capturar a los agentes infecciosos que lo invaden.
Destrucción del agente invasor De este modo, en condiciones normales, una vez que las células dendríticas han capturado a patógenos tales como el VIH, las células maduran y son capaces de degradarlos y presentarlos a su principal diana: los linfocitos T CD4+, que se encargarán de organizar la destrucción del agente invasor.
El estudio demuestra, por primera vez, que el VIH se aprovecha de la misma vía de entrada de las células dendríticas que unas partículas denominadas exosomas, generadas por el sistema inmune para amplificar la información sobre el tipo de agente infeccioso que ataca al organismo. Según Javier Martínez-Picado, de la Institució de Recerca i Estudis Avançats (ICREA), «las similitudes detectadas entre el mecanismo de entrada del VIH y el mecanismo de entrada de los exosomas, debería guiarles en el diseño de terapias que permitan frenar uno de los mecanismos de diseminación de la infección».
Autor: E. Armora
FUENTE | ABC Periódico Electrónico S.A. 23/10/2008
El descubrimiento, publicado en la revista «Blood», abre la puerta al desarrollo de nuevas terapias para combatir la enfermedad. El estudio, elaborado con la colaboración de las Unidades de Inmunología y Anatomía Patológica del Hospital Germans Trias i Pujol de Badalona (Barcelona) y del Departamento de Microbiología de la Universidad de Boston (EE.UU.), y con la financiación del Ministerio de Ciencia, revela que cuando un patógeno entra en el organismo, las células dendríticas juegan un papel clave en la organización de la respuesta inmune. Su función consiste en patrullar el organismo y capturar a los agentes infecciosos que lo invaden.
Destrucción del agente invasor De este modo, en condiciones normales, una vez que las células dendríticas han capturado a patógenos tales como el VIH, las células maduran y son capaces de degradarlos y presentarlos a su principal diana: los linfocitos T CD4+, que se encargarán de organizar la destrucción del agente invasor.
El estudio demuestra, por primera vez, que el VIH se aprovecha de la misma vía de entrada de las células dendríticas que unas partículas denominadas exosomas, generadas por el sistema inmune para amplificar la información sobre el tipo de agente infeccioso que ataca al organismo. Según Javier Martínez-Picado, de la Institució de Recerca i Estudis Avançats (ICREA), «las similitudes detectadas entre el mecanismo de entrada del VIH y el mecanismo de entrada de los exosomas, debería guiarles en el diseño de terapias que permitan frenar uno de los mecanismos de diseminación de la infección».
Autor: E. Armora
miércoles, 22 de octubre de 2008
La vida surgió de una chispa hace medio siglo
En 1953, un joven licenciado en Química construyó un artefacto digno del doctor Frankenstein. Como el personaje de Shelley, Stanley Miller pretendía en su laboratorio de la Universidad de Chicago prender una chispa para crear vida. Pero su experimento no era un cuento gótico, sino la puesta en práctica de una teoría científica promovida por su mentor, el premio Nobel de Química Harold Urey.
FUENTE | Público 21/10/2008
Urey defendía que la vida terrestre se cocinó a la lumbre de las tormentas eléctricas a partir de ingredientes básicos disueltos en la sopa del océano. En términos más precisos: en una Tierra primitiva con una atmósfera reductora compuesta por hidrógeno, metano y amoniaco, la energía eléctrica pudo activar estos gases para formar los aminoácidos de las proteínas, un primer escalón en la química de la vida.
Para recrear el proceso en el laboratorio, Miller diseñó un circuito cerrado y sin aire que emulaba la Tierra prebiótica: un mechero calentaba agua en un matraz -el océano-, el vapor se mezclaba con los gases -la atmósfera primitiva- y la mezcla atravesaba un arco eléctrico -la tormenta- para regresar al matraz dejando en su camino, si el experimento funcionaba, un residuo de moléculas biológicas simples.
PRUEBA DE UN COSMOS POBLADO
Aunque Miller mantuvo el experimento una semana, a las 24 horas el agua se había teñido de rojo y amarillo, la firma de algo nuevo. En un breve artículo en Science, el científico demostraba que su Tierra había creado cinco aminoácidos, que se elevaron a 14 con nuevas técnicas en décadas posteriores.
El ensayo de Miller se convirtió en canon de la astrobiología; para el astrónomo y divulgador Carl Sagan, era "la mejor prueba de la abundancia de vida en el cosmos".
Para desgracia de Miller, la hipótesis de la atmósfera reductora cayó en desuso. Hoy se cree que en la Tierra prebiótica abundaban el CO2 y el nitrógeno, lo que invalida el experimento. En una entrevista a Astrobiology Magazine en 2003, Miller confesaba: "Aún no he encontrado la alternativa a la necesidad de una atmósfera reductora".
Miller falleció en 2007, pero sus sucesores le siguen los pasos. Sus antiguos becarios, James Cleaves y Jeffrey Bada, hallaron muestras del experimento original y las han analizado. Según la edición de Science, una segunda versión del aparato, que Miller no publicó, engendró 22 aminoácidos.
La mayor sorpresa está en la clave de esta variante: una espita que concentra los gases simula un volcán, que muchos sugieren como la cuna de la vida en la Tierra prebiótica. Si la atmósfera de entonces no era reductora, los gases volcánicos sí lo son. Y, por si fuera poco, el vulcanismo produce tormentas eléctricas. Miller pudo tener más razón de la que sospechaba.
Autor: Javier Yanes
los volcanes originaron la vida en la Tierra
FUENTE | Público 21/10/2008
Urey defendía que la vida terrestre se cocinó a la lumbre de las tormentas eléctricas a partir de ingredientes básicos disueltos en la sopa del océano. En términos más precisos: en una Tierra primitiva con una atmósfera reductora compuesta por hidrógeno, metano y amoniaco, la energía eléctrica pudo activar estos gases para formar los aminoácidos de las proteínas, un primer escalón en la química de la vida.
Para recrear el proceso en el laboratorio, Miller diseñó un circuito cerrado y sin aire que emulaba la Tierra prebiótica: un mechero calentaba agua en un matraz -el océano-, el vapor se mezclaba con los gases -la atmósfera primitiva- y la mezcla atravesaba un arco eléctrico -la tormenta- para regresar al matraz dejando en su camino, si el experimento funcionaba, un residuo de moléculas biológicas simples.
PRUEBA DE UN COSMOS POBLADO
Aunque Miller mantuvo el experimento una semana, a las 24 horas el agua se había teñido de rojo y amarillo, la firma de algo nuevo. En un breve artículo en Science, el científico demostraba que su Tierra había creado cinco aminoácidos, que se elevaron a 14 con nuevas técnicas en décadas posteriores.
El ensayo de Miller se convirtió en canon de la astrobiología; para el astrónomo y divulgador Carl Sagan, era "la mejor prueba de la abundancia de vida en el cosmos".
Para desgracia de Miller, la hipótesis de la atmósfera reductora cayó en desuso. Hoy se cree que en la Tierra prebiótica abundaban el CO2 y el nitrógeno, lo que invalida el experimento. En una entrevista a Astrobiology Magazine en 2003, Miller confesaba: "Aún no he encontrado la alternativa a la necesidad de una atmósfera reductora".
Miller falleció en 2007, pero sus sucesores le siguen los pasos. Sus antiguos becarios, James Cleaves y Jeffrey Bada, hallaron muestras del experimento original y las han analizado. Según la edición de Science, una segunda versión del aparato, que Miller no publicó, engendró 22 aminoácidos.
La mayor sorpresa está en la clave de esta variante: una espita que concentra los gases simula un volcán, que muchos sugieren como la cuna de la vida en la Tierra prebiótica. Si la atmósfera de entonces no era reductora, los gases volcánicos sí lo son. Y, por si fuera poco, el vulcanismo produce tormentas eléctricas. Miller pudo tener más razón de la que sospechaba.
Autor: Javier Yanes
los volcanes originaron la vida en la Tierra
Genoma humano: progreso científico para el avance de la civilización
Han sido muchos los acontecimientos ocurridos, desde que se hiciera público el primer borrador del genoma humano, a principios del año 2001. Como es sabido, el citado borrador, notablemente perfeccionado desde entonces, pues los errores y lagunas eran muchos, representa el patrón de la información genética detallada que define la especie humana.
FUENTE | ABC Periódico Electrónico S.A. 21/10/2008
Su conocimiento abrió la posibilidad de detallar también, hasta un nivel muy profundo, la individualidad genética de cada ser humano. Se trata de una cuestión, la de cada ser humano como único e irrepetible, que tiene múltiples facetas; de alguna forma, la dignidad intrínseca, que la verdadera civilización atribuye a cada uno de los integrantes de nuestra especie, también se ejemplifica en los datos que hoy nos aporta la Ciencia más avanzada.
Disponer de esta información sobre el genoma humano permite plantear una enorme cantidad de nuevos programas científicos, destinados a aprovechar ese conocimiento, que actualmente están en pleno desarrollo en muchos lugares del mundo. Entre ellos, los destinados a desarrollar una Medicina individualizada que no es otra cosa que utilizar los datos de la individualidad genética de cada cual, para mejorar la atención sanitaria a lo largo de la vida. Se trata, por ejemplo, de plantear medidas preventivas que beneficien a cada persona, en función de lo que se pueda deducir de sus datos genéticos. Se trata, igualmente, de que la atención farmacéutica que reciba tenga en cuenta qué fármacos son los más adecuados para el propio individuo, o cuáles no lo son en absoluto, aunque puedan ser útiles para otros. En definitiva, se pretende conocer hasta qué punto los genes de los que somos portadores -dotación que cada uno recibe a partes iguales de su padre y de su madre- influyen en nuestra salud, así como cuál es el alcance del ambiente en el que nuestra vida se desarrolla. No sólo somos genes, sino que a partir de esta dotación genética nuestro ser biológico se materializa en interacción con el ambiente. Por ambiente se debe entender todo nuestro entorno vital, desde el clima a la alimentación o la educación que recibimos.
El brillante premio Nobel Sidney Brenner ha llegado a escribir que todo este conocimiento define un nuevo paradigma científico, porque la Humanidad como tal representa un nuevo modelo. No cabe duda de que los avances en el genoma humano son una nueva fuente de conocimiento y de posibilidades. Sin embargo, la especie humana hace muchos años que ha llegado a esa conclusión. El reconocimiento de dignidad de la persona es la medida de la civilización; los nuevos hallazgos no hacen sino confirmar algo que está escrito en nuestra propia naturaleza, y que como seres humanos hemos podido ir materializando. Claro que a lo largo de la Historia ha habido ejemplos de lo contrario, momentos oscuros para esa civilización humana. También está claro que el propio concepto de vida humana -y la dignidad que le corresponde- pretende ser revisado por algunos en estos momentos, especialmente en lo que representan sus inicios o su final natural.
Pero, interesa mucho a todos considerar algunos aspectos del conocimiento nuevo, para que de cada avance científico se pueda derivar un verdadero progreso. Los avances de la Ciencia suponen un recorrido por un camino plagado de hallazgos ciertos, pero entremezclado de territorios de incertidumbre. La honradez más elemental demanda tanto establecer la verdad científica, como analizar sus alcances en términos precisos. Las interpretaciones carentes de base pueden ser -han sido, algunas veces- el origen de grandes conflictos.
Una conclusión que los datos genómicos establecen con claridad es que no existen razas humanas, si por razas se entiende grupos de seres humanos separados, entre los que pueda caber una distinción biológica clara. La especie humana es única, no hay fronteras que separen en grupos a quienes la integramos. Es ésta una cuestión en la que los descubrimientos científicos no hacen otra cosa que confirmar a quienes propusieron reconocer ese hecho fundamental, desde el ámbito religioso, político o social. Las observaciones son contundentes; hay una variabilidad genética, todos somos diferentes. Esas variaciones, en parte, son heredadas de nuestros antepasados que mezclaron sus genes, lo que sigue potenciando esa variabilidad. La variación hoy existente se puede datar a los inicios de la especie. Las diferencias de color de piel, así como de otras características externas muy visibles, son debidas a meras adaptaciones. Si se cuantifican las diferencias genéticas entre dos individuos, incluso considerados como de la misma raza, su valor alcanza niveles muy superiores a aquellas que puedan determinar las diferencias raciales o étnicas.
La Ciencia biológica asesta un duro golpe a todas aquellas posiciones -sostenidas en el pasado, pero también en el presente, no nos engañemos- que hacen énfasis en la significación de la etnicidad. Se podrán buscar explicaciones culturales o sociales sobre la existencia de grupos étnicos, así como a su proyección en la situación actual para demandar determinados derechos de grupos, por encima del individuo. De hecho, sabemos que esta búsqueda ha contaminado el cultivo de la Historia, desde sus fundamentos arqueológicos, cuando ésta se ha pervertido al servicio de determinadas ideologías y propuestas nacionalistas. Sin embargo, los avances sobre el genoma humano y la individualidad genética, tan útiles para la Medicina, representan una oportunidad más para la civilización. Un grupo multidisciplinar de académicos de la Universidad de Stanford insistía acertadamente en esta idea. La utilización de categorías raciales o étnicas, que sigue siendo empleada en Medicina, por ejemplo, para establecer la incidencia de determinadas patologías en caucasianos o personas de color, debe hacerse con precaución y con conocimiento de causa. Los grupos étnicos tal como se definen tienen un sustrato cultural y social, que con frecuencia va mucho más allá de lo biológico. Es preciso estar alerta frente a explicaciones genéticas de diferencias entre grupos humanos, en especial cuando se trata de caracteres de determinación compleja como la conducta o la capacidad intelectual.
Conocer la naturaleza es parte del progreso humano, que se asienta y avanza aun más a través del conocimiento de nuestra propia naturaleza como seres vivos. A nuestra propia libertad le es dado aprovechar ese conocimiento para profundizar en lo que más nos dignifica, el respeto a los derechos de todos, pero también de cada persona como única e irrepetible. Cada vez que sabemos en qué consiste ese ser único de cada individuo, nuestra civilización puede seguir avanzando sobre estas bases.
Autor: César NombelaNace en España el primer bebe modificado geneticamente
FUENTE | ABC Periódico Electrónico S.A. 21/10/2008
Su conocimiento abrió la posibilidad de detallar también, hasta un nivel muy profundo, la individualidad genética de cada ser humano. Se trata de una cuestión, la de cada ser humano como único e irrepetible, que tiene múltiples facetas; de alguna forma, la dignidad intrínseca, que la verdadera civilización atribuye a cada uno de los integrantes de nuestra especie, también se ejemplifica en los datos que hoy nos aporta la Ciencia más avanzada.
Disponer de esta información sobre el genoma humano permite plantear una enorme cantidad de nuevos programas científicos, destinados a aprovechar ese conocimiento, que actualmente están en pleno desarrollo en muchos lugares del mundo. Entre ellos, los destinados a desarrollar una Medicina individualizada que no es otra cosa que utilizar los datos de la individualidad genética de cada cual, para mejorar la atención sanitaria a lo largo de la vida. Se trata, por ejemplo, de plantear medidas preventivas que beneficien a cada persona, en función de lo que se pueda deducir de sus datos genéticos. Se trata, igualmente, de que la atención farmacéutica que reciba tenga en cuenta qué fármacos son los más adecuados para el propio individuo, o cuáles no lo son en absoluto, aunque puedan ser útiles para otros. En definitiva, se pretende conocer hasta qué punto los genes de los que somos portadores -dotación que cada uno recibe a partes iguales de su padre y de su madre- influyen en nuestra salud, así como cuál es el alcance del ambiente en el que nuestra vida se desarrolla. No sólo somos genes, sino que a partir de esta dotación genética nuestro ser biológico se materializa en interacción con el ambiente. Por ambiente se debe entender todo nuestro entorno vital, desde el clima a la alimentación o la educación que recibimos.
El brillante premio Nobel Sidney Brenner ha llegado a escribir que todo este conocimiento define un nuevo paradigma científico, porque la Humanidad como tal representa un nuevo modelo. No cabe duda de que los avances en el genoma humano son una nueva fuente de conocimiento y de posibilidades. Sin embargo, la especie humana hace muchos años que ha llegado a esa conclusión. El reconocimiento de dignidad de la persona es la medida de la civilización; los nuevos hallazgos no hacen sino confirmar algo que está escrito en nuestra propia naturaleza, y que como seres humanos hemos podido ir materializando. Claro que a lo largo de la Historia ha habido ejemplos de lo contrario, momentos oscuros para esa civilización humana. También está claro que el propio concepto de vida humana -y la dignidad que le corresponde- pretende ser revisado por algunos en estos momentos, especialmente en lo que representan sus inicios o su final natural.
Pero, interesa mucho a todos considerar algunos aspectos del conocimiento nuevo, para que de cada avance científico se pueda derivar un verdadero progreso. Los avances de la Ciencia suponen un recorrido por un camino plagado de hallazgos ciertos, pero entremezclado de territorios de incertidumbre. La honradez más elemental demanda tanto establecer la verdad científica, como analizar sus alcances en términos precisos. Las interpretaciones carentes de base pueden ser -han sido, algunas veces- el origen de grandes conflictos.
Una conclusión que los datos genómicos establecen con claridad es que no existen razas humanas, si por razas se entiende grupos de seres humanos separados, entre los que pueda caber una distinción biológica clara. La especie humana es única, no hay fronteras que separen en grupos a quienes la integramos. Es ésta una cuestión en la que los descubrimientos científicos no hacen otra cosa que confirmar a quienes propusieron reconocer ese hecho fundamental, desde el ámbito religioso, político o social. Las observaciones son contundentes; hay una variabilidad genética, todos somos diferentes. Esas variaciones, en parte, son heredadas de nuestros antepasados que mezclaron sus genes, lo que sigue potenciando esa variabilidad. La variación hoy existente se puede datar a los inicios de la especie. Las diferencias de color de piel, así como de otras características externas muy visibles, son debidas a meras adaptaciones. Si se cuantifican las diferencias genéticas entre dos individuos, incluso considerados como de la misma raza, su valor alcanza niveles muy superiores a aquellas que puedan determinar las diferencias raciales o étnicas.
La Ciencia biológica asesta un duro golpe a todas aquellas posiciones -sostenidas en el pasado, pero también en el presente, no nos engañemos- que hacen énfasis en la significación de la etnicidad. Se podrán buscar explicaciones culturales o sociales sobre la existencia de grupos étnicos, así como a su proyección en la situación actual para demandar determinados derechos de grupos, por encima del individuo. De hecho, sabemos que esta búsqueda ha contaminado el cultivo de la Historia, desde sus fundamentos arqueológicos, cuando ésta se ha pervertido al servicio de determinadas ideologías y propuestas nacionalistas. Sin embargo, los avances sobre el genoma humano y la individualidad genética, tan útiles para la Medicina, representan una oportunidad más para la civilización. Un grupo multidisciplinar de académicos de la Universidad de Stanford insistía acertadamente en esta idea. La utilización de categorías raciales o étnicas, que sigue siendo empleada en Medicina, por ejemplo, para establecer la incidencia de determinadas patologías en caucasianos o personas de color, debe hacerse con precaución y con conocimiento de causa. Los grupos étnicos tal como se definen tienen un sustrato cultural y social, que con frecuencia va mucho más allá de lo biológico. Es preciso estar alerta frente a explicaciones genéticas de diferencias entre grupos humanos, en especial cuando se trata de caracteres de determinación compleja como la conducta o la capacidad intelectual.
Conocer la naturaleza es parte del progreso humano, que se asienta y avanza aun más a través del conocimiento de nuestra propia naturaleza como seres vivos. A nuestra propia libertad le es dado aprovechar ese conocimiento para profundizar en lo que más nos dignifica, el respeto a los derechos de todos, pero también de cada persona como única e irrepetible. Cada vez que sabemos en qué consiste ese ser único de cada individuo, nuestra civilización puede seguir avanzando sobre estas bases.
Autor: César NombelaNace en España el primer bebe modificado geneticamente
España espera generalizar la captura y almacenamiento de CO2 a partir de 2020
«Quitar de la circulación el CO2 que emiten las industrias». Esto es, muy gráficamente, el objetivo último de la Plataforma Tecnológica Española del CO2 (PTECO2), formada por 34 entidades privadas del sector industrial y tecnológico, incluidas en el Sistema de Comercio de Emisiones de la Unión Europea, y por 36 organismos públicos del ámbito educativo e investigación.
FUENTE | ABC Periódico Electrónico S.A. 22/10/2008
Una vez que han terminado lo que ellos llaman «el itinerario tecnológico para España», un plan a ejecutar a corto y medio plazo y que comprende 14 propuestas para la realización de estudios, proyectos y líneas de investigación en las áreas de reducción y captura, uso y almacenamiento de CO2 e infraestructuras. Para su desarrollo, la Plataforma cree que es necesaria una inversión de 304 millones de euros.
Según explicó Santiago Sabugal, presidente de PTECO2, el objetivo es que en el año 2010 esté operativa la planta experimental de captura y almacenamiento de carbono de CIUDEN en El Bierzo; en 2015 haya al menos una planta operativa de demostración a nivel comercial y que, a partir de 2020, se produzca la transformación a escala masiva del parque técnico incorporando centrales de alta eficiencia con esta tecnología.
EXPORTAR Y NO COMPRAR
En contra de los que ven en esta tecnología una forma de esconder bajo la alfombra las emisiones de gases de efecto invernadero, en lugar de evitarlas, Sabugal dijo que aunque se apueste por un modelo basado en las energías renovables siempre va a haber procesos en muchos sectores industriales que necesiten de la quema de combustibles fósiles. Por tanto, «ésta es una tecnología clave y nuestro objetivo es que España sea desarrolladora y exportadora y no compradora» de esta técnica.
En este sentido, Juan Carlos Abanades, investigador del Instituto del Carbón, del CSIC, aseguró que «las tecnologías existen ya, esto no es ciencia ficción». Se refiere, sobre todo, a la fase de captura, donde lo que se intenta ahora es reducir el coste por tonelada de CO2 evitada. Actualmente está entre 30 y 60 euros y el objetivo para las dos próximas décadas es que se sitúe por debajo de los 15 euros por tonelada de CO2 que deja de emitirse.
El mayor reto ahora es el estudio del subsuelo para caracterizar los emplazamientos donde pueda inyectarse con seguridad este gas ya llevado al estado supercrítico. «Ya sabemos que hay un tercio del territorio que no sirve por ser suelo granítico y metamórfico y no tener porosidad, pero es necesario un estudio geológico más profundo y esto cuesta mucho dinero», dijo a ABC Cecilio Quesada, del Instituto Geológico y Minero. Por eso, la inversión necesaria para los proyectos dentro del área de uso y almacenamiento de CO2 es la de mayor cuantía, más de 184 millones de euros.
En cuanto al almacenamiento se recoge la propuesta de realizar un mapa de las zonas de potencial de almacenamiento en España, pero el CO2 capturado también puede volver a utilizarse, por ejemplo transformándolo en biocombustibles, o el ejemplo de la planta de Elcogas en Puertollano, donde se separa el CO2 y se produce hidrógeno.
Desde la Plataforma del CO2 estiman que la captura y el almacenamiento podría suponer una reducción de las emisiones de los países industrializados de entre un 50 y un 80 por ciento para 2050.
Autor: Araceli Acosta
FUENTE | ABC Periódico Electrónico S.A. 22/10/2008
Una vez que han terminado lo que ellos llaman «el itinerario tecnológico para España», un plan a ejecutar a corto y medio plazo y que comprende 14 propuestas para la realización de estudios, proyectos y líneas de investigación en las áreas de reducción y captura, uso y almacenamiento de CO2 e infraestructuras. Para su desarrollo, la Plataforma cree que es necesaria una inversión de 304 millones de euros.
Según explicó Santiago Sabugal, presidente de PTECO2, el objetivo es que en el año 2010 esté operativa la planta experimental de captura y almacenamiento de carbono de CIUDEN en El Bierzo; en 2015 haya al menos una planta operativa de demostración a nivel comercial y que, a partir de 2020, se produzca la transformación a escala masiva del parque técnico incorporando centrales de alta eficiencia con esta tecnología.
EXPORTAR Y NO COMPRAR
En contra de los que ven en esta tecnología una forma de esconder bajo la alfombra las emisiones de gases de efecto invernadero, en lugar de evitarlas, Sabugal dijo que aunque se apueste por un modelo basado en las energías renovables siempre va a haber procesos en muchos sectores industriales que necesiten de la quema de combustibles fósiles. Por tanto, «ésta es una tecnología clave y nuestro objetivo es que España sea desarrolladora y exportadora y no compradora» de esta técnica.
En este sentido, Juan Carlos Abanades, investigador del Instituto del Carbón, del CSIC, aseguró que «las tecnologías existen ya, esto no es ciencia ficción». Se refiere, sobre todo, a la fase de captura, donde lo que se intenta ahora es reducir el coste por tonelada de CO2 evitada. Actualmente está entre 30 y 60 euros y el objetivo para las dos próximas décadas es que se sitúe por debajo de los 15 euros por tonelada de CO2 que deja de emitirse.
El mayor reto ahora es el estudio del subsuelo para caracterizar los emplazamientos donde pueda inyectarse con seguridad este gas ya llevado al estado supercrítico. «Ya sabemos que hay un tercio del territorio que no sirve por ser suelo granítico y metamórfico y no tener porosidad, pero es necesario un estudio geológico más profundo y esto cuesta mucho dinero», dijo a ABC Cecilio Quesada, del Instituto Geológico y Minero. Por eso, la inversión necesaria para los proyectos dentro del área de uso y almacenamiento de CO2 es la de mayor cuantía, más de 184 millones de euros.
En cuanto al almacenamiento se recoge la propuesta de realizar un mapa de las zonas de potencial de almacenamiento en España, pero el CO2 capturado también puede volver a utilizarse, por ejemplo transformándolo en biocombustibles, o el ejemplo de la planta de Elcogas en Puertollano, donde se separa el CO2 y se produce hidrógeno.
Desde la Plataforma del CO2 estiman que la captura y el almacenamiento podría suponer una reducción de las emisiones de los países industrializados de entre un 50 y un 80 por ciento para 2050.
Autor: Araceli Acosta
sábado, 18 de octubre de 2008
'Homo sapiens' pudo salir de África a través del Sahara
El Sahara no siempre ha sido tan árido como hoy lo conocemos. Imágenes de radar y análisis geoquímicos de sedimentos en varias localizaciones del desierto han permitido el hallazgo de rastros de antiguos ríos que lo atravesaban y llegaban al Mediterráneo en la zona de la actual Libia. Ese corredor verde fue utilizado por las primeras migraciones de homo sapiens, cuya aparición se calcula que ocurrió hace entre 150.000 y 200.000 años en el África subsahariana, de acuerdo con una investigación realizada por científicos británicos.
FUENTE | ABC Periódico Electrónico S.A. 17/10/2008
Hasta ahora se creía que la dispersión del hombre moderno desde el centro de África se había producido siguiendo la ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo no avalaban del todo la vía egipcia.
La nueva investigación, dirigida por Anne H. Osborne, de la Universidad de Bristol, aporta por primera vez pruebas de que la expansión de las primeras oleadas de nuestros antepasados pudo hacerse a través del Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo no debería ser ni la única ni, tal vez, la ruta potencial más probable de dispersión».
UN CORREDOR DE AGUA DULCE
Las pruebas realizadas con radar detectan lechos fósiles de ríos ahora enterrados que cruzan el desierto y desembocan en la costa mediterránea. La existencia de esos canales explicaría el disperso hallazgo en algunos oasis de ciertas artesanías datadas a mediados de la Edad de Piedra relacionadas con otras halladas cerca del mar.
El estudio presenta datos geoquímicos que demuestran que el agua en esos sistemas fósiles derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor de agua dulce a través de la actualmente hiperárida región del Sahara en el momento de las tempranas migraciones del hombre moderno hacia el norte de África y fuera de ella», asevera el equipo investigador.
CORREDORES VERDES
De hace aproximadamente 130.000 años datan los restos de homo sapiens más antiguos encontrados en la zona más occidental de Oriente Medio. Hasta ahora se suponía que la especie había llegado allí a través del valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han revelado una amplia distribución de homo sapiens a lo largo de la costa del norte de África y el norte del Sahara durante ese mismo período, lo que apoyaría la tesis del uso de los corredores verdes del Sahara.
«Utilizando análisis geoquímicos hemos demostrado que esos canales estaban activos durante el último periodo interglacial. Eso ofrece importante cauce en esa región que de otro modo sería árida», según Anne H. Osborne.
Para Derek Vance, otro de los autores del estudio, en el que también han participado geólogos libios, se muestra por primera vez que «las lluvias monzónicas alimentaron los ríos que se extienden desde el Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron con el valle del Nilo como rutas potenciales para las migraciones humanas hasta el Mediterráneo».
Autor: Emili J. Blasco
FUENTE | ABC Periódico Electrónico S.A. 17/10/2008
Hasta ahora se creía que la dispersión del hombre moderno desde el centro de África se había producido siguiendo la ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo no avalaban del todo la vía egipcia.
La nueva investigación, dirigida por Anne H. Osborne, de la Universidad de Bristol, aporta por primera vez pruebas de que la expansión de las primeras oleadas de nuestros antepasados pudo hacerse a través del Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo no debería ser ni la única ni, tal vez, la ruta potencial más probable de dispersión».
UN CORREDOR DE AGUA DULCE
Las pruebas realizadas con radar detectan lechos fósiles de ríos ahora enterrados que cruzan el desierto y desembocan en la costa mediterránea. La existencia de esos canales explicaría el disperso hallazgo en algunos oasis de ciertas artesanías datadas a mediados de la Edad de Piedra relacionadas con otras halladas cerca del mar.
El estudio presenta datos geoquímicos que demuestran que el agua en esos sistemas fósiles derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor de agua dulce a través de la actualmente hiperárida región del Sahara en el momento de las tempranas migraciones del hombre moderno hacia el norte de África y fuera de ella», asevera el equipo investigador.
CORREDORES VERDES
De hace aproximadamente 130.000 años datan los restos de homo sapiens más antiguos encontrados en la zona más occidental de Oriente Medio. Hasta ahora se suponía que la especie había llegado allí a través del valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han revelado una amplia distribución de homo sapiens a lo largo de la costa del norte de África y el norte del Sahara durante ese mismo período, lo que apoyaría la tesis del uso de los corredores verdes del Sahara.
«Utilizando análisis geoquímicos hemos demostrado que esos canales estaban activos durante el último periodo interglacial. Eso ofrece importante cauce en esa región que de otro modo sería árida», según Anne H. Osborne.
Para Derek Vance, otro de los autores del estudio, en el que también han participado geólogos libios, se muestra por primera vez que «las lluvias monzónicas alimentaron los ríos que se extienden desde el Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron con el valle del Nilo como rutas potenciales para las migraciones humanas hasta el Mediterráneo».
Autor: Emili J. Blasco
Suscribirse a:
Entradas (Atom)