HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

jueves, 11 de diciembre de 2008

¿La hora de los biocarburantes?

El sector del transporte supone en el conjunto de la Unión Europea un 30% del consumo total de energía. En el caso de España esta cifra se eleva al 37,5%, mientras que en la Comunidad de Madrid representa más del 50% del consumo final de energía. Los carburantes utilizados en la actualidad son fundamentalmente productos derivados del petróleo. La contribución de los combustibles fósiles convencionales a las emisiones de CO2 y, por tanto, al cambio climático es muy relevante. Según diferentes estimaciones, el sector del transporte será el principal responsable de la no consecución de los objetivos de Kyoto por la mayor parte de los países europeos.

David Serrano Granados
Universidad Rey Juan Carlos. Director IMDEA-Energía

En este contexto, la utilización de biomasa, y en particular de biocombustibles, para usos energéticos tiene cada vez mayor interés. Los biocombustibles son aquellos combustibles que se producen a partir de la biomasa y que, en consecuencia, son considerados como una fuente de energía renovable. Se pueden presentar tanto en forma sólida (residuos vegetales, fracción biodegradable de los residuos urbanos o industriales), como líquida (bioalcoholes, biodiésel) y gaseosa (biogás, hidrógeno).

Dentro de los biocombustibles, los biocarburantes abarcan al subgrupo caracterizado por su aplicación en motores de combustión interna. Son, en general, de naturaleza líquida y se obtienen a partir de materias primas vegetales mediante transformaciones biológicas y físico-químicas. En la actualidad, se encuentran desarrollados a escala comercial principalmente dos tipos de biocarburantes: el biodiésel, obtenido a partir de la transesterificación de aceites vegetales y grasas animales con un alcohol ligero, y el bioetanol, obtenido fundamentalmente de semillas ricas en azúcares mediante fermentación.

Uno de los principales beneficios que se esperan del uso de biocarburantes es la reducción en las emisiones de CO2. La combustión de los biocarburantes da lugar a emisiones de óxidos de carbono, pero éstas vuelven a ser captadas y fijadas durante el desarrollo y crecimiento de las especies vegetales utilizadas en su obtención. Sin embargo, en la práctica la reducción en las emisiones no es del 100%, ya que la producción del propio biocarburante implica un consumo importante de energía de origen fósil y, por tanto, de emisiones de CO2 no renovables. Asimismo, el empleo de fertilizantes para favorecer el desarrollo de los cultivos lleva asociadas emisiones significativas de NOX, que también contribuyen al efecto invernadero. Declaraciones e informes recientes han destacado estos aspectos negativos, sugiriendo o afirmando que los beneficios medioambientales del uso de biocarburantes en términos de reducción de gases de efecto invernadero son prácticamente nulos. No es un debate nuevo, ya que en las últimas dos décadas este tema ha sido objeto de controversia entre la comunidad científica, aunque en los últimos años ha ido ganando un apoyo más amplio la opción que reconoce a los biocarburantes como una alternativa de gran potencial de reducción de emisiones netas de CO2.

El coste energético que hay que pagar para producir un biocarburante se puede estimar utilizando técnicas de análisis de ciclo de vida (ACV), que tienen en cuenta todas las operaciones y tratamientos que se desarrollan desde el crecimiento de las plantas utilizadas como materia prima hasta la producción, transporte y utilización del carburante. No es un cálculo exacto, puesto que implica trabajar con parámetros y variables a los que se asignan valores con un amplio margen de error. El resultado, por tanto, no es categórico y puede dar lugar a interpretaciones de "botella medio llena" o "botella medio vacía". Los estudios más rigurosos y con datos más actualizados que se han llevado a cabo hasta la fecha indican que los biocarburantes emiten entre un 40% y un 80% menos de dióxido de carbono que los carburantes convencionales. En este sentido cabe destacar un trabajo publicado en el presente año en el que se revisa de forma exhaustiva la bibliografía precedente sobre estudios de ACV en la producción de bioetanol a partir de diferentes materias primas. En el mismo se concluye que el uso de bioetanol tiene efectos positivos muy importantes respecto del consumo de recursos naturales y las emisiones de gases de efecto invernadero, aunque las consecuencias sobre otros factores medioambientales, como la acidificación y la toxicidad humana y ecológica, pueden ser más negativas que positivas.

Por otro lado, ha de tenerse en cuenta que la implantación de una nueva tecnología suele conllevar un proceso de optimización y una mejora paulatina de la eficacia de las diferentes transformaciones. Por ello, es de esperar que la producción de biocarburantes de forma masiva a escala industrial vaya asociada a un incremento sustancial de su eficiencia energética global, provocando, por tanto, una reducción todavía mayor en las emisiones de CO2. Asimismo, el uso de biocarburantes permite disminuir también las emisiones de otros contaminantes, como óxidos de azufre, partículas sólidas, monóxido de carbono, hidrocarburos aromáticos policíclicos y compuestos orgánicos volátiles.

La creación de un mercado europeo de biocarburantes puede ofrecer una oportunidad de desarrollo de las zonas agrícolas dentro de la Política Agraria Común. Se estima que por cada 1% de sustitución de carburantes de origen fósil por biocarburantes se generarán entre 45.000 y 75.000 puestos de trabajo en las áreas rurales de la Unión Europea. Sin embargo, una de las principales limitaciones en el desarrollo comercial de los biocarburantes reside en el hecho de que actualmente sus costes de producción no son competitivos respecto de los carburantes tradicionales, requiriendo de medidas políticas, legales y fiscales que promuevan su desarrollo a escala comercial. Con la tecnología actual, el biodiésel y el bioetanol producidos en la Unión Europea serían competitivos con los carburantes de origen fósil únicamente si el precio del petróleo es al menos de 60 y 90 euros/barril, respectivamente.

En este momento, los objetivos establecidos en nuestro país, y recogidos en el Plan de Energías Renovables (PER), de cara al año 2010 son: producir con fuentes renovables al menos el 12% de la energía total consumida y alcanzar como mínimo un 29,4% de generación eléctrica con renovables y un 5,75% de utilización de biocarburantes en el sector del transporte. Sin duda, se trata de objetivos muy ambiciosos y que resultarán difíciles de conseguir.

Uno de los instrumentos esenciales para promover el desarrollo de los biocarburantes es la política fiscal. La Directiva 2003/30/CE de la Unión Europea recoge la posibilidad de que los estados miembros disminuyan la fiscalidad que grava a los biocarburantes. En algunos países, además de medidas fiscales, se han acordado otro tipo de iniciativas. Entre ellas destacan las denominadas "obligaciones para los biocarburantes", que suponen la exigencia, a las empresas suministradoras de combustibles, de incorporación de un determinado porcentaje de biocarburantes en los productos que comercializan.

Un problema añadido es que la mayor parte de los cultivos destinados a la producción de biocarburantes se dedican también a la producción alimentaria, lo que supone de hecho la interconexión de dos mercados y sectores de gran relevancia como son el energético y el de los alimentos. En esta situación, el precio de las materias primas para la producción de biocarburantes depende del mercado alimentario que, por lo general, es excesivamente alto para el sector energético. Asimismo, la demanda tan importante que se está produciendo en los últimos años de materias primas para la producción de biocarburantes ha empezado ya a provocar un incremento significativo del precio de determinados alimentos. Por otro lado, la existencia de importantes fluctuaciones en los precios supone un factor de riesgo adicional que incrementa la incertidumbre respecto de la rentabilidad a alcanzar en el desarrollo de proyectos de producción y comercialización de biocarburantes.

El biodiésel es un biocarburante líquido producido a partir de aceites vegetales y grasas animales. Las materias primas más utilizadas en la fabricación de biodiésel son la colza, el girasol y la soja. En España la utilización de aceites usados es también muy significativa, lo que presenta la ventaja adicional de permitir la gestión y valorización de un residuo. El biodiésel posee propiedades muy parecidas a las del gasóleo de automoción en cuanto a densidad y número de cetano, mientras que presenta un punto de inflamación superior. Por ello, el biodiésel puede mezclarse con el gasóleo para su uso en motores e incluso sustituirlo totalmente si éstos últimos se modifican convenientemente.

Por su parte, la vía principal de obtención de bioetanol es la fermentación de los azucares que contienen diferentes productos vegetales, tales como cereales, remolacha o caña de azúcar. El bioetanol también se puede producir a partir de residuos agrícolas, forestales, urbanos o industriales. La utilización de estos residuos presenta la ventaja de su bajo coste, aunque en el caso de los RSU la posible presencia de componentes no deseados puede hacer necesario un proceso de separación previo a la fermentación, con el consiguiente incremento en el coste de producción del bioetanol. En la mayor parte de los países, el bioetanol se utiliza en la actualidad mezclado con gasolina en concentraciones del 5 o el 10% (E5 y E10, respectivamente). En estas proporciones no es necesario llevar a cabo ningún cambio en los motores de los vehículos actuales. Por el contrario, para que los vehículos puedan funcionar con elevadas concentraciones de etanol es necesario introducir en los mismos una serie de modificaciones, como consecuencia del mayor poder corrosivo del etanol y de su mayor miscibilidad con el agua.

Otra alternativa para el aprovechamiento del bioetanol consiste en su transformación en etil-tercbutil éter (ETBE), producto que se emplea como aditivo de mejora del índice de octano de las gasolinas. El ETBE presenta importantes ventajas respecto de la utilización directa de bioetanol, como son su menor afinidad con el agua y una presión de vapor más adecuada que el alcohol. Por estas razones su uso se está imponiendo en Europa, prevaleciendo sobre la mezcla directa de bioetanol y gasolina. En España todo el etanol dedicado a la automoción es convertido en ETBE.

Aunque el bioetanol y el biodiésel son los biocarburantes más conocidos, existe hoy en día una amplia variedad de productos que se obtienen por transformaciones de la biomasa y que se pueden utilizar como fuente de energía. Es el caso de los bioaceites, el "green diesel", el biogás, el bio-metanol, el bio-dimetiléter, o incluso el bio-hidrógeno. La optimización de los correspondientes procesos de producción plantea importantes retos con objeto de conseguir que todos ellos entren en la fase de explotación comercial.

Se espera que los avances derivados de la investigación y el desarrollo tecnológico en el sector de los biocarburantes contribuyan en los próximos años a un descenso de los costes de producción de al menos el 30%. Gran parte de este progreso estará ligado al desarrollo de los denominados biocarburantes de segunda generación, obtenidos a partir de materiales lignocelulósicos, de coste mucho menor y que apenas tienen utilización alimentaria. Asimismo, estos avances tendrán que tener en cuenta los cambios que ya se están produciendo en la demanda de los diferentes tipos de carburantes. Se estima que la tendencia actual en la Unión Europea de incremento en la demanda de gasóleo y reducción en la de gasolina se mantendrá en las próximas décadas, lo que sitúa al biodiésel como principal alternativa de futuro. No obstante, existen ya proyectos en marcha que pretenden el desarrollo de nuevas vías de utilización energética del bioetanol, diferentes de su mezcla con gasolina o transformación en ETBE.

La introducción y consolidación del concepto de bio-refinería puede suponer un salto cualitativo muy importante en la implantación de los biocombustibles. La bio-refinería se plantea como una instalación versátil en la que se procesarán tanto combustibles fósiles como biomasa con el objeto de producir de forma integrada energía, carburantes convencionales, biocarburantes y productos químicos. De esta forma, se conseguirá un mejor aprovechamiento de los recursos naturales, una disminución significativa de los costes de operación y un incremento muy importante en la eficiencia energética global de producción de biocombustibles.

Recientemente, se ha creado a nivel europeo la Plataforma Tecnológica de Biocombustibles con el objetivo de que juegue un papel esencial en promover y orientar las actividades de I+D+i que se llevan a cabo en este sector, así como de facilitar la transferencia de resultados al sector productivo.

Finalmente, ha de destacarse la estimación realizada recientemente de cara al año 2030, que considera factible alcanzar en esa fecha al menos un 25% de contribución de los biocarburantes en el sector del transporte de la Unión Europea. Se cumpliría de esta forma la predicción realizada en 1912 por Rudolf Diesel:

"El uso de aceites vegetales en motores de combustión puede parecer hoy en día despreciable. Sin embargo, estos aceites se pueden convertir con el paso del tiempo en carburantes tan importantes como lo son en la actualidad los derivados del petróleo".



1.- ¿Qué son los biocombustibles?

2.- Explica los tipos de biocarburantes que menciona el texto.

3.- Señala los aspectos positivos y negativos que tiene el uso de los biocarburantes?

4.- ¿Es completamente positivo el uso de bioetanol como fuente de energía?

5.- ¿Qué otros contaminantes se reducirían con el uso de biocarburantes?

6.- Indica los objetivos que se plantea ESpaña de cara al 2010.

7.- ¿Con qué otro sector económico interacciona la utilización de biocarburantes? ¿Cómo?

El coche eléctrico sale a la calle

Coches eléctricos que se mueven silenciosamente bajo las palmeras, liberarse de la adicción al petróleo y ser pioneros en Estados Unidos. Eso es lo que pretende el Estado de Hawai, que la semana pasada anunció, junto con la empresa eléctrica local, un plan para un sistema de transporte alternativo, basado en vehículos eléctricos, una red inteligente para recargar las baterías y puntos para cambiarlas por otras ya preparadas si no se puede esperar.

FUENTE | El País 11/12/2008

En septiembre pasado, en Alemania, la compañía eléctrica RWE y la automovilística Daimler anunciaron un proyecto más modesto, para establecer puntos de recarga en Berlín para coches eléctricos. Y en los países nórdicos la empresa Th!nk sacará en los próximos meses un vehículo eléctrico con 180 kilómetros de autonomía y un sistema de cuotas mensuales que cubrirá el coste del combustible (la electricidad y la batería).

Automóviles y autobuses eléctricos, que se recarguen en enchufes en los domicilios, las calles, las oficinas, las fábricas o las cocheras, que no contaminen las ciudades y tengan hasta 200 kilómetros de autonomía, que contribuyan a una mayor eficiencia de la red eléctrica y hagan incluso bajar el precio de la electricidad. ¿Un sueño antiguo que nunca se hace realidad o una realidad emergente, que se enfrenta a grandes desafíos pero que puede tener en la actual crisis de los fabricantes de automóvil por fin su oportunidad? Más bien lo segundo, si se atiende a la marea de iniciativas (como las citadas) para electrificar el transporte por carretera que están surgiendo desde los sectores público y privado en muchos de los países más desarrollados -Japón es pionero-, apoyadas por científicos e ingenieros, que creen que la tecnología está casi a punto.

El "casi" es importante, porque el principal escollo de todo lo eléctrico, incluidos los coches, está en las baterías, y las nuevas que permitirían el auge del automóvil eléctrico, están apenas saliendo de los laboratorios. Así lo recordaba recientemente la revista Nature, que se mostraba partidaria de los vehículos eléctricos como una parte viable de la solución al desafío del transporte, y comentaba que seguramente las barreras a nuevas formas están más en los métodos de hacerlas llegar al mercado que en la tecnología.

En un editorial, la revista científica se declaraba contraria a que se ayude a los grandes fabricantes de automóviles estadounidenses, que hace pocos días pidieron 37.000 millones de dólares más (28.600 millones de euros) al Gobierno de su país, si no se comprometen a cambiar de rumbo de verdad hacia una mayor eficiencia.

Lo mismo decía hace unos días en la cadena de televisión CNN el premio Nobel de Física Burton Richter, directivo de la organización Científicos e Ingenieros para América. Y Burt Rutan, el ingeniero que ha diseñado el primer avión aeroespacial, también ha mostrado su entusiasmo por el coche eléctrico.

A pesar del goteo de anuncios por los fabricantes de automóviles de nuevos modelos de híbridos (con motores eléctricos y de gasolina) que serían por primera vez enchufables -el último ha sido precisamente el Chevrolet Volt de General Motors, uno de los tres grandes de Detroit-, parece claro que poco se puede hacer para cambiar de paradigma hacia el coche totalmente eléctrico sin una acción concertada bajo el paraguas público. Es el modelo de negocio, centrado en una infraestructura de recarga de baterías conectada por Internet, que ha puesto en marcha Shai Agassi, un antiguo ejecutivo de Silicon Valley fundador de la empresa Better Place, encargada de hacer realidad el plan del Estado de Hawai. Antes, Better Place, que busca -y encuentra- inversores para sus proyectos, ya había llegado a acuerdos para iniciar la electrificación del transporte en Dinamarca, en Australia y en Israel, donde pretende llegar a los 500.000 puntos de carga. La primera fase serán las flotas de vehículos, como las de correos y otros servicios.

La escala es un factor clave para que el sistema cuaje. Con pocos coches a cargar no puede funcionar. "Primero hay que poner los coches en el mercado -no tienen que ser perfectos-, y luego preocuparse de cómo cargarlos de una red perfecta", ha comentado Mark Duvall, experto del Instituto Electric Power Research, en California.

Autor: Malen Ruiz de Elvira

miércoles, 10 de diciembre de 2008

Murcia fue el refugio de los 'penúltimos' neandertales

Hace unos 42.000 años, una nueva especie humana llegó a Europa. Los hombres de Cromañón, como se les conoce hoy, sustituyeron a los de Neandertal, que habían ocupado el continente durante casi 150.000 años. Peor adaptados que los nuevos pobladores, encontraron el que probablemente fue su último refugio en la Península Ibérica.

FUENTE | Público 10/12/2008

En Gibraltar se han encontrado restos que delatan la presencia de estos homínidos hace menos de 30.000 años. Ahora, la datación de otro yacimiento ibérico, el de la Sima de las Palomas del Cabezo Gordo (Murcia) puede proporcionar más información sobre los últimos días de estos parientes cercanos. Varios neandertales murieron allí hace 40.000 años.

"El objetivo fundamental de este estudio ha sido ofrecer pruebas más seguras por tres métodos distintos (carbono 14, estimulación óptica del sedimento y uranio-torio) de la presencia de neandertales en fechas relativamente recientes", explica el profesor de la Universidad de Murcia Michael Walker, coautor del estudio publicado esta semana en PNAS. La certeza de las fechas obtenidas sería, según Walker, muy superior a la que se tiene, por ejemplo, respecto a los yacimientos de Gibraltar donde, se cree, vivieron neandertales hasta hace 28.000 años. "No digo que sea el conjunto de neandertales más reciente, creo verosímil que otros sean posteriores, pero es el conjunto mejor fechado en Europa", asevera Walker.

El artículo de PNAS se refiere también a otra de las grandes cuestiones abiertas sobre los neandertales: la posibilidad de que llegasen a mezclarse con los cromañones. Algunos de los restos hallados en el yacimiento murciano poseen rasgos anatómicos con aspectos propios de los humanos modernos. Walker plantea una de las posibles explicaciones para este refinamiento: "Los neandertales estaban mejorando sus utensilios y esto podría haber relajado ligeramente la presión sobre sus esqueletos, dándoles un aspecto más grácil". Otra de las opciones sugeridas por el estudio es que existiese un contacto con las poblaciones de cromañones del norte.

El experto en neandertales Antonio Rosas, del Museo de Ciencias Naturales (CSIC), subraya el interés del yacimiento murciano, pero no cree que llegue a demostrar esta última hipótesis. "La variabilidad de los neandertales que han encontrado puede explicarse sin hibridación. Genéticamente, no hay datos que sirvan para afirmar que existió esta hibridación, y la separación genética entre los humanos modernos y los neandertales es muy antigua", apunta Rosas.

La incógnita comenzará a resolverse el año que viene. Casi con total seguridad, en 2009 se publicará el primer borrador del genoma del neandertal. Rosas, que colabora en el proyecto, cree que aunque el resultado de la secuenciación no dará una respuesta definitiva, "será contundente". Por ahora, el yacimiento asturiano de El Sidrón ha sido uno de los pocos en el mundo donde se ha encontrado ADN nuclear. Aunque todavía sin suerte, los investigadores de las Palomas también colaboran con los directores del proyecto para intentar proporcionarles material con el que trabajar. La búsqueda para desentrañar la causa del fatal destino del Homo neanderthalensis continúa.

Autor: Daniel Mediavilla

Noticias relacionadas

IPCC

Aqí os dejo un enlace para acceder a la página del Panel Intergubernamental sobre cambio Climático.

lunes, 1 de diciembre de 2008

Efecto Coriolis

Un ejemplo canónico de efecto Coriolis es el experimento imaginario en el que disparamos un obús desde el Ecuador en dirección norte. El cañón está girando con la tierra hacia el este y, por tanto, imprime al obús esa velocidad (además de la velocidad hacia adelante de la carga de impulsión). Al viajar el obús hacia el norte, sobrevuela puntos de la tierra cuya velocidad líneal hacia el este va disminuyendo con la latitud creciente. La inercia del obús hacia el este hace que su velocidad angular aumente y que, por tanto, adelante a los puntos que sobrevuela. Si el vuelo es suficientemente largo (ver cálculos al final del artículo), el obús caerá en un meridiano situado al este de aquél desde el cual se disparó, a pesar de que la dirección del disparo fue exactamente hacia el norte. Análogamente, una masa de aire que se desplace hacia el este sobre el ecuador aumentará su velocidad de giro con respecto al suelo en caso de que su latitud disminuya. Finalmente, el efecto Coriolis, al actuar sobre masas de aire (o agua) en latitudes intermedias, induce un giro al desviar hacia el este o hacia el oeste las partes de esa masa que ganen o pierdan latitud.

Ahí va un gráfico que trata de explicar graficamente el efecto Coriolis:

Un mineral antiguo revela que los océanos se formaron en la Tierra antes de lo pensado

¿Cómo era la Tierra en su origen? Ésta es una de las cuestiones fundamentales que más intrigan al hombre, y aún más al geólogo. Porque su respuesta está estrechamente ligada a la aparición de la vida, un experimento único que la naturaleza llevó a cabo en nuestro planeta.

FUENTE | El Mundo Digital 28/11/2008

La teoría ortodoxa y convencional arguye que la Tierra, en su nacimiento hace 4.600 millones de años, era una bola de magma cuya corteza -la piel de una manzana- se fue enfriando poco a poco hasta hacer posible la vida. Durante el largo eón Hadeico, que duró desde los inicios hasta hace 3.800 millones de años, se cree que el planeta continuaba siendo "un infierno" de temperaturas extremas y grandes mares de lava.

Pero Mark Harrison, de la Universidad de California, Los Ángeles (UCLA), y colegas han adelantado los acontecimientos que establece la teoría dominante. Según publica la revista científica 'Nature', el zircón, el mineral más antiguo de la Tierra y que pertenece al eón Hadeico, narra una historia cronológicamente distinta a la hasta ahora aceptada.

Para intentar conocer en qué condiciones se formaron los zircones hace 4.000 millones de años y así deducir cómo era entonces la Tierra, los investigadores utilizaron el "termómetro de titanio": a mayor temperatura, mayor cantidad de titanio contenido en los zircones. Según estas pruebas, los arcaicos minerales se formaron a unos 700 grados centígrados, una temperatura mucho más baja de lo que habitualmente requieren los minerales para formarse. ¿Cómo fue posible?

Los científicos sólo pudieron hallar una explicación: los zircones fueron enfriados por agua oceánica. Lo que sugiere que en aquellos tiempos remotos la Tierra ya estaba cubierta de mares.

Harrison y su equipo lo comprobaron 'in situ' con zircones de hasta 4.200 millones de edad hallados en Jack Hills, Australia. La prueba del termómetro arrojó los mismos resultados: zircones formados a 700ºC. Pero además, éstos contenían otro mineral, la muscovita, en gran abundancia. La muscovita contiene agua, y de hecho se forma actualmente cuando dos placas tectónicas colisionan y funden la roca. Era una nueva pista con grandes implicaciones.

El siguiente paso fue analizar la cantidad de aluminio presente en los minerales. Esta prueba permite saber a qué presión se formaron los zircones. La respuesta fue, una vez más, esclarecedora: los zircones se formaron a una presión de al menos 7.000 atmósferas; a unos 25 kilómetros de profundidad.

Pero a esa profundidad, el calor debería haber sido tres veces mayor a los 700ºC encontrados. Algo estaba enfriando el calor. "Sólo hay un lugar en el planeta donde puedes hacer magma y el calor es tres veces inferior a la media: las zonas de subducción", dice Harrison.

El estudio concluye que hace 4.000 millones de años, sólo un poco después de su nacimiento, la Tierra ya contaba con una hidrosfera (océanos) y una interacción de placas tectónicas, un fenómeno relacionado hasta ahora con periodos posteriores.

martes, 25 de noviembre de 2008

La pelvis que cambia la historia humana

Una pelvis de mujer puede dar la vuelta a lo que se sabía, o se creía saber, de nuestros antepasados. El fósil fue localizado en el año 2000 en la región de Gona, en la región Afar de Etiopía. Perteneció a una hembra de 'Homo erectus', la primera especie que muchos consideran humana y vivió hace entre 1,8 millones y 160.000 años.

FUENTE | El Mundo Digital 14/11/2008

Los investigadores revelan en la revista 'Science', que el tamaño del cerebro del feto era más grande que el de los homínidos anteriores, como el 'Homo habilis', y que los 'H. erectus' no fueron tan esbeltos como se les imaginaba, una tesis que ya en 1994 defendieron los paleontólogos españoles de Atapuerca (Burgos) y ahora parece confirmarse.

Es decir, que no hubo una adaptación a un clima tropical ni a la necesidad de una mayor resistencia para correr, que facilitan unas piernas más largas. Más bien, parece que eran rechonchos, anchos y bajos, muy parecidos a los 'H. heildebergensis' de hace 800.000 años encontrados en los yacimientos de Atapuerca, y antepasados de los neandertales.

Han tenido que pasar varios años para que finalmente viera la luz el análisis de la pelvis y una vértebra lumbar encontrada en Gona, en un área desértica que en el Pleistoceno era un pantano próximo a una pradera. Todo un acontecimiento, habida cuenta de los escasos retos de este ancestro humano que han salido a la luz hasta ahora.

Los paleontólogos norteamericanos, dirigidos por Scott W. Simpson, de la Universidad de Cleveland (EE.UU.), han reconstruido en alta resolución las partes que faltaban en la pelvis para concluir que su canal para el parto era más grande de lo que previamente se pensaba hasta ahora.

El investigador español Manuel Domínguez-Rodrigo, de la Universidad Complutense, que ha trabajado con el equipo que encontró la pelvis en Etiopía, afirma que este fósil «demuestra que las hembras de esta especie no podían acomodar fetos de un 40% o un 50% del tamaño de los cerebros adultos, por lo que el inicio del proceso de un desarrollo lento y prolongado, como es el del humano actual, se retrotrae a hace 1,5 millones de años».

Eso no quiere decir que las crías fueran indefensas durante tanto tiempo como los niños de nuestra especie, puesto que su cerebro ya era bastante grande pero si indica que su desarrollo era más lento que el de los chimpancés y otros primates". Según el estudio, era un 30% mayor de lo que se pensaba antes de este hallazgo.

Otro rasgo importante de la pelvis es su acetábulo, el hueco en la pelvis en el que se coloca la cabeza del fémur. El fósil indica que era más pequeño que lo que se creía y eso quiere decir que la homínida en cuestión media únicamente entre 1,2 y 1,46 metros, muy lejos del 1,8 que se atribuía a sus congéneres varones.

Hay que recordar que las estimaciones anteriores se basaban principalmente en los fósiles del 'H. erectus' del famoso Niño de Turkana, unos restos de un varón de unos 11 años encontrados en Kenia en 1985. Fue el estudio de esos huesos lo que determinó el aspecto de la especie. Todas las teorías se construyeron sobre la apariencia de ese cuerpo larguirucho y ágil.

LA TESIS DE ATAPUERCA

Algunas voces, sin embargo, ya habían discrepado de esa interpretación, entre ellas las del equipo de Atapuerca, que encontró en 1994 una pelvis de 'H. heilderbergensis', bautizada como 'Elvis', que no cuadraba con la reconstrucción del Niño de Turkana porque era más ancha.

Juan Luis Arsuaga, codirector del proyecto Atapuerca, que fue quien encontró esta pelvis, estaba ayer satisfecho de que este trabajo confirme su tesis: "Desde hace 14 años ya venimos defendiendo en todos los foros internacionales que todo el modelo de evolución humana estaba mal hecho, que la anchura del cuerpo no varió hasta la aparición del 'Homo sapiens' y que la reconstrucción del 'Niño de Turkana' estaba equivocada y la estrechez de su pelvis no era tal porque no era una adaptación al clima. Por ello los neandertales también eran corpulentos", argumenta el paleontólogo.

En la misma línea se manifiesta otro de los codirectores, José María Bermúdez de Castro: "Con el Niño de Turkana se equivocaron los cálculos, se pensó su desarrollo como si éste fuera un humano moderno que sigue creciendo, y bastante, hasta los 18 años, pero el 'erectus' a los 12 años ya casi había cesado su desarrollo y nunca llegaría a medir 1,8 metros".

Bermúdez de Castro también cree que estos antepasados humanos, que habitaron el planeta hace 1,8 millones de años, nacían "más espabilados" que los bebés de hoy".

Domínguez Rodrigo pone otro asunto sobre la mesa: el dimorfismo sexual (diferencia del tamaño de hembras y machos) que podría reflejar esta nueva pelvis. El paleontólogo considera que, si realmente el Niño de Turkana llegó a ser alto, ello significaría que habría habido dos tipos de hembras. Unas habrían sido esbeltas y adaptadas a medios tropicales y otras de estatura más baja y más adaptadas a climas templados o fríos.

"Una segunda opción es que lo que ahora llamamos 'Homo erectus' realmente sean dos especies diferentes. La anatomía del Niño de Turkana muestra una adaptación tropical, preparada para una carrera de fondo, que no se documenta en la hembra de la nueva pelvis", afirma este experto.

Es decir, en su opinión, el nuevo estudio no rebate la idea de que el 'erectus' no fuera alto y ágil para correr, sino que es otra especie aún por determinar. Desde su punto de vista, "ningún paleontólogo puede refutar que 'Homo erectus' fuera un homínido adaptado al medio tropical, con dimorfismo sexual [diferencias entre hembras y machos] reducido y adaptado a la carrera de fondo para su supervivencia".

Todo ello viene a decir que aún nos queda mucho por saber de nuestro pasado y que las interpretaciones pueden ser muy diferentes porque aún faltan muchas piezas del 'puzzle' de la evolución humana.

Autor: Rosa M. Tristán

Noticias del blog relacionadas:

'Homo sapiens' pudo salir de África a través del Sahara

Datos del pasado para predecir el Cambio Climático

Este articulo me parece interesante porque refleja lo dificil que es demostrar las cosas en ciencia y como los conocimientos deben ser sometidos a continuas revisiones ya que nada en ciencia es dinámico y no se deben hacer valoraciones a la ligera, como sucede en nuestros tiempos, donde algunos se empeñan en buscar culpables para el cambio climático o decir que éste no existe, y se olvidan de poner en ,archa mecanismos para evitarlo o corregirlo.

Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico.

FUENTE | Público. Portugal 14/11/2008

Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.

El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima "tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural". La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.

Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, "son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero", explica el investigador.

Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar "en siete días una simulación que un ordenador normal tardaría 48 años en terminar".

MAYOR PRECISIÓN

El panorama es bueno, además, porque existen vías de mejora para estas modelizaciones climáticas. De un lado, explica Baldasano, "es necesaria una mayor regionalización de los datos. Al principio se estudiaba el clima con una resolución de malla de 500 kilómetros por cuadrícula y ahora estamos en una cantidad de 110 kilómetros por unidad de estudio. Esto nos permite ser más precisos en la proyección final". Y también, completa Hazeleger, es esencial compartir recursos y contenidos; en el programa EC-Earth, que él dirige, veinte institutos de investigación han estudiado "dos millones de líneas de software, muy lejos de las 10.000 que podría manejar una única persona".

"Los modelos tienen la capacidad de reproducir lo que ha pasado, por eso son fiables para anticipar lo que vendrá más adelante", explica Baldasano. ¿Y qué será? "Un incremento de la temperatura media de 2,4 grados si no se reducen al 50% las emisiones de gases de efecto invernadero y aerosoles actuales", confirma.

Autor: Víctor Charneco

La roca que convierte el CO2 en cuarzo

La peridotita, una roca abundante en el desierto de Omán, reacciona ávidamente con el CO2 para formar caliza o mármol. La posibilidad de transportarla hasta las factorías energéticas para absorber sus emisiones se ha descartado por su alto coste, pero ahora se abre camino la idea contraria: llevar el CO2 hasta la roca y bombearlo a su interior.

FUENTE | El País 24/11/2008

La peridotita de Omán, según los últimos cálculos, puede absorber 4.000 de los 30.000 millones anuales de toneladas de dióxido de carbono que producimos, más o menos la octava parte de lo que emiten en el mismo periodo las industrias y medios de transporte de todo el mundo.

La peridotita es la roca mayoritaria del manto, la capa que subyace a la corteza terrestre a profundidades mayores de 20 kilómetros. Pero los movimientos tectónicos han hecho aflorar tramos de manto -con unos cinco kilómetros de largo- en algunos lugares de la superficie terrestre, como el desierto de Omán, Papúa Nueva Guinea, Nueva Caledonia y las costas de Grecia y la antigua Yugoslavia.

Los cálculos de Peter Kelemen y Juerg Matter, de la Universidad de Columbia en Nueva York, no son producto de una revolucionaria tecnología de teledetección, sino de un lustro de anticuada geología de campo en el desierto de Omán. Kelemen y Matter han descubierto que la reacción de la peridotita con el CO2 ocurre continuamente de forma natural en el subsuelo. Y que unos simples métodos de taladro en la roca e inyección del gas pueden acelerarla un millón de veces y convertirla en un método barato y permanente para almacenar CO2 atmosférico.

Una de las ventajas del proceso de inyección, afirman los científicos, es que estaría en gran parte autoalimentado. Habría que gastar energía en meter el gas a presión en el agua, y en calentar ese fluido para inyectarlo por primera vez en la roca. Pero una vez arrancado, el ciclo se mantiene por dos fuentes internas de calor: el geotérmico (del subsuelo) y el derivado de la reacción de la peridotita con el CO2.

La técnica evita el traslado de la piedra hasta el gas, pero no el del gas hasta la piedra. Pero el gas no viajará mucho de momento: la primera industria emisora de CO2 que se ha mostrado interesada en un proyecto piloto con la peridotita de Omán es Petroleum Development Oman, la compañía petrolera estatal de ese país.

"Nuestra previsión es que las pruebas de campo usen CO2 de nuevas plantas energéticas en Omán", dice Kelemen. "Esto puede extenderse después; los omaníes planean incrementar mucho su producción de electricidad, y otros países árabes pueden ir detrás, porque prefieren exportar electricidad que gas natural".

¿Es entonces la peridotita una solución local? "Para Europa", responde Kelemen, "hay la opción de mandar el dióxido de carbono por tuberías hasta los grandes depósitos de peridotita de los Balcanes. Los otros grandes yacimientos existentes en superficie, que están en Papúa Nueva Guinea y Nueva Caledonia, serían inaccesibles para los países occidentales, pero hay depósitos menores en el oeste de Estados Unidos, el norte de África, Rusia y también en su país, España".

El otro autor del trabajo, Juerg Matter, añade: "La manera más inmediata de aplicar la técnica es capturar el dióxido de carbono en las factorías energéticas por métodos convencionales, y luego transportarlo a peridotitas cercanas por tuberías de corta distancia". Nuevamente, ¿el método se revelaría útil sólo para aplicaciones locales?

"Hay otras posibilidades", responde Matter. "El depósito de peridotita que hemos estudiado se extiende por debajo del fondo oceánico en el golfo de Omán. Taladrando agujeros de suficiente profundidad, podrían inyectarse cantidades masivas de agua marina en la roca".

Puesto que el agua del mar intercambia continuamente dióxido de carbono con la atmósfera (la concentración de CO2 está en equilibrio entre el aire y el agua, en la jerga), el resultado final de esta operación sería la retirada de dióxido de carbono de la atmósfera. Matter prosigue: "El fluido inyectado se calentaría gracias al gradiente geotérmico (el hecho de que las profundidades del subsuelo estén más calientes que la superficie, o que el mar) y el dióxido de carbono disuelto en el agua se iría convirtiendo en minerales de carbonato tras su reacción con la peridotita.

El ciclo se autoalimentaría por convección térmica (el agua caliente es menos densa y busca subir a la superficie), lo que haría innecesario gastar energía en bombear el agua entre el agujero de entrada y el de salida".

"Una de las principales fuentes de CO2 en Omán son las plantas de producción de electricidad alimentadas por gas natural", sigue explicando el científico de Nueva York. "El dióxido de carbono puede capturarse allí con tecnologías existentes (membranas, amine scrubbing)".

"Es una suerte que tengamos este tipo de rocas en la región del Golfo", dice Matter. "Gran parte del petróleo mundial se produce allí, y Omán está construyendo nuevas plantas eléctricas alimentadas por gas natural, que se convertirán en grandes fuentes de dióxido de carbono".

La peridotita no es la única roca que absorbe dióxido de carbono. Matter coordina otro proyecto en la planta geotérmica de Hellisheidi, en Islandia, para probar la utilidad del basalto local con ese mismo fin. Los ensayos empezarán la próxima primavera en colaboración con Reykjavik Energy y las universidades de Islandia y Toulouse.

Autor: Javier Sampedro

En el blog hay otra noticia relacionada con esta: Investigadoes estadounidenses proponen un método para almacenar CO2 de forma natural.

Los glaciares ocultos de Marte

Un grupo de científicos estadounidenses ha descubierto glaciares lejos de los polos de Marte y a pocos metros de la cubierta rocosa del planeta, según un estudio publicado por la revista "Science". "Se trata de un descubrimiento muy importante porque no sólo constata la existencia de agua en Marte sino que cubre la necesidad de ese elemento que tendrán las futuras misiones interplanetarias", señaló a Efe Ali Safaeinili, científico del Laboratorio de Propulsión a Chorro (JPL) de la NASA.

FUENTE | Agencia EFE 21/11/2008

También es importante porque el agua de esos glaciares se encuentra en latitudes bajas del planeta, lejos de los polos, y en algunos casos a sólo unos tres metros de profundidad", indicó. El descubrimiento fue hecho con el radar de la sonda Mars Reconnaissance Orbiter (MRO) de la agencia espacial estadounidense hace un año.

"Tardamos en hacer el anuncio del descubrimiento porque queríamos estar seguros de él e hicimos todas las verificaciones posibles", agregó. Debido a que el agua es uno de los ingredientes esenciales de la vida tal como la conocemos en la Tierra, el hallazgo de grandes reservas del líquido congelado es un signo alentador para los científicos que buscan vida más allá de nuestro planeta, indicó el estudio publicado por "Science".

Los glaciares cubren una superficie de decenas de miles de kilómetros cuadrados y se extienden desde las montañas marcianas con un espesor en algunos casos de unos 800 metros. La capa de material rocoso que cubre el hielo, en otros casos de un grosor de unos pocos metros, posiblemente preservó los glaciares como reliquias de una pasada glaciación, indicó "Science". Los primeros indicios de agua en Marte fueron detectados hace cuatro años por los vehículos "Spirit" y "Opportunity" y confirmados después por el "Phoenix", un tercer vehículo de la NASA.

"Sin duda estos glaciares representan la mayor reserva de agua en Marte, lejos de las capas polares. Sólo uno de los que examinamos es tres veces más extenso que la ciudad de Los Ángeles (California)...y hay muchos más", indicó John Holt, de la Escuela de Geociencias de la Universidad de Texas y autor del informe.

Además "son una ventana a un clima que fue muy diferente a lo que es hoy Marte", dijo Holt en una entrevista telefónica. El descubrimiento hecho por el radar de MRO despejó un misterio que había surgido en la década de 1970 cuando las sondas Viking de la NASA detectaron faldas ondulantes que provenían de las montañas. Una teoría indicaba que se trataba de flujos de rocas lubricadas por el hielo. Sin embargo, Holt indicó que se parecían mucho a los enormes glaciares detectados también bajo la roca en la Antártida y para cuyo estudio se había utilizado el radar.

"Y en la Tierra, esas masas de hielo oculto en la Antártida preservan el registro de antiguos organismos y la historia del pasado climático", dijo James Head, científico de la Universidad de Brown.

La solución del rompecabezas fue proporcionada por el radar de la sonda de la NASA, el cual indicó que esas configuraciones topográficas contienen enormes cantidades de hielo. Según el informe de "Science", las pruebas de la presencia de agua congelada son múltiples.

Los ecos del radar recibidos por el orbitador pasan a través del material y rebotan desde una superficie interior más profunda sin una pérdida importante de su fuerza, como ocurre cuando hay agua con una capa relativamente delgada que la cubre.

Por otra parte, la velocidad de las ondas de radio que atraviesan la capa se ajusta a una composición de agua congelada, indicó el informe. Los glaciares en los que se centró el estudio están ubicados en la región de la cuenca de Hellas, en el hemisferio sur marciano, pero el radar también detectó formaciones similares en el hemisferio norte.

"Existe un volumen todavía mayor de agua congelada en los depósitos del norte", aseguró Jeffrey Plaut, científico de JPL. Holt explicó que la presencia de glaciares en latitudes bajas de ambos hemisferios se explicaría por un cambio que sufrió en algún momento el eje de rotación de Marte, el cual empujó el agua de los polos a esos lugares.

Recetas para abaratar la batalla contra el CO2

España no va a poder cumplir con sus compromisos de reducciones de CO2 como miembro de la Unión Europea antes de 2020 (20% menos de gases de efecto invernadero), ni los objetivos del Protocolo de Kioto en 2012 (-5%), según el Instituto de Sostenibilidad de los Recursos (ISR).

FUENTE | Cinco Días 21/11/2008

Aunque para este organismo esa certeza no invalida la Estrategia de Cambio Climático del Gobierno. Proyecto@O2, una iniciativa de este think tank privado que funciona como un lobby de interés medioambiental, propone 23 medidas agrupadas en diez soluciones para reducir la huella de carbono de la economía española.

El ISR critica que el Gobierno se haya centrado en llegar a Kioto priorizando el comercio de emisiones y el pago de multas, en lugar de impulsar proyectos para reducir las emisiones. En contrapartida, @O2 extiende la actuación a la reducción de emisiones, proyectos forestales, medidas fiscales, tecnologías verdes, movilidad sostenible, gestión de residuos, ahorro, construcción, renovables e I+D+i.

Su propuesta mejoraría medidas ya recogidas en la estrategia española. Pero va más allá. Plantea ampliar el comercio de emisiones a sectores muy contaminantes pero no sometidos a la normativa europea; propone la promoción de la conducción eficiente entre los automovilistas; impulsar el uso del ferrocarril como transporte sostenible; gravar el uso de la energía con un impuesto dirigido a los grandes consumidores y crear un etiquetado (carbono labelling) que refleje la 'huella del carbono' de cada producto; es decir, la cantidad de emisiones que se han emitido para producirlo.

Y además, defiende que saldría más barato que los actuales planes del Gobierno. Según sus cálculos, combatir el cambio climático con su plan ahorraría 729 millones de euros respecto de los 1.634 millones presupuestados por el Gobierno hasta 2020. Ese año la Unión Europea tendría que haber conseguido rebajar un 20% la emisión CO2 y utilizar un 20% de renovables, de acuerdo a la estrategia europea. Además, el plan del ISR restaría complejidad a la batalla contra los gases de efecto invernadero puesto que la estrategia oficial contempla más de 200 medidas frente a sus 23. Y, para rematarla, 'generarían riqueza y empleo', según aseguró Juan Ignacio Elorrieta, director del proyecto, en la presentación del informe Horizonte 2020, que plasma esas ideas.

Incluso en un escenario a más corto plazo, como el planificado por el Protocolo de Kioto (2008-2012), las ideas del ISR también abaratarían la factura. El coste estimado para alcanzar los objetivos de Kioto a partir de las propuestas del Ministerio de Medio Ambiente se cifra en 1.065 millones de euros anuales. La propuesta de Proyecto @O2 saldría por 142 millones de euros menos. Y, pese a que el ISR prefiere esperar a realizar los últimos ajustes para ofrecer estimaciones del empleo y la riqueza que generaría @O2, Elorrieta adelantó que sólo en el sector forestal 'produciría más de 6.500 nuevos puestos de trabajo'.

Si se implantasen las 23 medidas @O2, las emisiones crecerían un 51%, 'cinco puntos menos', según explicó Carlos Gómez, director del ISR. En contra, con las medidas previstas por el Gobierno, las emisiones de CO2 aumentarían un 56% sobre 1990 (año de referencia de Kioto). En el escenario proyectado por el plan europeo, a 2020, con las medidas del ministerio, España emitiría 504.603 kilotoneladas y, con las de @O2, 472.924.

@O2 excluye la energía nuclear y los biocombustibles ya que son áreas 'controvertidas' y 'por ahora, llenas de incertidumbres', según Elorrieta.

Autor: Marta Molina



1.- ¿Cual es la propuesta del Proyecto@02?

2.- ¿Qué medidas concretas propone realizar al Gobierno?

3.- ¿Qué es la huella del carbono?

4.- ¿Según el ISR sale "rentable" aplicar las 23 medidas que proponen?

jueves, 20 de noviembre de 2008

España es el país desarrollado que más ha aumentado sus emisiones de CO2

A sólo dos semanas de que comience la decimocuarta Cumbre del Clima, que este año se celebra en Poznan (Polonia), la Secretaría de Cambio Climático de la ONU hizo públicos los datos de emisiones de gases de efecto invernadero de los países industrializados.
FUENTE | ABC Periódico Electrónico S.A. 18/11/2008

Entre éstos, los más relevantes son los de los 41 países que forman parte del Anexo I de la Convención de Cambio Climático. Estos son los países que tienen compromiso de reducción en el Protocolo de Kioto, si bien Estados Unidos y Turquía no han ratificado dicho Tratado, por lo que el nivel de cumplimiento queda restringido a 39 países.

España vuelve a situarse como el país que más ha aumentado sus emisiones desde 1990, año considerado base en el protocolo de Kioto. Los datos se refieren a 2006. En ese periodo de tiempo nuestro país ha aumentado sus emisiones un 49,5%, cuando nuestro objetivo en el Protocolo es el de no aumentarlas más de un 15 por ciento hasta 2012.

ACCIÓN URGENTE

En conjunto, los países desarrollados han disminuido sus emisiones desde 1990 en un 5%. A pesar de que este dato es positivo, lo cierto es que esconde una tendencia preocupante. Si el análisis se hace desde el año 2000 las emisiones han aumentado un 2,3 por ciento. Según señaló el secretario ejecutivo de la Convención del Cambio Climático, Yvo de Boer, «estos datos son motivo de preocupación y una señal de que se necesita una acción política urgente». Y es que aunque las emisiones se hayan reducido en un 5% desde 1990, ese retroceso se debió en buena medida a la caída de la Unión Soviética y de sus economías y menos a los esfuerzos en materia ambiental. Además, son precisamente estos países emergentes los que han experimentado un mayor crecimiento de sus emisiones (un 7,4%) entre 2000 y 2006.

No obstante, Yvo de Boer se mostró optimista en cuanto a las posibilidades de alcanzar los objetivos del protocolo de Kioto hasta 2012, si bien afirmó que la crisis económica internacional tendrá efectos importantes en la lucha contra el cambio climático.

POSICIÓN DE EE.UU.

Por ello, De Boer consideró positivo que aún quede más de un año, hasta diciembre de 2009, para perfilar el acuerdo que debe sustituir a Kioto y que deberá contener los esfuerzos que el mundo debe hacer en materia de mitigación hasta 2020. En este sentido, el representante de Naciones Unidas admitió tener grandes expectativas en la posición que tomará el presidente electo de Estados Unidos, Barack Obama, respecto a la lucha contra el cambio climático.

Autor: A. Acosta

El vapor de agua multiplicará por dos el calentamiento del planeta

Una de las verdades más conocidas para los climatólogos es que el vapor de agua es el más potente gas de efecto invernadero. Es fácilmente comprobable por cualquiera que se duche y sienta que el cuarto de baño se ha recalentado, o cuando se viaja a un país tropical y la humedad aumenta la intensidad del calor.
FUENTE | El Mundo Digital 19/11/2008

Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.

Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).

Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.

Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.

Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.

El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.

Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.

Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.

"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.

LOS BOSQUES REGULAN EL CLIMA

Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).

Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.

Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.

Autor: Tana Oshima

jueves, 13 de noviembre de 2008

Desenmascarando al VIH

Para el VIH siempre es Halloween. O Carnaval. Se ha convertido en un auténtico maestro del disfraz, capaz de cambiar rápidamente de identidad para permanecer oculto en el organismo y propagarse a sus anchas. Sin embargo, esta habilidad a la que ahora saca tanto rendimiento podría servirle de poco en un futuro, ya que unos investigadores han manipulado unas células inmunes que, en cultivos celulares, han sido capaces de identificar todos los disfraces del virus.

FUENTE | El Mundo Digital 10/11/2008

Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).

Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.

Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.

Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.

"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.

UNA ESTRATEGIA DE DESGASTE

Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.

"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.

No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.

Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.

Autor: Isabel F. Lantigua

Crece el agujero de la capa de ozono pero no alcanza el récord de 2006

Un grupo de científicos del Centro Aeroespacial Alemán (DLR) ha descubierto que el agujero de la capa de ozono en la Antártida ha aumentado este año respecto al 2007 pero es menor que en 2006.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008

La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.

A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.

El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.

Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.

Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".

El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".

Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".

El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.

Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.



1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?

2.- ¿Qué es el agujero de la caopa de ozono?

3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.

4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?

5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?

A un paso del colapso de los océanos

Todos los datos apuntan "con aplastante evidencia" a que los océanos están sufriendo, especialmente durante este lustro, una degradación acelerada que los está llevando al "umbral del colapso", en palabras de Carlos M. Duarte, uno de los biólogos más reconocidos en ecosistemas marinos y codirector del Primer Congreso Mundial de Biodiversidad Marina, que reúne en Valencia a más de 500 investigadores.

FUENTE | El País 12/11/2008

Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".

¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".

Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.

Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.

La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.

Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.

También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.

En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.

Autor: Jaime Prats

1.- ¿Cuales son las principales muestras de deterioro oceánico?

2.- ¿Qué efectos del cambio climático son observables en los océanos?

3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?

4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?

martes, 11 de noviembre de 2008

Los niveles de metano en la atmósfera se dispararon a partir de 2007

La cantidad de metano en la atmósfera terrestre se disparó en el año 2007, poniendo fin a casi diez años en que los niveles atmosféricos de este potente gas de efecto invernadero se mantuvieron estables. Así lo revela un estudio publicado en la revista de la Unión Geofísica Americana, a partir de una red de medición de la NASA. Los niveles en la atmósfera de ese gas se han más que triplicado desde la era preindustrial, y actualmente suponen una quinta parte de la contribución humana al calentamiento global.

FUENTE | ABC Periódico Electrónico S.A. 03/11/2008

Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.

BALANCE DESCOMPENSADO

El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.

Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.

Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.

TEMPERATURAS ALTAS EN SIBERIA

De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.

Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.

MÁS ESTUDIOS

Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.

Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.

«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.

Autor: A. Acosta


1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?

2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?

3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?

4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?

5.- ¿Son estos estudios definitivos? Explica tu respuesta.

lunes, 10 de noviembre de 2008

Investigadores estadounidenses proponen un método para almacenar CO2 de forma natural

Si dejamos de lado la vacuna del sida o la cura del cáncer, quizá el descubrimiento científico más perseguido en la actualidad sea el invento que permita almacenar el exceso de CO2 que emitimos a la atmósfera. Esto supondría poner un punto final a los problemas derivados del calentamiento global.

FUENTE | El Mundo Digital 04/11/2008

En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.

Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.

En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.

Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).

Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.

Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.

"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.

Autor: Miguel G. Corral

miércoles, 29 de octubre de 2008

Los primeros aviones con biocombustible volarán dentro de cinco años

Los primeros aviones 'verdes' impulsados por biocombustibles empezarán a volar a lo largo del próximo lustro. La compañía Boeing ha anunciado que dentro de entre tres y cinco años obtendrán la licencia administrativa federal en Estados Unidos para poder llenar los depósitos de sus aeronaves con biocombustible.
FUENTE | El Mundo Digital 29/10/2008

Darrin Morgan, experto ambiental de Boeing ha declarado al diario británico The Guardian que «la certificación llegará mucho más pronto de lo que pensamos», y concretó que ese plazo se sitúa entre los tres y cinco años.

Aún así, aunque los motores de los aviones son capaces de quemar mezclas de hasta el 30% de biocombustible con el tradicional queroseno sin modificar los motores, el problema que no tiene perspectivas de solución tan cercanas es el aprovisionamiento regular del biocombustible.

El cambio de combustible para los 13.000 aviones comerciales que despegan cada día requeriría tierras de cultivo de soja del tamaño de toda Europa. Este sí que es el mayor freno que se presenta a la expansión del cambio de modelo.

Actualmente, la navegación comercial aérea requiere 386.000 millones de litros de queroseno anuales, que al quemarse emiten el 2% del total del CO2 mundial. También emiten otros gases de efecto invernadero, por lo que el transporte aéreo se ha convertido en un gigante de la contaminación mundial que, además, aumenta con el gran crecimiento que mantiene hace años.

De ahí que una docena de grandes aerolíneas hayan fundado la asociación de Usuarios de Combustible de Aviación, que ha invitado a organizaciones ecologistas mundiales como WWF y Natural Resources Defense Council a asesorarles. «Agradecemos la voluntad del sector de la aviación de reducir las emisiones de gases de efecto invernadero», declaró recientemente Jean-Philippe Denruyter, coordinador de Global Bioenergy de WWF.

No obstante, la ONG Amigos de la Tierra cree que el sector aéreo debe limitar los vuelos antes de introducir los biocombustibles. Añaden que todavía «hay verdaderas dudas acerca de si los biocombustibles son sostenibles y contribuyen a reducir las emisiones».

Los detractores de los biocombustibles sostienen que su producción masiva eleva los precios de los alimentos básicos, al utilizar el terreno agrícola que se dedicaba a producir cereales. También señalan que para despejar suelo para cultivar biocombustibles se arrasan zonas y bosques que cumplen mejor la función de absorción de CO2.

El Panel Intergubernamental para el cambio Climático (IPCC) ha estimado que la quema de bosques tropicales para producir masivamente aceites destinados a biocombustibles, son responsables de hasta el 20% de las emisiones totales de CO2.

Las investigaciones apuntan ahora a producir biocombustibles a partir de algas, cuyo contenido de materia grasa es muy superior al de los aceites vegetales. Las algas se pueden cultivar en espacios mucho más pequeños establecidos en tierra o en el mar, dependiendo de su origen.

De hecho, Virgin utilizará una mezcla del 20% de este tipo de biocombustible en un vuelo de demostración. El biocombustible será inyectado a uno de los motores a través de un sistema independiente para no mezclarse con el combustible normal que va a los otros tres motores. En enero, tendría lugar el vuelo de prueba sin pasajeros entre Heathrow, en Londres y el aeropuerto de Schipol, en Ámsterdam.

Autor: Gustavo Catalán Deus

Comenta este artículo respondiendo a las preguntas:

1.-¿Qué son los biocombustibles?

2.- En cuanto a ocupación del territorio se considera apropiado el cambio de combustibles fósiles por biocombustibles?

3.- ¿Cual es la forma en la que la navegación comercial aérea produce contaminación atmosférica?

4.- ¿Por qué hay detractores del uso de los biocombustibles?

5.- Echale un vistazo a la página del IPCC y aclara cuales son sus principales objetivos.

6.- ¿Qué alternativas en cuanto a materias primas se plantean para su utilización en los vuelos comerciales?

martes, 28 de octubre de 2008

Ciencia para evitar catástrofes

El Consejo Internacional para la Ciencia (ICSU) se ha embarcado en un programa internacional de investigación de diez años de duración que se propone subsanar las lagunas de conocimiento que existen entre la aplicación de la ciencia y la evitación de catástrofes, a fin de reducir los riesgos de que éstas se produzcan. Esta decisión fue anunciada durante la XXIX Asamblea General del ICSU, celebrada en Maputo (Mozambique). Se trata de la primera Asamblea General celebrada por este organismo en un país subsahariano.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 27/10/2008

El nuevo programa, denominado Integrated Research on Disaster Risk (IRDR, Investigación integrada sobre el riesgo de catástrofes), se basará en diversas actividades de investigación ya en marcha y abordará el impacto de las catástrofes a cualquier escala (desde local hasta mundial).

«El programa IRDR fortalecerá las capacidades en todo el mundo para afrontar riesgos de catástrofes y tomar medidas más adecuadas para mitigar sus repercusiones», declaró el climatólogo Gordon McBean, presidente del Grupo de Planificación contra Riesgos del ICSU. Se prevé que el IRDR reunirá conocimientos técnicos y experiencias procedentes de todas partes del mundo y que brindará una oportunidad sin precedentes para que las ciencias naturales y sociales trabajen codo con codo como nunca antes.

«Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil», añadió el Dr. McBean.

El programa IRDR abarcará todo peligro de tipo geofísico, oceanográfico y climático, así como todo fenómeno que pueda ser provocado por la meteorología. Se engloba incluso la meteorología espacial y el posible impacto de objetos espaciales sobre la Tierra. Cabe destacar que este programa tendrá en cuenta el impacto de las actividades humanas por lo que concierne a provocar peligros o agudizarlos.

Los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres, al estar peor equipados para afrontar catástrofes. Se calcula que cada año las catástrofes naturales matan a cientos de miles de personas y que dañan de alguna forma a millones de ellas. Los supervivientes a dichas catástrofes suelen quedar desplazados y perder su medio de sustento. La comunidad científica ha observado un incremento en la frecuencia de las catástrofes naturales en los últimos años. Desde el comienzo del siglo XXI se han registrado más de 470 catástrofes al año, mientras que en la década de los cincuenta la cifra anual era apenas de 30.

Filipe Domingos Freires Lucio, miembro del Grupo de Planificación del ICSU y antiguo director general del Instituto Nacional de Meteorología de Mozambique, se refirió extensamente al posible impacto de las catástrofes sobre las poblaciones humanas. «En África una catástrofe puede tener un impacto enorme sobre las actividades económicas y los medios de sustento de la población. Mozambique es especialmente vulnerable a las catástrofes, y sobre todo a las asociadas a fenómenos meteorológicos y climáticos. El IRDR generará conocimientos que contribuirán a que en cada país se tomen mejores medidas, lo que redundará en una mejor gestión del riesgo de catástrofes», aseguró.

El ICSU, con sede central en París (Francia), es una organización no gubernamental a la que están afiliados organismos científicos nacionales (114 miembros) y uniones científicas internacionales (29 miembros).

Me gustaría que respondieras a las siguientes preguntas sobre el artículo anterior:

1.- ¿Cual es el objetivo del programa IRDR, Investigación integrada sobre el riesgo de catástrofes ?

2.- ¿A qué factor de riesgo se refiere el dr.McBean cuando dice «Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil»?

3.- ¿Qué tipo de riesgos abarcará el programa IRDR?

4.- ¿Por qué los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres? ¿Qué factor de riesgo va a cambiar en estos paises?

¿Qué es el ICSU? Pinchando aquí tienes el enlace a su página, puedes echarle un vistazo.

lunes, 27 de octubre de 2008

Riesgos

Si pinchas en el título de esta entrada aparecerá una página en la que puedes encontrar información de los riesgos más frecuentes en España.
Si pinchas aquí te remitirá a otra página en la que se observan las diferencias entre los distintos movimientos de ladera.

viernes, 24 de octubre de 2008

Identifican una nueva vía de dispersión del virus del sida en el sistema inmune

Jaque al sida. Un estudio liderado por científicos del Instituto de Investigación del Sida (IrsiCaixa) del Hospital Germans Trias de Badalona ha identificado una nueva vía que utiliza el VIH para infectar las células del sistema inmune. La importancia del hallazgo reside en que el virus utiliza como «caballos de Troya» las células dendríticas, las mismas que, en condiciones normales, se encargan de erradicarlo.
FUENTE | ABC Periódico Electrónico S.A. 23/10/2008

El descubrimiento, publicado en la revista «Blood», abre la puerta al desarrollo de nuevas terapias para combatir la enfermedad. El estudio, elaborado con la colaboración de las Unidades de Inmunología y Anatomía Patológica del Hospital Germans Trias i Pujol de Badalona (Barcelona) y del Departamento de Microbiología de la Universidad de Boston (EE.UU.), y con la financiación del Ministerio de Ciencia, revela que cuando un patógeno entra en el organismo, las células dendríticas juegan un papel clave en la organización de la respuesta inmune. Su función consiste en patrullar el organismo y capturar a los agentes infecciosos que lo invaden.

Destrucción del agente invasor De este modo, en condiciones normales, una vez que las células dendríticas han capturado a patógenos tales como el VIH, las células maduran y son capaces de degradarlos y presentarlos a su principal diana: los linfocitos T CD4+, que se encargarán de organizar la destrucción del agente invasor.

El estudio demuestra, por primera vez, que el VIH se aprovecha de la misma vía de entrada de las células dendríticas que unas partículas denominadas exosomas, generadas por el sistema inmune para amplificar la información sobre el tipo de agente infeccioso que ataca al organismo. Según Javier Martínez-Picado, de la Institució de Recerca i Estudis Avançats (ICREA), «las similitudes detectadas entre el mecanismo de entrada del VIH y el mecanismo de entrada de los exosomas, debería guiarles en el diseño de terapias que permitan frenar uno de los mecanismos de diseminación de la infección».

Autor: E. Armora

miércoles, 22 de octubre de 2008

La vida surgió de una chispa hace medio siglo

En 1953, un joven licenciado en Química construyó un artefacto digno del doctor Frankenstein. Como el personaje de Shelley, Stanley Miller pretendía en su laboratorio de la Universidad de Chicago prender una chispa para crear vida. Pero su experimento no era un cuento gótico, sino la puesta en práctica de una teoría científica promovida por su mentor, el premio Nobel de Química Harold Urey.
FUENTE | Público 21/10/2008

Urey defendía que la vida terrestre se cocinó a la lumbre de las tormentas eléctricas a partir de ingredientes básicos disueltos en la sopa del océano. En términos más precisos: en una Tierra primitiva con una atmósfera reductora compuesta por hidrógeno, metano y amoniaco, la energía eléctrica pudo activar estos gases para formar los aminoácidos de las proteínas, un primer escalón en la química de la vida.

Para recrear el proceso en el laboratorio, Miller diseñó un circuito cerrado y sin aire que emulaba la Tierra prebiótica: un mechero calentaba agua en un matraz -el océano-, el vapor se mezclaba con los gases -la atmósfera primitiva- y la mezcla atravesaba un arco eléctrico -la tormenta- para regresar al matraz dejando en su camino, si el experimento funcionaba, un residuo de moléculas biológicas simples.

PRUEBA DE UN COSMOS POBLADO

Aunque Miller mantuvo el experimento una semana, a las 24 horas el agua se había teñido de rojo y amarillo, la firma de algo nuevo. En un breve artículo en Science, el científico demostraba que su Tierra había creado cinco aminoácidos, que se elevaron a 14 con nuevas técnicas en décadas posteriores.

El ensayo de Miller se convirtió en canon de la astrobiología; para el astrónomo y divulgador Carl Sagan, era "la mejor prueba de la abundancia de vida en el cosmos".

Para desgracia de Miller, la hipótesis de la atmósfera reductora cayó en desuso. Hoy se cree que en la Tierra prebiótica abundaban el CO2 y el nitrógeno, lo que invalida el experimento. En una entrevista a Astrobiology Magazine en 2003, Miller confesaba: "Aún no he encontrado la alternativa a la necesidad de una atmósfera reductora".

Miller falleció en 2007, pero sus sucesores le siguen los pasos. Sus antiguos becarios, James Cleaves y Jeffrey Bada, hallaron muestras del experimento original y las han analizado. Según la edición de Science, una segunda versión del aparato, que Miller no publicó, engendró 22 aminoácidos.

La mayor sorpresa está en la clave de esta variante: una espita que concentra los gases simula un volcán, que muchos sugieren como la cuna de la vida en la Tierra prebiótica. Si la atmósfera de entonces no era reductora, los gases volcánicos sí lo son. Y, por si fuera poco, el vulcanismo produce tormentas eléctricas. Miller pudo tener más razón de la que sospechaba.

Autor: Javier Yanes

los volcanes originaron la vida en la Tierra

Genoma humano: progreso científico para el avance de la civilización

Han sido muchos los acontecimientos ocurridos, desde que se hiciera público el primer borrador del genoma humano, a principios del año 2001. Como es sabido, el citado borrador, notablemente perfeccionado desde entonces, pues los errores y lagunas eran muchos, representa el patrón de la información genética detallada que define la especie humana.
FUENTE | ABC Periódico Electrónico S.A. 21/10/2008
Su conocimiento abrió la posibilidad de detallar también, hasta un nivel muy profundo, la individualidad genética de cada ser humano. Se trata de una cuestión, la de cada ser humano como único e irrepetible, que tiene múltiples facetas; de alguna forma, la dignidad intrínseca, que la verdadera civilización atribuye a cada uno de los integrantes de nuestra especie, también se ejemplifica en los datos que hoy nos aporta la Ciencia más avanzada.

Disponer de esta información sobre el genoma humano permite plantear una enorme cantidad de nuevos programas científicos, destinados a aprovechar ese conocimiento, que actualmente están en pleno desarrollo en muchos lugares del mundo. Entre ellos, los destinados a desarrollar una Medicina individualizada que no es otra cosa que utilizar los datos de la individualidad genética de cada cual, para mejorar la atención sanitaria a lo largo de la vida. Se trata, por ejemplo, de plantear medidas preventivas que beneficien a cada persona, en función de lo que se pueda deducir de sus datos genéticos. Se trata, igualmente, de que la atención farmacéutica que reciba tenga en cuenta qué fármacos son los más adecuados para el propio individuo, o cuáles no lo son en absoluto, aunque puedan ser útiles para otros. En definitiva, se pretende conocer hasta qué punto los genes de los que somos portadores -dotación que cada uno recibe a partes iguales de su padre y de su madre- influyen en nuestra salud, así como cuál es el alcance del ambiente en el que nuestra vida se desarrolla. No sólo somos genes, sino que a partir de esta dotación genética nuestro ser biológico se materializa en interacción con el ambiente. Por ambiente se debe entender todo nuestro entorno vital, desde el clima a la alimentación o la educación que recibimos.

El brillante premio Nobel Sidney Brenner ha llegado a escribir que todo este conocimiento define un nuevo paradigma científico, porque la Humanidad como tal representa un nuevo modelo. No cabe duda de que los avances en el genoma humano son una nueva fuente de conocimiento y de posibilidades. Sin embargo, la especie humana hace muchos años que ha llegado a esa conclusión. El reconocimiento de dignidad de la persona es la medida de la civilización; los nuevos hallazgos no hacen sino confirmar algo que está escrito en nuestra propia naturaleza, y que como seres humanos hemos podido ir materializando. Claro que a lo largo de la Historia ha habido ejemplos de lo contrario, momentos oscuros para esa civilización humana. También está claro que el propio concepto de vida humana -y la dignidad que le corresponde- pretende ser revisado por algunos en estos momentos, especialmente en lo que representan sus inicios o su final natural.

Pero, interesa mucho a todos considerar algunos aspectos del conocimiento nuevo, para que de cada avance científico se pueda derivar un verdadero progreso. Los avances de la Ciencia suponen un recorrido por un camino plagado de hallazgos ciertos, pero entremezclado de territorios de incertidumbre. La honradez más elemental demanda tanto establecer la verdad científica, como analizar sus alcances en términos precisos. Las interpretaciones carentes de base pueden ser -han sido, algunas veces- el origen de grandes conflictos.

Una conclusión que los datos genómicos establecen con claridad es que no existen razas humanas, si por razas se entiende grupos de seres humanos separados, entre los que pueda caber una distinción biológica clara. La especie humana es única, no hay fronteras que separen en grupos a quienes la integramos. Es ésta una cuestión en la que los descubrimientos científicos no hacen otra cosa que confirmar a quienes propusieron reconocer ese hecho fundamental, desde el ámbito religioso, político o social. Las observaciones son contundentes; hay una variabilidad genética, todos somos diferentes. Esas variaciones, en parte, son heredadas de nuestros antepasados que mezclaron sus genes, lo que sigue potenciando esa variabilidad. La variación hoy existente se puede datar a los inicios de la especie. Las diferencias de color de piel, así como de otras características externas muy visibles, son debidas a meras adaptaciones. Si se cuantifican las diferencias genéticas entre dos individuos, incluso considerados como de la misma raza, su valor alcanza niveles muy superiores a aquellas que puedan determinar las diferencias raciales o étnicas.

La Ciencia biológica asesta un duro golpe a todas aquellas posiciones -sostenidas en el pasado, pero también en el presente, no nos engañemos- que hacen énfasis en la significación de la etnicidad. Se podrán buscar explicaciones culturales o sociales sobre la existencia de grupos étnicos, así como a su proyección en la situación actual para demandar determinados derechos de grupos, por encima del individuo. De hecho, sabemos que esta búsqueda ha contaminado el cultivo de la Historia, desde sus fundamentos arqueológicos, cuando ésta se ha pervertido al servicio de determinadas ideologías y propuestas nacionalistas. Sin embargo, los avances sobre el genoma humano y la individualidad genética, tan útiles para la Medicina, representan una oportunidad más para la civilización. Un grupo multidisciplinar de académicos de la Universidad de Stanford insistía acertadamente en esta idea. La utilización de categorías raciales o étnicas, que sigue siendo empleada en Medicina, por ejemplo, para establecer la incidencia de determinadas patologías en caucasianos o personas de color, debe hacerse con precaución y con conocimiento de causa. Los grupos étnicos tal como se definen tienen un sustrato cultural y social, que con frecuencia va mucho más allá de lo biológico. Es preciso estar alerta frente a explicaciones genéticas de diferencias entre grupos humanos, en especial cuando se trata de caracteres de determinación compleja como la conducta o la capacidad intelectual.

Conocer la naturaleza es parte del progreso humano, que se asienta y avanza aun más a través del conocimiento de nuestra propia naturaleza como seres vivos. A nuestra propia libertad le es dado aprovechar ese conocimiento para profundizar en lo que más nos dignifica, el respeto a los derechos de todos, pero también de cada persona como única e irrepetible. Cada vez que sabemos en qué consiste ese ser único de cada individuo, nuestra civilización puede seguir avanzando sobre estas bases.

Autor: César NombelaNace en España el primer bebe modificado geneticamente

España espera generalizar la captura y almacenamiento de CO2 a partir de 2020

«Quitar de la circulación el CO2 que emiten las industrias». Esto es, muy gráficamente, el objetivo último de la Plataforma Tecnológica Española del CO2 (PTECO2), formada por 34 entidades privadas del sector industrial y tecnológico, incluidas en el Sistema de Comercio de Emisiones de la Unión Europea, y por 36 organismos públicos del ámbito educativo e investigación.
FUENTE | ABC Periódico Electrónico S.A. 22/10/2008
Una vez que han terminado lo que ellos llaman «el itinerario tecnológico para España», un plan a ejecutar a corto y medio plazo y que comprende 14 propuestas para la realización de estudios, proyectos y líneas de investigación en las áreas de reducción y captura, uso y almacenamiento de CO2 e infraestructuras. Para su desarrollo, la Plataforma cree que es necesaria una inversión de 304 millones de euros.

Según explicó Santiago Sabugal, presidente de PTECO2, el objetivo es que en el año 2010 esté operativa la planta experimental de captura y almacenamiento de carbono de CIUDEN en El Bierzo; en 2015 haya al menos una planta operativa de demostración a nivel comercial y que, a partir de 2020, se produzca la transformación a escala masiva del parque técnico incorporando centrales de alta eficiencia con esta tecnología.

EXPORTAR Y NO COMPRAR

En contra de los que ven en esta tecnología una forma de esconder bajo la alfombra las emisiones de gases de efecto invernadero, en lugar de evitarlas, Sabugal dijo que aunque se apueste por un modelo basado en las energías renovables siempre va a haber procesos en muchos sectores industriales que necesiten de la quema de combustibles fósiles. Por tanto, «ésta es una tecnología clave y nuestro objetivo es que España sea desarrolladora y exportadora y no compradora» de esta técnica.

En este sentido, Juan Carlos Abanades, investigador del Instituto del Carbón, del CSIC, aseguró que «las tecnologías existen ya, esto no es ciencia ficción». Se refiere, sobre todo, a la fase de captura, donde lo que se intenta ahora es reducir el coste por tonelada de CO2 evitada. Actualmente está entre 30 y 60 euros y el objetivo para las dos próximas décadas es que se sitúe por debajo de los 15 euros por tonelada de CO2 que deja de emitirse.

El mayor reto ahora es el estudio del subsuelo para caracterizar los emplazamientos donde pueda inyectarse con seguridad este gas ya llevado al estado supercrítico. «Ya sabemos que hay un tercio del territorio que no sirve por ser suelo granítico y metamórfico y no tener porosidad, pero es necesario un estudio geológico más profundo y esto cuesta mucho dinero», dijo a ABC Cecilio Quesada, del Instituto Geológico y Minero. Por eso, la inversión necesaria para los proyectos dentro del área de uso y almacenamiento de CO2 es la de mayor cuantía, más de 184 millones de euros.

En cuanto al almacenamiento se recoge la propuesta de realizar un mapa de las zonas de potencial de almacenamiento en España, pero el CO2 capturado también puede volver a utilizarse, por ejemplo transformándolo en biocombustibles, o el ejemplo de la planta de Elcogas en Puertollano, donde se separa el CO2 y se produce hidrógeno.

Desde la Plataforma del CO2 estiman que la captura y el almacenamiento podría suponer una reducción de las emisiones de los países industrializados de entre un 50 y un 80 por ciento para 2050.

Autor: Araceli Acosta