HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

jueves, 11 de diciembre de 2008

Protocolo de Kioto

En este enlace tienes todo lo que necesitas saber sobre el protocolo de Kioto

El hidrógeno: ¿última oportunidad para un sistema energético sostenible?

El continuo desarrollo económico y tecnológico de nuestra sociedad va acompañado de un incremento creciente de las necesidades energéticas. ¿Coches, barcos y aviones alimentados por hidrógeno?

David Serrano Granados
Catedrático de Ingeniería Química. Director del Departamento de Tecnología Química y Ambiental. Universidad Rey Juan Carlos

El consumo de energía primaria a nivel mundial se ha incrementado durante la última década a un ritmo promedio del 2% anual, lo que implica que el consumo total de energía se duplica cada 35 años. Recientemente, las tasas de crecimiento anuales han sido incluso mayores con valores del 3,3 y 2,9% en los años 2002 y 2003, respectivamente. Una tasa de crecimiento sostenida del 3% nos llevaría a una duplicación del consumo energético anual en apenas 24 años. Estos aumentos en la demanda de energía han tenido lugar a pesar de los importantes logros alcanzados en cuanto a la mejora de la eficiencia de las transformaciones energéticas. El constante incremento de la población mundial y el desarrollo económico que están experimentando determinados países y zonas geográficas, de los que China representa el máximo exponente, son las principales razones de la aceleración en la demanda de energía. Sólo en el año 2003, la energía total consumida por ese país experimentó un incremento del 13,8%.

En la actualidad, las fuentes de energía primaria fundamentales son los combustibles fósiles (petróleo, gas natural y carbón) que, en conjunto, aportan más del 80% de la energía total que consumimos. El resto se distribuye entre energía nuclear, energía hidroeléctrica y otras energías renovables. Este sistema energético plantea una serie de problemas de gran magnitud, entre los que cabe citar:



- Es previsible que los combustibles fósiles, a excepción del carbón, se agoten en las próximas décadas. Actualmente la relación reservas probadas / producción anual (R/P) para el petróleo y el gas natural es de 41 y 67 años, respectivamente. Cierto es que de forma continua se realizan descubrimientos de nuevos yacimientos, pero también que el consumo de ambos tipos de combustibles crece sin pausa, por lo que más tarde o más temprano se producirá un descenso paulatino de la relación R/P. Por otro lado, cabe pensar que los efectos de esta situación sobre los mercados y los precios de la energía se harán sentir mucho antes de que se produzca el agotamiento del petróleo y del gas natural. Se estima que antes del año 2030 la producción de petróleo y gas natural no podrá cubrir la demanda de estos tipos de combustibles fósiles.

- Las reservas de petróleo y gas natural muestran una distribución geográfica muy heterogénea, concentrándose en zonas de elevada inestabilidad geopolítica. El 63% de las reservas de petróleo y el 41% de las de gas natural se localizan en Oriente Medio. Los efectos de esta concentración de recursos energéticos sobre los precios, la economía y la estabilidad mundial son bien conocidos.

- El uso de combustibles fósiles como fuente de energía lleva asociado un coste medioambiental muy importante, con una degradación de la calidad del aire como consecuencia de las emisiones de diferentes contaminantes (SOx, NOx, hidrocarburos, partículas sólidas, etc.). De entre todos los problemas generados, sin duda en la actualidad el más grave y acuciante es la acumulación en la atmósfera de CO2 y otros gases de efecto invernadero que están provocando un incremento de la temperatura media del planeta, con el consiguiente riesgo de alteraciones en el clima.


Estos factores evidencian claramente que nuestro actual modelo energético no es sostenible, por lo que urge la búsqueda de nuevas alternativas y fuentes de energía sustitutivas de los combustibles fósiles. La energía nuclear de fisión presenta su propia problemática y riesgos ambientales, mientras que el desarrollo de procesos de fusión de forma controlada no resulta una meta alcanzable a medio plazo, ni siquiera en el horizonte de la segunda mitad del siglo XXI. Las energías renovables tradicionales (hidráulica, eólica, solar, biomasa, etc.) han experimentado un fuerte crecimiento a lo largo de la última década, pero por sí solas tampoco parece que puedan sustituir por completo a los combustibles fósiles. Se corre el riesgo de que se produzca una inversión en la evolución histórica que, a lo largo de los siglos XIX y XX, ha permitido utilizar paulatinamente combustibles más limpios y con menores emisiones de contaminantes, pasando del carbón al petróleo, primero, y al gas natural, después. Las cifras de años recientes muestran una cierta marcha atrás con incrementos en el consumo de carbón del 9,1 y 6,9% en los años 2002 y 2003, respectivamente, tasas muy superiores a las experimentadas por el petróleo y el gas natural. Como consecuencia el carbón ha pasado de aportar el 24,1% de la energía primaria consumida a nivel mundial en el año 2001 al 26,4% en el año 2003, es decir, un incremento de más de 2 puntos porcentuales sobre el total de energía primaria. Aunque los datos del año 2004 todavía no están disponibles, cabe anticipar una participación todavía mayor del carbón como consecuencia del fuerte incremento experimentado por el precio del barril de petróleo. El carbón no presenta problemas de limitación en el volumen de reservas pero, de mantenerse esta tendencia, se agravarían enormemente los problemas medioambientales con un incremento muy importante en las emisiones de contaminantes, y en especial de CO2.

Se han propuesto diferentes métodos para conseguir el confinamiento del CO2 generado a partir de combustibles fósiles, lo que en todos los casos requiere el desarrollo de una serie de etapas de captura, presurización y transporte de CO2. Entre las alternativas contempladas se encuentra la inyección de CO2 líquido en océanos a una profundidad superior a 2 km. o en depósitos subterráneos (yacimientos agotados de gas natural y formaciones geológicas). El confinamiento de CO2 implica, por tanto, importantes costes energéticos y económicos. Asimismo, existe un elevado grado de incertidumbre respecto de la estabilidad a medio/largo plazo del CO2 capturado, así como sobre los posibles efectos medioambientales que puede tener su confinamiento en grandes cantidades.

Se comprende que, en este contexto, el posible uso del hidrógeno como fuente de energía haya despertado un enorme interés. La reacción entre el hidrógeno y el oxígeno es un proceso sencillo, fuertemente exotérmico, que conduce a la formación de agua como único producto. La energía liberada se puede aprovechar directamente o se puede emplear para generar electricidad mediante una pila de combustible. El uso del hidrógeno como fuente de energía presenta, además, las siguientes ventajas: el hidrógeno se puede transportar grandes distancias en fase gas o líquida, existe una amplia variedad de procesos que permiten su transformación en otras formas de energía, la interconversión hidrógeno/electricidad tiene lugar en ambas direcciones con una elevada eficacia y, a diferencia de lo que sucede con la energía eléctrica, es posible acumular y almacenar hidrógeno en grandes cantidades. Un sistema energético basado en el hidrógeno permitiría una amplia deslocalización de los recursos energéticos, ya que cada país podría adaptar los sistemas de producción de hidrógeno a las fuentes de energía propias, evitándose la actual dependencia en el suministro de energía procedente de determinadas zonas geográficas. Esta relación de potenciales ventajas explica que el hidrógeno esté "de moda" y que en los últimos años se haya producido una extraordinaria proliferación de acontecimientos respecto de su uso como fuente de energía: artículos científicos, libros, revistas, páginas web, asociaciones, redes, plataformas, congresos, conferencias, proyectos, prototipos, declaraciones políticas, etc. El término "economía del hidrógeno" se ha acuñado y aplicado con bastante éxito para referirse a un futuro más o menos próximo en el que el hidrógeno será el principal vector energético.

El hidrógeno se postula como una nueva fuente de energía que puede remediar las limitaciones y problemas derivados de la actual dependencia de los combustibles fósiles. Realmente, el concepto no es nuevo. En 1839 se descubre el principio de funcionamiento de las pilas de combustible. Posteriormente, uno de los personajes de la novela de Julio Verne "La isla misteriosa", publicada en 1874, sugiere que en el futuro "...hidrógeno y oxígeno, usados juntos o por separado, proporcionarán una fuente inagotable de luz y calor". En los años 20 y 30 del siglo XX se producen las primeras aplicaciones industriales del hidrógeno, mientras que en el periodo 1950-70 se desarrollan usos puntuales del hidrógeno como fuente de energía. La crisis energética de 1973 evidencia el gran potencial de un sistema energético basado en el hidrógeno. Sin embargo, posteriormente se produce un cierto decaimiento del interés en el hidrógeno como consecuencia del descenso en los precios del petróleo a lo largo de las décadas 1980-90. La situación actual, con un coste del barril de petróleo superior a 50$ y la percepción generalizada de los daños sobre el medio ambiente que está causando el uso de combustibles fósiles, es la ideal para promover el desarrollo de la economía del hidrógeno.

La posible sustitución del petróleo y del gas natural por hidrógeno confirmaría la evolución histórica en cuanto a la composición de los combustibles, que ha seguido un proceso paulatino de descarbonización. El carbón, combustible fósil predominante en el siglo XIX y que posee una relación C/H de 2, fue desplazado a lo largo del siglo XX en primer lugar por el petróleo (C/H = 0,5) y, a continuación, por el gas natural (C/H = 0,25). La introducción del hidrógeno durante el siglo XXI supondría llevar al extremo este proceso alcanzando una relación C/H de cero. La descarbonización lleva implícito el uso de combustibles cada vez más limpios y que conducen a una menor producción de CO2.

Sin embargo, no todo son luces respecto del uso generalizado del hidrógeno como fuente de energía. Existen, actualmente, importantes limitaciones tecnológicas y económicas que afectan a las diferentes fases del proceso: producción, almacenamiento, transporte, distribución y utilización del hidrógeno. Asimismo, es previsible que se presenten dificultades en cuanto a su aceptación social, derivadas de la percepción de riesgo que supone la elevada inflamabilidad del hidrógeno, así como la necesidad de llevar a cabo su transporte y almacenamiento a altas presiones. El principal inconveniente de un sistema energético basado en el hidrógeno se deriva del hecho de que no se trata de una fuente de energía primaria, al no encontrarse libre en nuestro planeta (la concentración de hidrógeno en la atmósfera es inferior a 1 ppm). Por ello, el hidrógeno ha de obtenerse y producirse a partir de compuestos que lo contienen como es el caso del agua, hidrocarburos y alcoholes, mediante procesos que implican un importante consumo de energía primaria. En este esquema, el hidrógeno actúa como un vector energético, permitiendo el transporte de energía desde la fuente primaria hasta la aplicación final. La afirmación de que el hidrógeno es una fuente de energía totalmente limpia, sin emisiones y renovable debe, por tanto, matizarse. El hidrógeno podrá considerarse una fuente de energía renovable siempre y cuando la energía primaria consumida en su generación así lo sea. Asimismo, en un balance global habrán de considerarse, asociados al hidrógeno, las emisiones y efectos medioambientales correspondientes a la fuente de energía primaria. Si el hidrógeno se obtiene, por ejemplo, a partir de electricidad que, a su vez, procede de una central térmica de carbón, habrá de considerarse como una fuente no renovable, que lleva asociadas importantes emisiones de CO2 y otros contaminantes.

A continuación se analizan brevemente los principales procesos que permiten producir hidrógeno:


1. Reformado de gas natural con vapor de agua. Mediante este proceso el metano, componente mayoritario del gas natural, se transforma en una mezcla de CO2 y H2. La transformación tiene lugar a elevada presión y temperatura, lo que implica un coste energético significativo con una eficacia global de aproximadamente el 65%. El reformado con vapor de agua también se puede aplicar a otras materias primas como es el caso del carbón o de los hidrocarburos obtenidos del petróleo, aunque con mayores emisiones de CO2. Únicamente, si este proceso parte de productos derivados de la biomasa, las emisiones globales de CO2 podrán considerarse casi nulas.

2. Oxidación parcial de hidrocarburos (gasificación). El contacto con una atmósfera deficiente en oxígeno a elevada temperatura provoca la transformación del hidrocarburo de partida en CO y H2. Este proceso permite la obtención de hidrógeno a partir de cualquier tipo de hidrocarburo, aunque la eficiencia global es sólo del 50%. Los procesos de gasificación son también aplicables para la producción de hidrógeno a partir de carbón o biomasa.

3. Electrolisis. El paso de una corriente eléctrica permite romper la molécula de agua en hidrógeno y oxígeno. La eficiencia es elevada, situándose en el intervalo 65-85%. El hidrógeno así obtenido se encuentra libre de CO2 y de otros gases contaminantes, al menos aparentemente. En un balance global, la existencia o no de estas emisiones dependerá del origen de la energía eléctrica consumida. Si ésta procede de combustibles fósiles, el CO2 se habrá generado en la central térmica productora de electricidad y en este caso la eficacia energética del proceso en su conjunto será mucho menor. Por ello, existe un gran interés en el desarrollo de procesos electrolíticos de producción de hidrógeno en los que la energía eléctrica se haya generado "in situ" mediante una fuente renovable, principalmente energía solar fotovoltaica o energía eólica. En la actualidad, la principal limitación de esta vía es el elevado coste del hidrógeno así producido, del orden de cinco veces el coste del hidrógeno obtenido por reformado.

4. Fotoprocesos. En este apartado se engloba un conjunto de procesos que tienen en común la utilización de la radiación solar para producir hidrógeno a partir del agua o la biomasa. Las técnicas fotobiológicas se basan en el ciclo de la fotosíntesis de las plantas y de algunas bacterias y algas. Uno de los problemas que presentan es que la mayor parte de las enzimas capaces de catalizar la disociación del agua se inhiben en presencia de oxígeno. Los procesos fotoquímicos tratan de imitar el proceso natural de la fotosíntesis utilizando moléculas sintéticas. En los procesos fotoelectroquímicos (fotoelectrolisis) se utilizan materiales fotovoltaicos y semiconductores que al ser expuestos a la luz producen una diferencia de potencial eléctrico, la cual a su vez provoca la escisión de la molécula de agua. Los fotoprocesos presentan eficiencias energéticas bajas (< 15%), aunque en este caso este factor no sea del todo determinante por utilizar una fuente de energía inagotable.

5. Procesos termoquímicos. Se basan en el empleo de calor para provocar la disociación del agua en hidrógeno y oxígeno. La transformación puramente térmica resulta inviable desde un punto de vista práctico ya que sería necesario alcanzar temperaturas del orden de 3000ºC. Como alternativa, se ha propuesto el desarrollo de diferentes reacciones químicas mediante complejos procesos multietapas, lo que permite reducir apreciablemente la temperatura de operación.


Las tecnologías de producción de hidrógeno a partir de fuentes renovables se encuentran todavía en fase de incubación. De hecho en la actualidad el 99% del hidrógeno producido procede de combustibles fósiles, estimándose que transcurrirán entre una y dos décadas hasta que se desarrollen procesos comerciales de obtención de hidrógeno basados en fuentes renovables.

Otro de los retos fundamentales que debe afrontar un sistema energético basado en el hidrógeno es la necesidad de crear una red completa de nuevas infraestructuras para su transporte, almacenamiento y distribución: depósitos, tuberías, estaciones de bombeo, estaciones para el llenado de vehículos ("hidrogeneras"), etc. Los problemas a solventar no son sólo de índole económica, dadas las grandes inversiones a realizar, sino también tecnológicos. El transporte y almacenamiento de hidrógeno pueden llevarse a cabo como gas comprimido o licuado. A presión y temperatura ambiente el hidrógeno ocupa un volumen 3000 veces superior al de una cantidad de gasolina con el mismo contenido energético. La baja densidad del hidrógeno hace necesario que su transporte y/o almacenamiento en fase gas se realicen a presiones elevadas (entre 200 y 500 atm), lo que implica un coste energético adicional asociado al trabajo de compresión, además de plantear cuestiones de seguridad. Otra alternativa, es la licuefacción del hidrógeno, para lo cual resulta necesario alcanzar temperaturas de - 253ºC. En este caso, los depósitos de hidrógeno han de estar aislados térmicamente o bien refrigerados con nitrógeno líquido. Aún así, las pérdidas por evaporación de parte del hidrógeno líquido pueden ser importantes, entre un 0,1 y un 2% al día. A estas pérdidas energéticas, habría que sumar el consumo de energía producido en el proceso de licuefacción. Ninguna de estas dos alternativas parece viable para el uso de hidrógeno como combustible en el sector del transporte, lo que puede suponer un auténtico cuello de botella en el desarrollo de vehículos impulsados con hidrógeno al limitar la autonomía de los mismos. Por ello, se están estudiando otros métodos de almacenamiento de hidrógeno en vehículos como es el uso de diferentes materiales que tienen la capacidad de retener hidrógeno en elevadas concentraciones como es el caso de hidruros metálicos, hidruros químicos, esponjas de hierro, microesferas de vidrio, nanotubos de carbono, etc., aunque hasta la fecha ninguno de ellos parece poder cumplir los requerimientos necesarios en términos de volumen, peso, condiciones de liberación del hidrógeno y tiempos de llenado y descarga del depósito.

Respecto del uso final del hidrógeno para producir energía existen diferentes alternativas, entre las que cabe citar su utilización como combustible en motores de combustión interna, turbinas y pilas de combustible. La aplicación del hidrógeno en motores de combustión interna permite obtener eficiencias energéticas superiores en un 20% a las de motores de gasolina, aunque se produce una pérdida de potencia debido al menor contenido energético de la mezcla presente en el cilindro del motor. Asimismo, el accionamiento de turbinas mediante la combustión de hidrógeno conduce a mayores eficiencias y evita problemas de formación de depósitos y de corrosión de los materiales de la turbina. En todos estos procesos el producto principal que se forma es agua, sin apenas presencia de gases contaminantes. Únicamente, en los procesos de combustión que operan a elevada temperatura se produce también la formación de pequeñas cantidades de NOX.

No obstante, la alternativa de mayor potencial futuro y que ha despertado un mayor interés es la generación de electricidad por alimentación del hidrógeno a pilas de combustible a través de un proceso electroquímico. La energía eléctrica se genera por oxidación electroquímica del hidrógeno (se alimenta al ánodo) con oxígeno (se alimenta al cátodo). Esta transformación tiene lugar con una eficiencia de aproximadamente el 60%. Dependiendo del electrolito se distinguen diferentes tipos de pilas de combustible: disoluciones alcalinas, membranas de intercambio de protones, ácido fosfórico, carbonatos fundidos y óxidos sólidos. Las pilas de combustible suelen operar con voltajes comprendidos entre 0,6 y 0,8 V, mientras que la temperatura de trabajo viene determinada por el tipo de electrolito. Las pilas de membranas de polímero operan a temperaturas comprendidas entre 60 y 80ºC. En el extremo opuesto se encuentran las pilas de óxidos sólidos que necesitan alcanzar temperaturas de hasta 1000ºC. Para su uso en automóviles, las pilas de combustible basadas en membranas de intercambio de protones parecen ser una de las alternativas más interesantes. En la mayor parte de los casos el hidrógeno alimentado a la pila de combustible ha de poseer una elevada pureza, lo que hace necesario reducir hasta niveles extremadamente bajos la concentración de otros componentes que pueden acompañar al hidrógeno en función de su origen. En la actualidad las principales limitaciones de las pilas de combustible están relacionadas con su durabilidad y elevado coste.

El uso masivo del hidrógeno como vector energético puede tener también sus consecuencias medioambientales. El hidrógeno es un gas extremadamente ligero, que posee la capacidad de infiltrarse a través de pequeños huecos e intersticios de los materiales de construcción. Cabe esperar que las fugas de hidrógeno a lo largo de la red de tuberías, depósitos de almacenamiento y estaciones de suministro sean considerables. Se ha especulado con la posibilidad de que el hidrógeno así liberado pueda afectar negativamente al ozono estratosférico. No obstante, estas fugas se podrían minimizar con un sistema descentralizado de distribución del hidrógeno en el que éste se produzca, no en grandes plantas, sino directamente en instalaciones de menor tamaño localizadas en las proximidades de los puntos de consumo.

Como resumen, podemos concluir que, aunque no todos son aspectos favorables y que todavía existen muchas incógnitas por despejar, el uso del hidrógeno como vector energético será probablemente una realidad a medio plazo. Esta opción no está completamente exenta de riesgos y de potenciales efectos negativos. Además, los retos tecnológicos que han de alcanzarse requerirán de un ingente esfuerzo científico, tecnológico y económico. Sin embargo, los beneficios que se pueden derivar de la economía del hidrógeno son de tal magnitud que a priori compensan a los anteriores. Las previsiones más razonables auguran una transición a la economía del hidrógeno en dos etapas. En la primera, el hidrógeno se obtendría a partir de combustibles fósiles de menor impacto ambiental, principalmente gas natural. Este periodo de transición, que podría prolongarse durante varias décadas, daría paso finalmente a un sistema energético en el que el hidrógeno se obtendría enteramente de fuentes renovables. El camino por recorrer para el desarrollo de la economía del hidrógeno parece todavía bastante largo y con numerosas incertidumbres. Pero, por otro lado, no se vislumbran, al menos a medio plazo, otras alternativas viables para el desarrollo de un sistema energético sostenible y compatible con el medio ambiente.

¿La hora de los biocarburantes?

El sector del transporte supone en el conjunto de la Unión Europea un 30% del consumo total de energía. En el caso de España esta cifra se eleva al 37,5%, mientras que en la Comunidad de Madrid representa más del 50% del consumo final de energía. Los carburantes utilizados en la actualidad son fundamentalmente productos derivados del petróleo. La contribución de los combustibles fósiles convencionales a las emisiones de CO2 y, por tanto, al cambio climático es muy relevante. Según diferentes estimaciones, el sector del transporte será el principal responsable de la no consecución de los objetivos de Kyoto por la mayor parte de los países europeos.

David Serrano Granados
Universidad Rey Juan Carlos. Director IMDEA-Energía

En este contexto, la utilización de biomasa, y en particular de biocombustibles, para usos energéticos tiene cada vez mayor interés. Los biocombustibles son aquellos combustibles que se producen a partir de la biomasa y que, en consecuencia, son considerados como una fuente de energía renovable. Se pueden presentar tanto en forma sólida (residuos vegetales, fracción biodegradable de los residuos urbanos o industriales), como líquida (bioalcoholes, biodiésel) y gaseosa (biogás, hidrógeno).

Dentro de los biocombustibles, los biocarburantes abarcan al subgrupo caracterizado por su aplicación en motores de combustión interna. Son, en general, de naturaleza líquida y se obtienen a partir de materias primas vegetales mediante transformaciones biológicas y físico-químicas. En la actualidad, se encuentran desarrollados a escala comercial principalmente dos tipos de biocarburantes: el biodiésel, obtenido a partir de la transesterificación de aceites vegetales y grasas animales con un alcohol ligero, y el bioetanol, obtenido fundamentalmente de semillas ricas en azúcares mediante fermentación.

Uno de los principales beneficios que se esperan del uso de biocarburantes es la reducción en las emisiones de CO2. La combustión de los biocarburantes da lugar a emisiones de óxidos de carbono, pero éstas vuelven a ser captadas y fijadas durante el desarrollo y crecimiento de las especies vegetales utilizadas en su obtención. Sin embargo, en la práctica la reducción en las emisiones no es del 100%, ya que la producción del propio biocarburante implica un consumo importante de energía de origen fósil y, por tanto, de emisiones de CO2 no renovables. Asimismo, el empleo de fertilizantes para favorecer el desarrollo de los cultivos lleva asociadas emisiones significativas de NOX, que también contribuyen al efecto invernadero. Declaraciones e informes recientes han destacado estos aspectos negativos, sugiriendo o afirmando que los beneficios medioambientales del uso de biocarburantes en términos de reducción de gases de efecto invernadero son prácticamente nulos. No es un debate nuevo, ya que en las últimas dos décadas este tema ha sido objeto de controversia entre la comunidad científica, aunque en los últimos años ha ido ganando un apoyo más amplio la opción que reconoce a los biocarburantes como una alternativa de gran potencial de reducción de emisiones netas de CO2.

El coste energético que hay que pagar para producir un biocarburante se puede estimar utilizando técnicas de análisis de ciclo de vida (ACV), que tienen en cuenta todas las operaciones y tratamientos que se desarrollan desde el crecimiento de las plantas utilizadas como materia prima hasta la producción, transporte y utilización del carburante. No es un cálculo exacto, puesto que implica trabajar con parámetros y variables a los que se asignan valores con un amplio margen de error. El resultado, por tanto, no es categórico y puede dar lugar a interpretaciones de "botella medio llena" o "botella medio vacía". Los estudios más rigurosos y con datos más actualizados que se han llevado a cabo hasta la fecha indican que los biocarburantes emiten entre un 40% y un 80% menos de dióxido de carbono que los carburantes convencionales. En este sentido cabe destacar un trabajo publicado en el presente año en el que se revisa de forma exhaustiva la bibliografía precedente sobre estudios de ACV en la producción de bioetanol a partir de diferentes materias primas. En el mismo se concluye que el uso de bioetanol tiene efectos positivos muy importantes respecto del consumo de recursos naturales y las emisiones de gases de efecto invernadero, aunque las consecuencias sobre otros factores medioambientales, como la acidificación y la toxicidad humana y ecológica, pueden ser más negativas que positivas.

Por otro lado, ha de tenerse en cuenta que la implantación de una nueva tecnología suele conllevar un proceso de optimización y una mejora paulatina de la eficacia de las diferentes transformaciones. Por ello, es de esperar que la producción de biocarburantes de forma masiva a escala industrial vaya asociada a un incremento sustancial de su eficiencia energética global, provocando, por tanto, una reducción todavía mayor en las emisiones de CO2. Asimismo, el uso de biocarburantes permite disminuir también las emisiones de otros contaminantes, como óxidos de azufre, partículas sólidas, monóxido de carbono, hidrocarburos aromáticos policíclicos y compuestos orgánicos volátiles.

La creación de un mercado europeo de biocarburantes puede ofrecer una oportunidad de desarrollo de las zonas agrícolas dentro de la Política Agraria Común. Se estima que por cada 1% de sustitución de carburantes de origen fósil por biocarburantes se generarán entre 45.000 y 75.000 puestos de trabajo en las áreas rurales de la Unión Europea. Sin embargo, una de las principales limitaciones en el desarrollo comercial de los biocarburantes reside en el hecho de que actualmente sus costes de producción no son competitivos respecto de los carburantes tradicionales, requiriendo de medidas políticas, legales y fiscales que promuevan su desarrollo a escala comercial. Con la tecnología actual, el biodiésel y el bioetanol producidos en la Unión Europea serían competitivos con los carburantes de origen fósil únicamente si el precio del petróleo es al menos de 60 y 90 euros/barril, respectivamente.

En este momento, los objetivos establecidos en nuestro país, y recogidos en el Plan de Energías Renovables (PER), de cara al año 2010 son: producir con fuentes renovables al menos el 12% de la energía total consumida y alcanzar como mínimo un 29,4% de generación eléctrica con renovables y un 5,75% de utilización de biocarburantes en el sector del transporte. Sin duda, se trata de objetivos muy ambiciosos y que resultarán difíciles de conseguir.

Uno de los instrumentos esenciales para promover el desarrollo de los biocarburantes es la política fiscal. La Directiva 2003/30/CE de la Unión Europea recoge la posibilidad de que los estados miembros disminuyan la fiscalidad que grava a los biocarburantes. En algunos países, además de medidas fiscales, se han acordado otro tipo de iniciativas. Entre ellas destacan las denominadas "obligaciones para los biocarburantes", que suponen la exigencia, a las empresas suministradoras de combustibles, de incorporación de un determinado porcentaje de biocarburantes en los productos que comercializan.

Un problema añadido es que la mayor parte de los cultivos destinados a la producción de biocarburantes se dedican también a la producción alimentaria, lo que supone de hecho la interconexión de dos mercados y sectores de gran relevancia como son el energético y el de los alimentos. En esta situación, el precio de las materias primas para la producción de biocarburantes depende del mercado alimentario que, por lo general, es excesivamente alto para el sector energético. Asimismo, la demanda tan importante que se está produciendo en los últimos años de materias primas para la producción de biocarburantes ha empezado ya a provocar un incremento significativo del precio de determinados alimentos. Por otro lado, la existencia de importantes fluctuaciones en los precios supone un factor de riesgo adicional que incrementa la incertidumbre respecto de la rentabilidad a alcanzar en el desarrollo de proyectos de producción y comercialización de biocarburantes.

El biodiésel es un biocarburante líquido producido a partir de aceites vegetales y grasas animales. Las materias primas más utilizadas en la fabricación de biodiésel son la colza, el girasol y la soja. En España la utilización de aceites usados es también muy significativa, lo que presenta la ventaja adicional de permitir la gestión y valorización de un residuo. El biodiésel posee propiedades muy parecidas a las del gasóleo de automoción en cuanto a densidad y número de cetano, mientras que presenta un punto de inflamación superior. Por ello, el biodiésel puede mezclarse con el gasóleo para su uso en motores e incluso sustituirlo totalmente si éstos últimos se modifican convenientemente.

Por su parte, la vía principal de obtención de bioetanol es la fermentación de los azucares que contienen diferentes productos vegetales, tales como cereales, remolacha o caña de azúcar. El bioetanol también se puede producir a partir de residuos agrícolas, forestales, urbanos o industriales. La utilización de estos residuos presenta la ventaja de su bajo coste, aunque en el caso de los RSU la posible presencia de componentes no deseados puede hacer necesario un proceso de separación previo a la fermentación, con el consiguiente incremento en el coste de producción del bioetanol. En la mayor parte de los países, el bioetanol se utiliza en la actualidad mezclado con gasolina en concentraciones del 5 o el 10% (E5 y E10, respectivamente). En estas proporciones no es necesario llevar a cabo ningún cambio en los motores de los vehículos actuales. Por el contrario, para que los vehículos puedan funcionar con elevadas concentraciones de etanol es necesario introducir en los mismos una serie de modificaciones, como consecuencia del mayor poder corrosivo del etanol y de su mayor miscibilidad con el agua.

Otra alternativa para el aprovechamiento del bioetanol consiste en su transformación en etil-tercbutil éter (ETBE), producto que se emplea como aditivo de mejora del índice de octano de las gasolinas. El ETBE presenta importantes ventajas respecto de la utilización directa de bioetanol, como son su menor afinidad con el agua y una presión de vapor más adecuada que el alcohol. Por estas razones su uso se está imponiendo en Europa, prevaleciendo sobre la mezcla directa de bioetanol y gasolina. En España todo el etanol dedicado a la automoción es convertido en ETBE.

Aunque el bioetanol y el biodiésel son los biocarburantes más conocidos, existe hoy en día una amplia variedad de productos que se obtienen por transformaciones de la biomasa y que se pueden utilizar como fuente de energía. Es el caso de los bioaceites, el "green diesel", el biogás, el bio-metanol, el bio-dimetiléter, o incluso el bio-hidrógeno. La optimización de los correspondientes procesos de producción plantea importantes retos con objeto de conseguir que todos ellos entren en la fase de explotación comercial.

Se espera que los avances derivados de la investigación y el desarrollo tecnológico en el sector de los biocarburantes contribuyan en los próximos años a un descenso de los costes de producción de al menos el 30%. Gran parte de este progreso estará ligado al desarrollo de los denominados biocarburantes de segunda generación, obtenidos a partir de materiales lignocelulósicos, de coste mucho menor y que apenas tienen utilización alimentaria. Asimismo, estos avances tendrán que tener en cuenta los cambios que ya se están produciendo en la demanda de los diferentes tipos de carburantes. Se estima que la tendencia actual en la Unión Europea de incremento en la demanda de gasóleo y reducción en la de gasolina se mantendrá en las próximas décadas, lo que sitúa al biodiésel como principal alternativa de futuro. No obstante, existen ya proyectos en marcha que pretenden el desarrollo de nuevas vías de utilización energética del bioetanol, diferentes de su mezcla con gasolina o transformación en ETBE.

La introducción y consolidación del concepto de bio-refinería puede suponer un salto cualitativo muy importante en la implantación de los biocombustibles. La bio-refinería se plantea como una instalación versátil en la que se procesarán tanto combustibles fósiles como biomasa con el objeto de producir de forma integrada energía, carburantes convencionales, biocarburantes y productos químicos. De esta forma, se conseguirá un mejor aprovechamiento de los recursos naturales, una disminución significativa de los costes de operación y un incremento muy importante en la eficiencia energética global de producción de biocombustibles.

Recientemente, se ha creado a nivel europeo la Plataforma Tecnológica de Biocombustibles con el objetivo de que juegue un papel esencial en promover y orientar las actividades de I+D+i que se llevan a cabo en este sector, así como de facilitar la transferencia de resultados al sector productivo.

Finalmente, ha de destacarse la estimación realizada recientemente de cara al año 2030, que considera factible alcanzar en esa fecha al menos un 25% de contribución de los biocarburantes en el sector del transporte de la Unión Europea. Se cumpliría de esta forma la predicción realizada en 1912 por Rudolf Diesel:

"El uso de aceites vegetales en motores de combustión puede parecer hoy en día despreciable. Sin embargo, estos aceites se pueden convertir con el paso del tiempo en carburantes tan importantes como lo son en la actualidad los derivados del petróleo".



1.- ¿Qué son los biocombustibles?

2.- Explica los tipos de biocarburantes que menciona el texto.

3.- Señala los aspectos positivos y negativos que tiene el uso de los biocarburantes?

4.- ¿Es completamente positivo el uso de bioetanol como fuente de energía?

5.- ¿Qué otros contaminantes se reducirían con el uso de biocarburantes?

6.- Indica los objetivos que se plantea ESpaña de cara al 2010.

7.- ¿Con qué otro sector económico interacciona la utilización de biocarburantes? ¿Cómo?

El coche eléctrico sale a la calle

Coches eléctricos que se mueven silenciosamente bajo las palmeras, liberarse de la adicción al petróleo y ser pioneros en Estados Unidos. Eso es lo que pretende el Estado de Hawai, que la semana pasada anunció, junto con la empresa eléctrica local, un plan para un sistema de transporte alternativo, basado en vehículos eléctricos, una red inteligente para recargar las baterías y puntos para cambiarlas por otras ya preparadas si no se puede esperar.

FUENTE | El País 11/12/2008

En septiembre pasado, en Alemania, la compañía eléctrica RWE y la automovilística Daimler anunciaron un proyecto más modesto, para establecer puntos de recarga en Berlín para coches eléctricos. Y en los países nórdicos la empresa Th!nk sacará en los próximos meses un vehículo eléctrico con 180 kilómetros de autonomía y un sistema de cuotas mensuales que cubrirá el coste del combustible (la electricidad y la batería).

Automóviles y autobuses eléctricos, que se recarguen en enchufes en los domicilios, las calles, las oficinas, las fábricas o las cocheras, que no contaminen las ciudades y tengan hasta 200 kilómetros de autonomía, que contribuyan a una mayor eficiencia de la red eléctrica y hagan incluso bajar el precio de la electricidad. ¿Un sueño antiguo que nunca se hace realidad o una realidad emergente, que se enfrenta a grandes desafíos pero que puede tener en la actual crisis de los fabricantes de automóvil por fin su oportunidad? Más bien lo segundo, si se atiende a la marea de iniciativas (como las citadas) para electrificar el transporte por carretera que están surgiendo desde los sectores público y privado en muchos de los países más desarrollados -Japón es pionero-, apoyadas por científicos e ingenieros, que creen que la tecnología está casi a punto.

El "casi" es importante, porque el principal escollo de todo lo eléctrico, incluidos los coches, está en las baterías, y las nuevas que permitirían el auge del automóvil eléctrico, están apenas saliendo de los laboratorios. Así lo recordaba recientemente la revista Nature, que se mostraba partidaria de los vehículos eléctricos como una parte viable de la solución al desafío del transporte, y comentaba que seguramente las barreras a nuevas formas están más en los métodos de hacerlas llegar al mercado que en la tecnología.

En un editorial, la revista científica se declaraba contraria a que se ayude a los grandes fabricantes de automóviles estadounidenses, que hace pocos días pidieron 37.000 millones de dólares más (28.600 millones de euros) al Gobierno de su país, si no se comprometen a cambiar de rumbo de verdad hacia una mayor eficiencia.

Lo mismo decía hace unos días en la cadena de televisión CNN el premio Nobel de Física Burton Richter, directivo de la organización Científicos e Ingenieros para América. Y Burt Rutan, el ingeniero que ha diseñado el primer avión aeroespacial, también ha mostrado su entusiasmo por el coche eléctrico.

A pesar del goteo de anuncios por los fabricantes de automóviles de nuevos modelos de híbridos (con motores eléctricos y de gasolina) que serían por primera vez enchufables -el último ha sido precisamente el Chevrolet Volt de General Motors, uno de los tres grandes de Detroit-, parece claro que poco se puede hacer para cambiar de paradigma hacia el coche totalmente eléctrico sin una acción concertada bajo el paraguas público. Es el modelo de negocio, centrado en una infraestructura de recarga de baterías conectada por Internet, que ha puesto en marcha Shai Agassi, un antiguo ejecutivo de Silicon Valley fundador de la empresa Better Place, encargada de hacer realidad el plan del Estado de Hawai. Antes, Better Place, que busca -y encuentra- inversores para sus proyectos, ya había llegado a acuerdos para iniciar la electrificación del transporte en Dinamarca, en Australia y en Israel, donde pretende llegar a los 500.000 puntos de carga. La primera fase serán las flotas de vehículos, como las de correos y otros servicios.

La escala es un factor clave para que el sistema cuaje. Con pocos coches a cargar no puede funcionar. "Primero hay que poner los coches en el mercado -no tienen que ser perfectos-, y luego preocuparse de cómo cargarlos de una red perfecta", ha comentado Mark Duvall, experto del Instituto Electric Power Research, en California.

Autor: Malen Ruiz de Elvira

miércoles, 10 de diciembre de 2008

Murcia fue el refugio de los 'penúltimos' neandertales

Hace unos 42.000 años, una nueva especie humana llegó a Europa. Los hombres de Cromañón, como se les conoce hoy, sustituyeron a los de Neandertal, que habían ocupado el continente durante casi 150.000 años. Peor adaptados que los nuevos pobladores, encontraron el que probablemente fue su último refugio en la Península Ibérica.

FUENTE | Público 10/12/2008

En Gibraltar se han encontrado restos que delatan la presencia de estos homínidos hace menos de 30.000 años. Ahora, la datación de otro yacimiento ibérico, el de la Sima de las Palomas del Cabezo Gordo (Murcia) puede proporcionar más información sobre los últimos días de estos parientes cercanos. Varios neandertales murieron allí hace 40.000 años.

"El objetivo fundamental de este estudio ha sido ofrecer pruebas más seguras por tres métodos distintos (carbono 14, estimulación óptica del sedimento y uranio-torio) de la presencia de neandertales en fechas relativamente recientes", explica el profesor de la Universidad de Murcia Michael Walker, coautor del estudio publicado esta semana en PNAS. La certeza de las fechas obtenidas sería, según Walker, muy superior a la que se tiene, por ejemplo, respecto a los yacimientos de Gibraltar donde, se cree, vivieron neandertales hasta hace 28.000 años. "No digo que sea el conjunto de neandertales más reciente, creo verosímil que otros sean posteriores, pero es el conjunto mejor fechado en Europa", asevera Walker.

El artículo de PNAS se refiere también a otra de las grandes cuestiones abiertas sobre los neandertales: la posibilidad de que llegasen a mezclarse con los cromañones. Algunos de los restos hallados en el yacimiento murciano poseen rasgos anatómicos con aspectos propios de los humanos modernos. Walker plantea una de las posibles explicaciones para este refinamiento: "Los neandertales estaban mejorando sus utensilios y esto podría haber relajado ligeramente la presión sobre sus esqueletos, dándoles un aspecto más grácil". Otra de las opciones sugeridas por el estudio es que existiese un contacto con las poblaciones de cromañones del norte.

El experto en neandertales Antonio Rosas, del Museo de Ciencias Naturales (CSIC), subraya el interés del yacimiento murciano, pero no cree que llegue a demostrar esta última hipótesis. "La variabilidad de los neandertales que han encontrado puede explicarse sin hibridación. Genéticamente, no hay datos que sirvan para afirmar que existió esta hibridación, y la separación genética entre los humanos modernos y los neandertales es muy antigua", apunta Rosas.

La incógnita comenzará a resolverse el año que viene. Casi con total seguridad, en 2009 se publicará el primer borrador del genoma del neandertal. Rosas, que colabora en el proyecto, cree que aunque el resultado de la secuenciación no dará una respuesta definitiva, "será contundente". Por ahora, el yacimiento asturiano de El Sidrón ha sido uno de los pocos en el mundo donde se ha encontrado ADN nuclear. Aunque todavía sin suerte, los investigadores de las Palomas también colaboran con los directores del proyecto para intentar proporcionarles material con el que trabajar. La búsqueda para desentrañar la causa del fatal destino del Homo neanderthalensis continúa.

Autor: Daniel Mediavilla

Noticias relacionadas

IPCC

Aqí os dejo un enlace para acceder a la página del Panel Intergubernamental sobre cambio Climático.

lunes, 1 de diciembre de 2008

Efecto Coriolis

Un ejemplo canónico de efecto Coriolis es el experimento imaginario en el que disparamos un obús desde el Ecuador en dirección norte. El cañón está girando con la tierra hacia el este y, por tanto, imprime al obús esa velocidad (además de la velocidad hacia adelante de la carga de impulsión). Al viajar el obús hacia el norte, sobrevuela puntos de la tierra cuya velocidad líneal hacia el este va disminuyendo con la latitud creciente. La inercia del obús hacia el este hace que su velocidad angular aumente y que, por tanto, adelante a los puntos que sobrevuela. Si el vuelo es suficientemente largo (ver cálculos al final del artículo), el obús caerá en un meridiano situado al este de aquél desde el cual se disparó, a pesar de que la dirección del disparo fue exactamente hacia el norte. Análogamente, una masa de aire que se desplace hacia el este sobre el ecuador aumentará su velocidad de giro con respecto al suelo en caso de que su latitud disminuya. Finalmente, el efecto Coriolis, al actuar sobre masas de aire (o agua) en latitudes intermedias, induce un giro al desviar hacia el este o hacia el oeste las partes de esa masa que ganen o pierdan latitud.

Ahí va un gráfico que trata de explicar graficamente el efecto Coriolis:

Un mineral antiguo revela que los océanos se formaron en la Tierra antes de lo pensado

¿Cómo era la Tierra en su origen? Ésta es una de las cuestiones fundamentales que más intrigan al hombre, y aún más al geólogo. Porque su respuesta está estrechamente ligada a la aparición de la vida, un experimento único que la naturaleza llevó a cabo en nuestro planeta.

FUENTE | El Mundo Digital 28/11/2008

La teoría ortodoxa y convencional arguye que la Tierra, en su nacimiento hace 4.600 millones de años, era una bola de magma cuya corteza -la piel de una manzana- se fue enfriando poco a poco hasta hacer posible la vida. Durante el largo eón Hadeico, que duró desde los inicios hasta hace 3.800 millones de años, se cree que el planeta continuaba siendo "un infierno" de temperaturas extremas y grandes mares de lava.

Pero Mark Harrison, de la Universidad de California, Los Ángeles (UCLA), y colegas han adelantado los acontecimientos que establece la teoría dominante. Según publica la revista científica 'Nature', el zircón, el mineral más antiguo de la Tierra y que pertenece al eón Hadeico, narra una historia cronológicamente distinta a la hasta ahora aceptada.

Para intentar conocer en qué condiciones se formaron los zircones hace 4.000 millones de años y así deducir cómo era entonces la Tierra, los investigadores utilizaron el "termómetro de titanio": a mayor temperatura, mayor cantidad de titanio contenido en los zircones. Según estas pruebas, los arcaicos minerales se formaron a unos 700 grados centígrados, una temperatura mucho más baja de lo que habitualmente requieren los minerales para formarse. ¿Cómo fue posible?

Los científicos sólo pudieron hallar una explicación: los zircones fueron enfriados por agua oceánica. Lo que sugiere que en aquellos tiempos remotos la Tierra ya estaba cubierta de mares.

Harrison y su equipo lo comprobaron 'in situ' con zircones de hasta 4.200 millones de edad hallados en Jack Hills, Australia. La prueba del termómetro arrojó los mismos resultados: zircones formados a 700ºC. Pero además, éstos contenían otro mineral, la muscovita, en gran abundancia. La muscovita contiene agua, y de hecho se forma actualmente cuando dos placas tectónicas colisionan y funden la roca. Era una nueva pista con grandes implicaciones.

El siguiente paso fue analizar la cantidad de aluminio presente en los minerales. Esta prueba permite saber a qué presión se formaron los zircones. La respuesta fue, una vez más, esclarecedora: los zircones se formaron a una presión de al menos 7.000 atmósferas; a unos 25 kilómetros de profundidad.

Pero a esa profundidad, el calor debería haber sido tres veces mayor a los 700ºC encontrados. Algo estaba enfriando el calor. "Sólo hay un lugar en el planeta donde puedes hacer magma y el calor es tres veces inferior a la media: las zonas de subducción", dice Harrison.

El estudio concluye que hace 4.000 millones de años, sólo un poco después de su nacimiento, la Tierra ya contaba con una hidrosfera (océanos) y una interacción de placas tectónicas, un fenómeno relacionado hasta ahora con periodos posteriores.

martes, 25 de noviembre de 2008

La pelvis que cambia la historia humana

Una pelvis de mujer puede dar la vuelta a lo que se sabía, o se creía saber, de nuestros antepasados. El fósil fue localizado en el año 2000 en la región de Gona, en la región Afar de Etiopía. Perteneció a una hembra de 'Homo erectus', la primera especie que muchos consideran humana y vivió hace entre 1,8 millones y 160.000 años.

FUENTE | El Mundo Digital 14/11/2008

Los investigadores revelan en la revista 'Science', que el tamaño del cerebro del feto era más grande que el de los homínidos anteriores, como el 'Homo habilis', y que los 'H. erectus' no fueron tan esbeltos como se les imaginaba, una tesis que ya en 1994 defendieron los paleontólogos españoles de Atapuerca (Burgos) y ahora parece confirmarse.

Es decir, que no hubo una adaptación a un clima tropical ni a la necesidad de una mayor resistencia para correr, que facilitan unas piernas más largas. Más bien, parece que eran rechonchos, anchos y bajos, muy parecidos a los 'H. heildebergensis' de hace 800.000 años encontrados en los yacimientos de Atapuerca, y antepasados de los neandertales.

Han tenido que pasar varios años para que finalmente viera la luz el análisis de la pelvis y una vértebra lumbar encontrada en Gona, en un área desértica que en el Pleistoceno era un pantano próximo a una pradera. Todo un acontecimiento, habida cuenta de los escasos retos de este ancestro humano que han salido a la luz hasta ahora.

Los paleontólogos norteamericanos, dirigidos por Scott W. Simpson, de la Universidad de Cleveland (EE.UU.), han reconstruido en alta resolución las partes que faltaban en la pelvis para concluir que su canal para el parto era más grande de lo que previamente se pensaba hasta ahora.

El investigador español Manuel Domínguez-Rodrigo, de la Universidad Complutense, que ha trabajado con el equipo que encontró la pelvis en Etiopía, afirma que este fósil «demuestra que las hembras de esta especie no podían acomodar fetos de un 40% o un 50% del tamaño de los cerebros adultos, por lo que el inicio del proceso de un desarrollo lento y prolongado, como es el del humano actual, se retrotrae a hace 1,5 millones de años».

Eso no quiere decir que las crías fueran indefensas durante tanto tiempo como los niños de nuestra especie, puesto que su cerebro ya era bastante grande pero si indica que su desarrollo era más lento que el de los chimpancés y otros primates". Según el estudio, era un 30% mayor de lo que se pensaba antes de este hallazgo.

Otro rasgo importante de la pelvis es su acetábulo, el hueco en la pelvis en el que se coloca la cabeza del fémur. El fósil indica que era más pequeño que lo que se creía y eso quiere decir que la homínida en cuestión media únicamente entre 1,2 y 1,46 metros, muy lejos del 1,8 que se atribuía a sus congéneres varones.

Hay que recordar que las estimaciones anteriores se basaban principalmente en los fósiles del 'H. erectus' del famoso Niño de Turkana, unos restos de un varón de unos 11 años encontrados en Kenia en 1985. Fue el estudio de esos huesos lo que determinó el aspecto de la especie. Todas las teorías se construyeron sobre la apariencia de ese cuerpo larguirucho y ágil.

LA TESIS DE ATAPUERCA

Algunas voces, sin embargo, ya habían discrepado de esa interpretación, entre ellas las del equipo de Atapuerca, que encontró en 1994 una pelvis de 'H. heilderbergensis', bautizada como 'Elvis', que no cuadraba con la reconstrucción del Niño de Turkana porque era más ancha.

Juan Luis Arsuaga, codirector del proyecto Atapuerca, que fue quien encontró esta pelvis, estaba ayer satisfecho de que este trabajo confirme su tesis: "Desde hace 14 años ya venimos defendiendo en todos los foros internacionales que todo el modelo de evolución humana estaba mal hecho, que la anchura del cuerpo no varió hasta la aparición del 'Homo sapiens' y que la reconstrucción del 'Niño de Turkana' estaba equivocada y la estrechez de su pelvis no era tal porque no era una adaptación al clima. Por ello los neandertales también eran corpulentos", argumenta el paleontólogo.

En la misma línea se manifiesta otro de los codirectores, José María Bermúdez de Castro: "Con el Niño de Turkana se equivocaron los cálculos, se pensó su desarrollo como si éste fuera un humano moderno que sigue creciendo, y bastante, hasta los 18 años, pero el 'erectus' a los 12 años ya casi había cesado su desarrollo y nunca llegaría a medir 1,8 metros".

Bermúdez de Castro también cree que estos antepasados humanos, que habitaron el planeta hace 1,8 millones de años, nacían "más espabilados" que los bebés de hoy".

Domínguez Rodrigo pone otro asunto sobre la mesa: el dimorfismo sexual (diferencia del tamaño de hembras y machos) que podría reflejar esta nueva pelvis. El paleontólogo considera que, si realmente el Niño de Turkana llegó a ser alto, ello significaría que habría habido dos tipos de hembras. Unas habrían sido esbeltas y adaptadas a medios tropicales y otras de estatura más baja y más adaptadas a climas templados o fríos.

"Una segunda opción es que lo que ahora llamamos 'Homo erectus' realmente sean dos especies diferentes. La anatomía del Niño de Turkana muestra una adaptación tropical, preparada para una carrera de fondo, que no se documenta en la hembra de la nueva pelvis", afirma este experto.

Es decir, en su opinión, el nuevo estudio no rebate la idea de que el 'erectus' no fuera alto y ágil para correr, sino que es otra especie aún por determinar. Desde su punto de vista, "ningún paleontólogo puede refutar que 'Homo erectus' fuera un homínido adaptado al medio tropical, con dimorfismo sexual [diferencias entre hembras y machos] reducido y adaptado a la carrera de fondo para su supervivencia".

Todo ello viene a decir que aún nos queda mucho por saber de nuestro pasado y que las interpretaciones pueden ser muy diferentes porque aún faltan muchas piezas del 'puzzle' de la evolución humana.

Autor: Rosa M. Tristán

Noticias del blog relacionadas:

'Homo sapiens' pudo salir de África a través del Sahara

Datos del pasado para predecir el Cambio Climático

Este articulo me parece interesante porque refleja lo dificil que es demostrar las cosas en ciencia y como los conocimientos deben ser sometidos a continuas revisiones ya que nada en ciencia es dinámico y no se deben hacer valoraciones a la ligera, como sucede en nuestros tiempos, donde algunos se empeñan en buscar culpables para el cambio climático o decir que éste no existe, y se olvidan de poner en ,archa mecanismos para evitarlo o corregirlo.

Regresar al pasado para llegar al futuro. Este procedimiento, aparentemente contradictorio, es la herramienta de los físicos que trabajan en la creación de los modelos climáticos y se esfuerzan en superar la ciencia descriptiva para anticipar el comportamiento atmosférico.

FUENTE | Público. Portugal 14/11/2008

Para lograrlo, necesitan todos los datos pasados y presentes disponibles y la extraordinaria capacidad de computación de sus superordenadores.

El director de la División de Clima Global del Real Instituto Meteorológico de los Países Bajos (KNMI) y responsable del proyecto EC-Earth, Wilco Hazeleger, explica que el clima "tiene tantas mutaciones internas que es preciso recoger mucha información para estar seguros de que lo que se está produciendo es un cambio motivado por la acción del hombre, y no un proceso de orden natural". La correcta delimitación de los efectos de la acción humana será la que permita adoptar medidas de corrección adecuadas.

Los científicos encargados de la elaboración de modelos computacionales del clima trabajan en la captación de datos, posteriormente enjuiciados a través de leyes físicas con dos fines principales: tomar decisiones de ámbito global para actuar sobre el calentamiento global y poder anticipar las consecuencias regionales sobre actividades esenciales para el hombre, como la agricultura, el comportamiento de la tierra o la salud. La herramienta básica, por tanto, "son fórmulas físicas en las que se introducen nuevos factores, como la radiación, la termodinámica o los gases de efecto invernadero", explica el investigador.

Para conseguir que esos cálculos se lleven a cabo son precisos unos superordenadores con gran capacidad de computación. En Barcelona existe uno de los más potentes de Europa, el Mare Nostrum. El director del Área de Ciencias de la Tierra de este centro, José María Baldasano, explica que la capacidad de rendimiento de estas máquinas se mide en FLOPS (operaciones en coma flotante por segundo) y que el instalado en Barcelona cuenta con una potencia de 94 teraFLOPS y 10240 procesadores, lo que le lleva a ejecutar "en siete días una simulación que un ordenador normal tardaría 48 años en terminar".

MAYOR PRECISIÓN

El panorama es bueno, además, porque existen vías de mejora para estas modelizaciones climáticas. De un lado, explica Baldasano, "es necesaria una mayor regionalización de los datos. Al principio se estudiaba el clima con una resolución de malla de 500 kilómetros por cuadrícula y ahora estamos en una cantidad de 110 kilómetros por unidad de estudio. Esto nos permite ser más precisos en la proyección final". Y también, completa Hazeleger, es esencial compartir recursos y contenidos; en el programa EC-Earth, que él dirige, veinte institutos de investigación han estudiado "dos millones de líneas de software, muy lejos de las 10.000 que podría manejar una única persona".

"Los modelos tienen la capacidad de reproducir lo que ha pasado, por eso son fiables para anticipar lo que vendrá más adelante", explica Baldasano. ¿Y qué será? "Un incremento de la temperatura media de 2,4 grados si no se reducen al 50% las emisiones de gases de efecto invernadero y aerosoles actuales", confirma.

Autor: Víctor Charneco

La roca que convierte el CO2 en cuarzo

La peridotita, una roca abundante en el desierto de Omán, reacciona ávidamente con el CO2 para formar caliza o mármol. La posibilidad de transportarla hasta las factorías energéticas para absorber sus emisiones se ha descartado por su alto coste, pero ahora se abre camino la idea contraria: llevar el CO2 hasta la roca y bombearlo a su interior.

FUENTE | El País 24/11/2008

La peridotita de Omán, según los últimos cálculos, puede absorber 4.000 de los 30.000 millones anuales de toneladas de dióxido de carbono que producimos, más o menos la octava parte de lo que emiten en el mismo periodo las industrias y medios de transporte de todo el mundo.

La peridotita es la roca mayoritaria del manto, la capa que subyace a la corteza terrestre a profundidades mayores de 20 kilómetros. Pero los movimientos tectónicos han hecho aflorar tramos de manto -con unos cinco kilómetros de largo- en algunos lugares de la superficie terrestre, como el desierto de Omán, Papúa Nueva Guinea, Nueva Caledonia y las costas de Grecia y la antigua Yugoslavia.

Los cálculos de Peter Kelemen y Juerg Matter, de la Universidad de Columbia en Nueva York, no son producto de una revolucionaria tecnología de teledetección, sino de un lustro de anticuada geología de campo en el desierto de Omán. Kelemen y Matter han descubierto que la reacción de la peridotita con el CO2 ocurre continuamente de forma natural en el subsuelo. Y que unos simples métodos de taladro en la roca e inyección del gas pueden acelerarla un millón de veces y convertirla en un método barato y permanente para almacenar CO2 atmosférico.

Una de las ventajas del proceso de inyección, afirman los científicos, es que estaría en gran parte autoalimentado. Habría que gastar energía en meter el gas a presión en el agua, y en calentar ese fluido para inyectarlo por primera vez en la roca. Pero una vez arrancado, el ciclo se mantiene por dos fuentes internas de calor: el geotérmico (del subsuelo) y el derivado de la reacción de la peridotita con el CO2.

La técnica evita el traslado de la piedra hasta el gas, pero no el del gas hasta la piedra. Pero el gas no viajará mucho de momento: la primera industria emisora de CO2 que se ha mostrado interesada en un proyecto piloto con la peridotita de Omán es Petroleum Development Oman, la compañía petrolera estatal de ese país.

"Nuestra previsión es que las pruebas de campo usen CO2 de nuevas plantas energéticas en Omán", dice Kelemen. "Esto puede extenderse después; los omaníes planean incrementar mucho su producción de electricidad, y otros países árabes pueden ir detrás, porque prefieren exportar electricidad que gas natural".

¿Es entonces la peridotita una solución local? "Para Europa", responde Kelemen, "hay la opción de mandar el dióxido de carbono por tuberías hasta los grandes depósitos de peridotita de los Balcanes. Los otros grandes yacimientos existentes en superficie, que están en Papúa Nueva Guinea y Nueva Caledonia, serían inaccesibles para los países occidentales, pero hay depósitos menores en el oeste de Estados Unidos, el norte de África, Rusia y también en su país, España".

El otro autor del trabajo, Juerg Matter, añade: "La manera más inmediata de aplicar la técnica es capturar el dióxido de carbono en las factorías energéticas por métodos convencionales, y luego transportarlo a peridotitas cercanas por tuberías de corta distancia". Nuevamente, ¿el método se revelaría útil sólo para aplicaciones locales?

"Hay otras posibilidades", responde Matter. "El depósito de peridotita que hemos estudiado se extiende por debajo del fondo oceánico en el golfo de Omán. Taladrando agujeros de suficiente profundidad, podrían inyectarse cantidades masivas de agua marina en la roca".

Puesto que el agua del mar intercambia continuamente dióxido de carbono con la atmósfera (la concentración de CO2 está en equilibrio entre el aire y el agua, en la jerga), el resultado final de esta operación sería la retirada de dióxido de carbono de la atmósfera. Matter prosigue: "El fluido inyectado se calentaría gracias al gradiente geotérmico (el hecho de que las profundidades del subsuelo estén más calientes que la superficie, o que el mar) y el dióxido de carbono disuelto en el agua se iría convirtiendo en minerales de carbonato tras su reacción con la peridotita.

El ciclo se autoalimentaría por convección térmica (el agua caliente es menos densa y busca subir a la superficie), lo que haría innecesario gastar energía en bombear el agua entre el agujero de entrada y el de salida".

"Una de las principales fuentes de CO2 en Omán son las plantas de producción de electricidad alimentadas por gas natural", sigue explicando el científico de Nueva York. "El dióxido de carbono puede capturarse allí con tecnologías existentes (membranas, amine scrubbing)".

"Es una suerte que tengamos este tipo de rocas en la región del Golfo", dice Matter. "Gran parte del petróleo mundial se produce allí, y Omán está construyendo nuevas plantas eléctricas alimentadas por gas natural, que se convertirán en grandes fuentes de dióxido de carbono".

La peridotita no es la única roca que absorbe dióxido de carbono. Matter coordina otro proyecto en la planta geotérmica de Hellisheidi, en Islandia, para probar la utilidad del basalto local con ese mismo fin. Los ensayos empezarán la próxima primavera en colaboración con Reykjavik Energy y las universidades de Islandia y Toulouse.

Autor: Javier Sampedro

En el blog hay otra noticia relacionada con esta: Investigadoes estadounidenses proponen un método para almacenar CO2 de forma natural.

Los glaciares ocultos de Marte

Un grupo de científicos estadounidenses ha descubierto glaciares lejos de los polos de Marte y a pocos metros de la cubierta rocosa del planeta, según un estudio publicado por la revista "Science". "Se trata de un descubrimiento muy importante porque no sólo constata la existencia de agua en Marte sino que cubre la necesidad de ese elemento que tendrán las futuras misiones interplanetarias", señaló a Efe Ali Safaeinili, científico del Laboratorio de Propulsión a Chorro (JPL) de la NASA.

FUENTE | Agencia EFE 21/11/2008

También es importante porque el agua de esos glaciares se encuentra en latitudes bajas del planeta, lejos de los polos, y en algunos casos a sólo unos tres metros de profundidad", indicó. El descubrimiento fue hecho con el radar de la sonda Mars Reconnaissance Orbiter (MRO) de la agencia espacial estadounidense hace un año.

"Tardamos en hacer el anuncio del descubrimiento porque queríamos estar seguros de él e hicimos todas las verificaciones posibles", agregó. Debido a que el agua es uno de los ingredientes esenciales de la vida tal como la conocemos en la Tierra, el hallazgo de grandes reservas del líquido congelado es un signo alentador para los científicos que buscan vida más allá de nuestro planeta, indicó el estudio publicado por "Science".

Los glaciares cubren una superficie de decenas de miles de kilómetros cuadrados y se extienden desde las montañas marcianas con un espesor en algunos casos de unos 800 metros. La capa de material rocoso que cubre el hielo, en otros casos de un grosor de unos pocos metros, posiblemente preservó los glaciares como reliquias de una pasada glaciación, indicó "Science". Los primeros indicios de agua en Marte fueron detectados hace cuatro años por los vehículos "Spirit" y "Opportunity" y confirmados después por el "Phoenix", un tercer vehículo de la NASA.

"Sin duda estos glaciares representan la mayor reserva de agua en Marte, lejos de las capas polares. Sólo uno de los que examinamos es tres veces más extenso que la ciudad de Los Ángeles (California)...y hay muchos más", indicó John Holt, de la Escuela de Geociencias de la Universidad de Texas y autor del informe.

Además "son una ventana a un clima que fue muy diferente a lo que es hoy Marte", dijo Holt en una entrevista telefónica. El descubrimiento hecho por el radar de MRO despejó un misterio que había surgido en la década de 1970 cuando las sondas Viking de la NASA detectaron faldas ondulantes que provenían de las montañas. Una teoría indicaba que se trataba de flujos de rocas lubricadas por el hielo. Sin embargo, Holt indicó que se parecían mucho a los enormes glaciares detectados también bajo la roca en la Antártida y para cuyo estudio se había utilizado el radar.

"Y en la Tierra, esas masas de hielo oculto en la Antártida preservan el registro de antiguos organismos y la historia del pasado climático", dijo James Head, científico de la Universidad de Brown.

La solución del rompecabezas fue proporcionada por el radar de la sonda de la NASA, el cual indicó que esas configuraciones topográficas contienen enormes cantidades de hielo. Según el informe de "Science", las pruebas de la presencia de agua congelada son múltiples.

Los ecos del radar recibidos por el orbitador pasan a través del material y rebotan desde una superficie interior más profunda sin una pérdida importante de su fuerza, como ocurre cuando hay agua con una capa relativamente delgada que la cubre.

Por otra parte, la velocidad de las ondas de radio que atraviesan la capa se ajusta a una composición de agua congelada, indicó el informe. Los glaciares en los que se centró el estudio están ubicados en la región de la cuenca de Hellas, en el hemisferio sur marciano, pero el radar también detectó formaciones similares en el hemisferio norte.

"Existe un volumen todavía mayor de agua congelada en los depósitos del norte", aseguró Jeffrey Plaut, científico de JPL. Holt explicó que la presencia de glaciares en latitudes bajas de ambos hemisferios se explicaría por un cambio que sufrió en algún momento el eje de rotación de Marte, el cual empujó el agua de los polos a esos lugares.

Recetas para abaratar la batalla contra el CO2

España no va a poder cumplir con sus compromisos de reducciones de CO2 como miembro de la Unión Europea antes de 2020 (20% menos de gases de efecto invernadero), ni los objetivos del Protocolo de Kioto en 2012 (-5%), según el Instituto de Sostenibilidad de los Recursos (ISR).

FUENTE | Cinco Días 21/11/2008

Aunque para este organismo esa certeza no invalida la Estrategia de Cambio Climático del Gobierno. Proyecto@O2, una iniciativa de este think tank privado que funciona como un lobby de interés medioambiental, propone 23 medidas agrupadas en diez soluciones para reducir la huella de carbono de la economía española.

El ISR critica que el Gobierno se haya centrado en llegar a Kioto priorizando el comercio de emisiones y el pago de multas, en lugar de impulsar proyectos para reducir las emisiones. En contrapartida, @O2 extiende la actuación a la reducción de emisiones, proyectos forestales, medidas fiscales, tecnologías verdes, movilidad sostenible, gestión de residuos, ahorro, construcción, renovables e I+D+i.

Su propuesta mejoraría medidas ya recogidas en la estrategia española. Pero va más allá. Plantea ampliar el comercio de emisiones a sectores muy contaminantes pero no sometidos a la normativa europea; propone la promoción de la conducción eficiente entre los automovilistas; impulsar el uso del ferrocarril como transporte sostenible; gravar el uso de la energía con un impuesto dirigido a los grandes consumidores y crear un etiquetado (carbono labelling) que refleje la 'huella del carbono' de cada producto; es decir, la cantidad de emisiones que se han emitido para producirlo.

Y además, defiende que saldría más barato que los actuales planes del Gobierno. Según sus cálculos, combatir el cambio climático con su plan ahorraría 729 millones de euros respecto de los 1.634 millones presupuestados por el Gobierno hasta 2020. Ese año la Unión Europea tendría que haber conseguido rebajar un 20% la emisión CO2 y utilizar un 20% de renovables, de acuerdo a la estrategia europea. Además, el plan del ISR restaría complejidad a la batalla contra los gases de efecto invernadero puesto que la estrategia oficial contempla más de 200 medidas frente a sus 23. Y, para rematarla, 'generarían riqueza y empleo', según aseguró Juan Ignacio Elorrieta, director del proyecto, en la presentación del informe Horizonte 2020, que plasma esas ideas.

Incluso en un escenario a más corto plazo, como el planificado por el Protocolo de Kioto (2008-2012), las ideas del ISR también abaratarían la factura. El coste estimado para alcanzar los objetivos de Kioto a partir de las propuestas del Ministerio de Medio Ambiente se cifra en 1.065 millones de euros anuales. La propuesta de Proyecto @O2 saldría por 142 millones de euros menos. Y, pese a que el ISR prefiere esperar a realizar los últimos ajustes para ofrecer estimaciones del empleo y la riqueza que generaría @O2, Elorrieta adelantó que sólo en el sector forestal 'produciría más de 6.500 nuevos puestos de trabajo'.

Si se implantasen las 23 medidas @O2, las emisiones crecerían un 51%, 'cinco puntos menos', según explicó Carlos Gómez, director del ISR. En contra, con las medidas previstas por el Gobierno, las emisiones de CO2 aumentarían un 56% sobre 1990 (año de referencia de Kioto). En el escenario proyectado por el plan europeo, a 2020, con las medidas del ministerio, España emitiría 504.603 kilotoneladas y, con las de @O2, 472.924.

@O2 excluye la energía nuclear y los biocombustibles ya que son áreas 'controvertidas' y 'por ahora, llenas de incertidumbres', según Elorrieta.

Autor: Marta Molina



1.- ¿Cual es la propuesta del Proyecto@02?

2.- ¿Qué medidas concretas propone realizar al Gobierno?

3.- ¿Qué es la huella del carbono?

4.- ¿Según el ISR sale "rentable" aplicar las 23 medidas que proponen?

jueves, 20 de noviembre de 2008

España es el país desarrollado que más ha aumentado sus emisiones de CO2

A sólo dos semanas de que comience la decimocuarta Cumbre del Clima, que este año se celebra en Poznan (Polonia), la Secretaría de Cambio Climático de la ONU hizo públicos los datos de emisiones de gases de efecto invernadero de los países industrializados.
FUENTE | ABC Periódico Electrónico S.A. 18/11/2008

Entre éstos, los más relevantes son los de los 41 países que forman parte del Anexo I de la Convención de Cambio Climático. Estos son los países que tienen compromiso de reducción en el Protocolo de Kioto, si bien Estados Unidos y Turquía no han ratificado dicho Tratado, por lo que el nivel de cumplimiento queda restringido a 39 países.

España vuelve a situarse como el país que más ha aumentado sus emisiones desde 1990, año considerado base en el protocolo de Kioto. Los datos se refieren a 2006. En ese periodo de tiempo nuestro país ha aumentado sus emisiones un 49,5%, cuando nuestro objetivo en el Protocolo es el de no aumentarlas más de un 15 por ciento hasta 2012.

ACCIÓN URGENTE

En conjunto, los países desarrollados han disminuido sus emisiones desde 1990 en un 5%. A pesar de que este dato es positivo, lo cierto es que esconde una tendencia preocupante. Si el análisis se hace desde el año 2000 las emisiones han aumentado un 2,3 por ciento. Según señaló el secretario ejecutivo de la Convención del Cambio Climático, Yvo de Boer, «estos datos son motivo de preocupación y una señal de que se necesita una acción política urgente». Y es que aunque las emisiones se hayan reducido en un 5% desde 1990, ese retroceso se debió en buena medida a la caída de la Unión Soviética y de sus economías y menos a los esfuerzos en materia ambiental. Además, son precisamente estos países emergentes los que han experimentado un mayor crecimiento de sus emisiones (un 7,4%) entre 2000 y 2006.

No obstante, Yvo de Boer se mostró optimista en cuanto a las posibilidades de alcanzar los objetivos del protocolo de Kioto hasta 2012, si bien afirmó que la crisis económica internacional tendrá efectos importantes en la lucha contra el cambio climático.

POSICIÓN DE EE.UU.

Por ello, De Boer consideró positivo que aún quede más de un año, hasta diciembre de 2009, para perfilar el acuerdo que debe sustituir a Kioto y que deberá contener los esfuerzos que el mundo debe hacer en materia de mitigación hasta 2020. En este sentido, el representante de Naciones Unidas admitió tener grandes expectativas en la posición que tomará el presidente electo de Estados Unidos, Barack Obama, respecto a la lucha contra el cambio climático.

Autor: A. Acosta

El vapor de agua multiplicará por dos el calentamiento del planeta

Una de las verdades más conocidas para los climatólogos es que el vapor de agua es el más potente gas de efecto invernadero. Es fácilmente comprobable por cualquiera que se duche y sienta que el cuarto de baño se ha recalentado, o cuando se viaja a un país tropical y la humedad aumenta la intensidad del calor.
FUENTE | El Mundo Digital 19/11/2008

Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.

Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).

Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.

Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.

Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.

El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.

Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.

Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.

"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.

LOS BOSQUES REGULAN EL CLIMA

Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).

Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.

Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.

Autor: Tana Oshima

jueves, 13 de noviembre de 2008

Desenmascarando al VIH

Para el VIH siempre es Halloween. O Carnaval. Se ha convertido en un auténtico maestro del disfraz, capaz de cambiar rápidamente de identidad para permanecer oculto en el organismo y propagarse a sus anchas. Sin embargo, esta habilidad a la que ahora saca tanto rendimiento podría servirle de poco en un futuro, ya que unos investigadores han manipulado unas células inmunes que, en cultivos celulares, han sido capaces de identificar todos los disfraces del virus.

FUENTE | El Mundo Digital 10/11/2008

Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).

Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.

Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.

Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.

"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.

UNA ESTRATEGIA DE DESGASTE

Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.

"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.

No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.

Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.

Autor: Isabel F. Lantigua

Crece el agujero de la capa de ozono pero no alcanza el récord de 2006

Un grupo de científicos del Centro Aeroespacial Alemán (DLR) ha descubierto que el agujero de la capa de ozono en la Antártida ha aumentado este año respecto al 2007 pero es menor que en 2006.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008

La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.

A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.

El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.

Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.

Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".

El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".

Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".

El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.

Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.



1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?

2.- ¿Qué es el agujero de la caopa de ozono?

3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.

4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?

5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?

A un paso del colapso de los océanos

Todos los datos apuntan "con aplastante evidencia" a que los océanos están sufriendo, especialmente durante este lustro, una degradación acelerada que los está llevando al "umbral del colapso", en palabras de Carlos M. Duarte, uno de los biólogos más reconocidos en ecosistemas marinos y codirector del Primer Congreso Mundial de Biodiversidad Marina, que reúne en Valencia a más de 500 investigadores.

FUENTE | El País 12/11/2008

Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".

¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".

Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.

Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.

La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.

Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.

También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.

En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.

Autor: Jaime Prats

1.- ¿Cuales son las principales muestras de deterioro oceánico?

2.- ¿Qué efectos del cambio climático son observables en los océanos?

3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?

4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?

martes, 11 de noviembre de 2008

Los niveles de metano en la atmósfera se dispararon a partir de 2007

La cantidad de metano en la atmósfera terrestre se disparó en el año 2007, poniendo fin a casi diez años en que los niveles atmosféricos de este potente gas de efecto invernadero se mantuvieron estables. Así lo revela un estudio publicado en la revista de la Unión Geofísica Americana, a partir de una red de medición de la NASA. Los niveles en la atmósfera de ese gas se han más que triplicado desde la era preindustrial, y actualmente suponen una quinta parte de la contribución humana al calentamiento global.

FUENTE | ABC Periódico Electrónico S.A. 03/11/2008

Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.

BALANCE DESCOMPENSADO

El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.

Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.

Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.

TEMPERATURAS ALTAS EN SIBERIA

De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.

Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.

MÁS ESTUDIOS

Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.

Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.

«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.

Autor: A. Acosta


1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?

2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?

3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?

4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?

5.- ¿Son estos estudios definitivos? Explica tu respuesta.

lunes, 10 de noviembre de 2008

Investigadores estadounidenses proponen un método para almacenar CO2 de forma natural

Si dejamos de lado la vacuna del sida o la cura del cáncer, quizá el descubrimiento científico más perseguido en la actualidad sea el invento que permita almacenar el exceso de CO2 que emitimos a la atmósfera. Esto supondría poner un punto final a los problemas derivados del calentamiento global.

FUENTE | El Mundo Digital 04/11/2008

En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.

Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.

En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.

Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).

Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.

Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.

"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.

Autor: Miguel G. Corral