Aquí os dejo un enlace que os dirige a la página de Greenpeace en la que os podeis descargar la Guia Roja y Verde de Alimentos Transgénicos, publicada en Febrero de 2009 en la que se indican aquellos productos/marcas que utilizan alimentos transgénicos, así como los motivos que llevan a esta ONG a estar en contra del uso de los mismos.
Además a partir de este enlace podeis navegar por la página de Greenpeace y seguro encontrar noticias muy interesantes.
Guia Roja y Verde de Alimentos Transgénicos
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
miércoles, 20 de mayo de 2009
lunes, 18 de mayo de 2009
La contaminación por plomo podría haber mantenido el clima más frío, según un estudio
Un estudio reciente financiado con fondos comunitarios revela que las partículas de plomo que se encuentran en la atmósfera han favorecido la formación de nubes. Los investigadores sugieren en un artículo publicado en la revista Nature Geoscience que la contaminación atmosférica por plomo podría haber amortiguado los efectos del cambio climático durante las últimas décadas.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 18/05/2009
Esta investigación recibió apoyo comunitario de la Red de Excelencia «Cambio de la composición atmosférica», financiada mediante el área temática «Desarrollo sostenible, cambio global y ecosistemas» del Sexto Programa Marco (6PM).
La mayor parte del plomo que contiene la atmósfera procede de actividades humanas. Las principales fuentes de emisión son la combustión de carbón y gasolina con plomo, el vuelo de aviones pequeños a la altura de la formación de nubes y las tareas de construcción que liberan plomo del suelo.
Mientras que las emisiones de gases de efecto invernadero propician el calentamiento global, la emisión de pequeñas partículas que contienen sustancias como el plomo puede generar el efecto contrario. Estas partículas, al entrar en contacto con el vapor de agua atmosférico, provocan la formación de nubes que, dependiendo de su altitud y densidad, pueden tanto reflejar la luz solar procedente del espacio como retener el calor de la Tierra.
El objetivo de este estudio reciente consistió en determinar cómo afecta el plomo a la formación de nubes. Para llevar a cabo este estudio, científicos de Alemania, Suiza y Estados Unidos «capturaron» nubes que se habían formado de forma natural en varias cimas de montañas situadas al este y al oeste del Atlántico y, por otra parte, estudiaron en el laboratorio nubes formadas de forma artificial en cámaras de nubes diseñadas a tal efecto.
Sus investigaciones revelaron que el plomo cambiaba las condiciones necesarias para la formación de nubes: cuando hay presencia de plomo en la atmósfera, se forman nubes aunque el aire no posea el grado de humedad o temperatura necesario.
Además, los modelos informáticos demostraron que las partículas que contienen plomo cambian de tal forma las propiedades de las nubes que llega a influir en la cantidad de radiación de onda larga que escapa de la Tierra. Entre los años setenta y ochenta, antes de la introducción y generalización de la gasolina sin plomo, la mayoría de las partículas de polvo que flotaban en la atmósfera estaban probablemente contaminadas con plomo, lo que provocaba que la Tierra liberara más calor al espacio.
«Probablemente, esto provocó que se contuviera hasta cierto punto el aumento de las temperaturas en todo el planeta,mientras que hoy en día el efecto invernadero ejerce prácticamente toda su influencia sin obstáculos», explicó el profesor Joachim Curtius de la Universidad Goethe de Fráncfort del Meno (Alemania).
Pocos serían los que recomendarían hoy introducir más plomo en la atmósfera para contrarrestar los efectos del calentamiento global, ya que es un metal muy tóxico y perjudicial para la salud humana. «Sin embargo, con la sabiduría que da la experiencia, ahora podemos explicar que el aumento tan rápido de las temperaturas en los últimos años se debe a que la humanidad ha reducido sus emisiones de plomo y sulfatos», afirmó el profesor Stephen Borrmann de la Universidad Johannes Gutenberg de Maguncia (Alemania).
«Sabemos que la mayor parte del plomo que contiene la atmósfera proviene de fuentes antropogénicas», comentó el autor principal del estudio, Dan Cziczo, del Pacific Northwest National Laboratory (Estados Unidos) del Departamento de Energía. «Ahora podemos demostrar que el plomo está cambiando las propiedades de las nubes y, por lo tanto, la cantidad de energía solar que afecta a nuestra atmósfera.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 18/05/2009
Esta investigación recibió apoyo comunitario de la Red de Excelencia «Cambio de la composición atmosférica», financiada mediante el área temática «Desarrollo sostenible, cambio global y ecosistemas» del Sexto Programa Marco (6PM).
La mayor parte del plomo que contiene la atmósfera procede de actividades humanas. Las principales fuentes de emisión son la combustión de carbón y gasolina con plomo, el vuelo de aviones pequeños a la altura de la formación de nubes y las tareas de construcción que liberan plomo del suelo.
Mientras que las emisiones de gases de efecto invernadero propician el calentamiento global, la emisión de pequeñas partículas que contienen sustancias como el plomo puede generar el efecto contrario. Estas partículas, al entrar en contacto con el vapor de agua atmosférico, provocan la formación de nubes que, dependiendo de su altitud y densidad, pueden tanto reflejar la luz solar procedente del espacio como retener el calor de la Tierra.
El objetivo de este estudio reciente consistió en determinar cómo afecta el plomo a la formación de nubes. Para llevar a cabo este estudio, científicos de Alemania, Suiza y Estados Unidos «capturaron» nubes que se habían formado de forma natural en varias cimas de montañas situadas al este y al oeste del Atlántico y, por otra parte, estudiaron en el laboratorio nubes formadas de forma artificial en cámaras de nubes diseñadas a tal efecto.
Sus investigaciones revelaron que el plomo cambiaba las condiciones necesarias para la formación de nubes: cuando hay presencia de plomo en la atmósfera, se forman nubes aunque el aire no posea el grado de humedad o temperatura necesario.
Además, los modelos informáticos demostraron que las partículas que contienen plomo cambian de tal forma las propiedades de las nubes que llega a influir en la cantidad de radiación de onda larga que escapa de la Tierra. Entre los años setenta y ochenta, antes de la introducción y generalización de la gasolina sin plomo, la mayoría de las partículas de polvo que flotaban en la atmósfera estaban probablemente contaminadas con plomo, lo que provocaba que la Tierra liberara más calor al espacio.
«Probablemente, esto provocó que se contuviera hasta cierto punto el aumento de las temperaturas en todo el planeta,mientras que hoy en día el efecto invernadero ejerce prácticamente toda su influencia sin obstáculos», explicó el profesor Joachim Curtius de la Universidad Goethe de Fráncfort del Meno (Alemania).
Pocos serían los que recomendarían hoy introducir más plomo en la atmósfera para contrarrestar los efectos del calentamiento global, ya que es un metal muy tóxico y perjudicial para la salud humana. «Sin embargo, con la sabiduría que da la experiencia, ahora podemos explicar que el aumento tan rápido de las temperaturas en los últimos años se debe a que la humanidad ha reducido sus emisiones de plomo y sulfatos», afirmó el profesor Stephen Borrmann de la Universidad Johannes Gutenberg de Maguncia (Alemania).
«Sabemos que la mayor parte del plomo que contiene la atmósfera proviene de fuentes antropogénicas», comentó el autor principal del estudio, Dan Cziczo, del Pacific Northwest National Laboratory (Estados Unidos) del Departamento de Energía. «Ahora podemos demostrar que el plomo está cambiando las propiedades de las nubes y, por lo tanto, la cantidad de energía solar que afecta a nuestra atmósfera.»
lunes, 4 de mayo de 2009
La amenaza viene del espacio
Es bastante pequeño, las últimas observaciones indican que mide unos 270 metros, pero el asteroide Apofis podría causar una catástrofe de grandes proporciones y ha conseguido galvanizar los esfuerzos de científicos e ingenieros de muchos países para defender la Tierra de las amenazas que vienen del espacio.
FUENTE | El País Digital 29/04/2009
Oyéndolos en el Congreso de Defensa Planetaria que ha reunido a 180 de ellos en Granada, puede parecer que se preparan para una guerra: hablan de amenazas, de que hay muchos enemigos ahí fuera y de la necesidad de que los humanos tomen conciencia del riesgo continuo a que están sometidos. Pero básicamente dejan constancia del nacimiento y rápido desarrollo de una nueva área de investigación, especialmente adecuada para la cooperación internacional, que busca su lugar entre las ciencias espaciales. El astronauta español Pedro Duque lo dice claramente: "Es una nueva era, el riesgo es real y ahora es medible y tenemos la tecnología para detectarlo e intentar evitar sus consecuencias".
El Apofis, descubierto en 2004, se acercará mucho a la Tierra dentro de 20 años, el 13 de abril de 2029, pero por ahora el riesgo de impacto en esa aproximación es nulo. Sin embargo, como pasará a la altura de la órbita geoestacionaria (36.000 kilómetros, menos de la décima parte de la distancia a la Luna) se teme que la perturbación gravitacional le sitúe entonces en rumbo de colisión con el planeta el 13 de abril de 2036. La probabilidad de colisión está en uno entre 45.000 y hay demasiados factores mal conocidos como para afirmar nada, pero aunque pase de largo en 2036, como seguramente lo hará, el Apofis ya es el asteroide más seguido y estudiado de la historia, el catalizador de esfuerzos internacionales sin precedentes para enfrentar las amenazas espaciales.
Por encargo del Congreso de EE.UU., la NASA ha intentado detectar los asteroides potencialmente peligrosos (que se acercan a la Tierra) de más de un kilómetro de diámetro y, tras 10 años, da la labor prácticamente por terminada. Ahora, los expertos señalan que llega la hora de detectar los mayores de 140 metros que, como el Apofis (el único de los más de 1.000 asteroides potencialmente peligrosos detectados que presenta un riesgo apreciable de impacto), pueden hacer también mucho daño. Sin embargo, Don Yeomans, encargado del tema en la NASA, explica que hay poco dinero para hacerlo y que es necesaria la cooperación internacional. De la misma opinión son el astrofísico Rafael Rodrigo, presidente del CSIC, y Jean-Michel Contant, de la Academia Internacional de Astronáutica, también presentes en el congreso.
El Apofis está ahora demasiado cerca del Sol para ser observado. Según Jon Giorgini, del Jet Propulsion Laboratory, las observaciones ópticas podrán reanudarse a finales de 2010 y las de radar en 2013, pero es muy posible que no se pueda saber la probabilidad de impacto para 2036 hasta que llegue en 2029, cuando será visible desde la Tierra sin instrumentos. Para entonces se conocerá su masa, su velocidad de rotación, su forma y sus características térmicas y luego se podrá evaluar la influencia en su trayectoria de su paso por la Tierra. Queda mucho tiempo, y cambios físicos muy pequeños pueden producir cambios muy grandes en el rumbo, recuerda Giorgini.
Prever acercamientos peligrosos como el de Apofis es sólo el primer paso. Los expertos señalan la necesidad de tener preparadas misiones espaciales para intentar desviar los asteroides. Están divididos sobre la conveniencia de utilizar la energía nuclear, pero es una opción.
"Hay tres tipos de misiones posibles, siempre para empujar el asteroide y desviarlo, no para romperlo, que sería todavía peor", explica Duque. Son una explosión nuclear cercana, un vehículo que le empuje (tractor gravitatorio) y un impacto directo. De este último tipo es el Proyecto Don Quijote, de la ESA, aún sin financiación.
En Deimos, la empresa española que concibió el Don Quijote, están adaptándolo para mandar un orbitador a Apofis, una sonda que se acercara y se pusiera en órbita alrededor de él, para poder conocer bien su trayectoria y otras características. "Podría salir en 2015 y llegar en 2017", explica el responsable, Juan Luis Cano. Si la ESA aprobara la misión, sería de demostración tecnológica más que científica, y tendría que tener un coste bajo. Por ahora no fluye el dinero que los expertos espaciales consideran que sería necesario, pero esperan que, a medida que se acerque la aproximación del Apofis, aumente la conciencia social y política y se puedan hacer incluso misiones de demostración a otros asteroides no peligrosos. Lo malo es que sea demasiado tarde. También para eso se preparan los científicos. Calculan las consecuencias de los impactos de asteroides de distintos tamaños, y concluyen que incluso uno pequeño (entre 30 y 50 metros de diámetro, como el de Tunguska) podría destruir una ciudad, pero que si alguno de mayor tamaño cae en el océano, el tsunami resultante tendría consecuencias mucho peores.
Autor: Malen Ruiz de Elvira
FUENTE | El País Digital 29/04/2009
Oyéndolos en el Congreso de Defensa Planetaria que ha reunido a 180 de ellos en Granada, puede parecer que se preparan para una guerra: hablan de amenazas, de que hay muchos enemigos ahí fuera y de la necesidad de que los humanos tomen conciencia del riesgo continuo a que están sometidos. Pero básicamente dejan constancia del nacimiento y rápido desarrollo de una nueva área de investigación, especialmente adecuada para la cooperación internacional, que busca su lugar entre las ciencias espaciales. El astronauta español Pedro Duque lo dice claramente: "Es una nueva era, el riesgo es real y ahora es medible y tenemos la tecnología para detectarlo e intentar evitar sus consecuencias".
El Apofis, descubierto en 2004, se acercará mucho a la Tierra dentro de 20 años, el 13 de abril de 2029, pero por ahora el riesgo de impacto en esa aproximación es nulo. Sin embargo, como pasará a la altura de la órbita geoestacionaria (36.000 kilómetros, menos de la décima parte de la distancia a la Luna) se teme que la perturbación gravitacional le sitúe entonces en rumbo de colisión con el planeta el 13 de abril de 2036. La probabilidad de colisión está en uno entre 45.000 y hay demasiados factores mal conocidos como para afirmar nada, pero aunque pase de largo en 2036, como seguramente lo hará, el Apofis ya es el asteroide más seguido y estudiado de la historia, el catalizador de esfuerzos internacionales sin precedentes para enfrentar las amenazas espaciales.
Por encargo del Congreso de EE.UU., la NASA ha intentado detectar los asteroides potencialmente peligrosos (que se acercan a la Tierra) de más de un kilómetro de diámetro y, tras 10 años, da la labor prácticamente por terminada. Ahora, los expertos señalan que llega la hora de detectar los mayores de 140 metros que, como el Apofis (el único de los más de 1.000 asteroides potencialmente peligrosos detectados que presenta un riesgo apreciable de impacto), pueden hacer también mucho daño. Sin embargo, Don Yeomans, encargado del tema en la NASA, explica que hay poco dinero para hacerlo y que es necesaria la cooperación internacional. De la misma opinión son el astrofísico Rafael Rodrigo, presidente del CSIC, y Jean-Michel Contant, de la Academia Internacional de Astronáutica, también presentes en el congreso.
El Apofis está ahora demasiado cerca del Sol para ser observado. Según Jon Giorgini, del Jet Propulsion Laboratory, las observaciones ópticas podrán reanudarse a finales de 2010 y las de radar en 2013, pero es muy posible que no se pueda saber la probabilidad de impacto para 2036 hasta que llegue en 2029, cuando será visible desde la Tierra sin instrumentos. Para entonces se conocerá su masa, su velocidad de rotación, su forma y sus características térmicas y luego se podrá evaluar la influencia en su trayectoria de su paso por la Tierra. Queda mucho tiempo, y cambios físicos muy pequeños pueden producir cambios muy grandes en el rumbo, recuerda Giorgini.
Prever acercamientos peligrosos como el de Apofis es sólo el primer paso. Los expertos señalan la necesidad de tener preparadas misiones espaciales para intentar desviar los asteroides. Están divididos sobre la conveniencia de utilizar la energía nuclear, pero es una opción.
"Hay tres tipos de misiones posibles, siempre para empujar el asteroide y desviarlo, no para romperlo, que sería todavía peor", explica Duque. Son una explosión nuclear cercana, un vehículo que le empuje (tractor gravitatorio) y un impacto directo. De este último tipo es el Proyecto Don Quijote, de la ESA, aún sin financiación.
En Deimos, la empresa española que concibió el Don Quijote, están adaptándolo para mandar un orbitador a Apofis, una sonda que se acercara y se pusiera en órbita alrededor de él, para poder conocer bien su trayectoria y otras características. "Podría salir en 2015 y llegar en 2017", explica el responsable, Juan Luis Cano. Si la ESA aprobara la misión, sería de demostración tecnológica más que científica, y tendría que tener un coste bajo. Por ahora no fluye el dinero que los expertos espaciales consideran que sería necesario, pero esperan que, a medida que se acerque la aproximación del Apofis, aumente la conciencia social y política y se puedan hacer incluso misiones de demostración a otros asteroides no peligrosos. Lo malo es que sea demasiado tarde. También para eso se preparan los científicos. Calculan las consecuencias de los impactos de asteroides de distintos tamaños, y concluyen que incluso uno pequeño (entre 30 y 50 metros de diámetro, como el de Tunguska) podría destruir una ciudad, pero que si alguno de mayor tamaño cae en el océano, el tsunami resultante tendría consecuencias mucho peores.
Autor: Malen Ruiz de Elvira
Torio, la energía del futuro
La humanidad necesita una revolución energética. Según la Agencia Internacional de la Energía, la demanda mundial de electricidad y combustible aumentará un 45% hasta 2030, y la tercera parte de esa demanda se cubrirá con carbón, el principal culpable del cambio climático.
FUENTE | Público 29/04/2009
El consumo de petróleo también se disparará hasta los 106 millones de barriles diarios, frente a los 85 millones actuales. Y, mientras, las centrales nucleares seguirán en tela de juicio por su estigma de inseguridad y el problema de los residuos radiactivos. Si no se produce una revolución, la humanidad camina hacia un calentamiento global de seis grados centígrados para 2100.
Para esquivar este horizonte, los expertos sueñan con una nueva fuente de energía que sea capaz de abastecer todas las necesidades del planeta. Pero no basta con eso. No podrá emitir dióxido de carbono. Y su materia prima debe ser abundante y encontrarse en países con democracias estables, no en Kazajistán, Namibia y Níger, como ocurre con el uranio. Algunos científicos creen que esta revolución energética no es un sueño. El milagro existe, escondido en un rincón de la tabla periódica. Y se llama torio.
40 VECES MÁS ENERGÉTICO
El Congreso de EE.UU. acaba de descubrir este elemento, descrito por el químico sueco Jöns Jakob Berzelius en 1828. El pasado 21 de abril, el congresista Joe Sestak presentó en el Congreso estadounidense una proposición de ley para que la Secretaría de Energía estudie la posible utilización del torio como combustible nuclear en EE.UU. Unas semanas antes, el mismo diputado había presentado otra propuesta para investigar el uso de torio como combustible en los buques de la Armada.
El uranio no se acaba -según el Organismo Internacional de Energía Atómica hay reservas suficientes para 100 años-, pero los Gobiernos ya están buscando un sustituto. Y el torio parte con ventaja. Como explica el catedrático de Física Atómica, Molecular y Nuclear de la Universidad de Sevilla, Manuel Lozano Leyva, en su libro Nucleares, ¿por qué no?, todo el torio extraído en una mina se puede emplear en un reactor, frente al exiguo 0,7% del uranio natural.
"Si se hace un balance de masa y energía, resulta que cierta cantidad de torio ofrece unas 40 veces más energía que la misma de uranio", ilustra el físico. "Y, para colmo de virtudes del torio, resulta que es prácticamente inútil para la proliferación nuclear y que sus fragmentos de fisión y los transuránicos que produce su absorción de neutrones representan unos residuos mucho menos radiactivos que los del uranio", añade. Por si fuera poco, se estima que las reservas mundiales de torio triplican las de uranio, y más de la tercera parte se encuentran en Australia y EE.UU. El papel de España en esta hipotética energía del futuro no será relevante. Según Enusa, la empresa pública que suministra combustible a las centrales nucleares nacionales, "no existen datos de reservas oficiales de torio en España".
A pesar del nuevo ímpetu de EE.UU., el torio es un viejo conocido para los científicos. En los últimos 30 años, la utilización de este elemento como gasolina nuclear se ha experimentado en Alemania, India, Japón, Rusia, Reino Unido e, incluso, en EE.UU. Pero el desastre de Chernóbil, en 1986, y los bajos precios del petróleo hicieron a muchos países abandonar la investigación.
La carrera por el torio, no obstante, ha creado extraños compañeros de viaje. La empresa estadounidense Thorium Power, creada en 1992, ha probado en los últimos cinco años un combustible de torio y uranio en un reactor experimental del Instituto Kurchatov de Moscú, con dinero público de EE.UU. Los resultados se están evaluando ahora, y el siguiente paso será probar el fuel en un reactor comercial.
India, con un 12% de las reservas mundiales de torio, también mantiene sus líneas de investigación. El ex presidente indio Abdul Kalam, ingeniero aeronáutico de formación, urgió a comienzos de este mes a los jóvenes a utilizar el torio "para reducir la contaminación medioambiental".
EL FRACASO DEL 'RUBBIATRÓN'
El físico Francisco Castejón, responsable de la campaña antinuclear de Ecologistas en Acción, cree que estos ensayos están destinados a fracasar. Y pone un ejemplo muy cercano: el llamado, con sorna, Rubbiatrón. En marzo de 1997 se constituyó en Zaragoza el Laboratorio del Amplificador de Energía, una empresa promovida por el científico italiano Carlo Rubbia, premio Nobel de Física de 1984. Su objetivo era ambicioso: instalar en Aragón un prototipo de reactor de torio para eliminar los residuos radiactivos generados en las centrales nucleares. Finalmente, el proyecto, con un coste de 20.000 millones de pesetas, se abandonó por la fuerte oposición social y política.
Para Castejón, que trabaja en temas de fusión nuclear en el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ciemat), socio en su momento del Rubbiatrón aragonés, los reactores de torio abren demasiadas incógnitas. "Para obtener energía de este elemento, es necesario bombardearlo con neutrones. ¿Cómo generamos esos neutrones? Necesitaríamos bombardear una placa de plomo con protones para generarlos pero, de momento, ese acelerador de protones fundamental no existe", afirma.
Además, señala Castejón, los residuos de los reactores de torio son menos peligrosos que los que emplean uranio, pero seguirán siendo radiactivos durante miles de años. En su opinión, el torio no es el ingrediente de la revolución energética, sino "el último intento de la industria nuclear para continuar llevando a cabo actividades perniciosas".
Autor: Manuel Ansede
FUENTE | Público 29/04/2009
El consumo de petróleo también se disparará hasta los 106 millones de barriles diarios, frente a los 85 millones actuales. Y, mientras, las centrales nucleares seguirán en tela de juicio por su estigma de inseguridad y el problema de los residuos radiactivos. Si no se produce una revolución, la humanidad camina hacia un calentamiento global de seis grados centígrados para 2100.
Para esquivar este horizonte, los expertos sueñan con una nueva fuente de energía que sea capaz de abastecer todas las necesidades del planeta. Pero no basta con eso. No podrá emitir dióxido de carbono. Y su materia prima debe ser abundante y encontrarse en países con democracias estables, no en Kazajistán, Namibia y Níger, como ocurre con el uranio. Algunos científicos creen que esta revolución energética no es un sueño. El milagro existe, escondido en un rincón de la tabla periódica. Y se llama torio.
40 VECES MÁS ENERGÉTICO
El Congreso de EE.UU. acaba de descubrir este elemento, descrito por el químico sueco Jöns Jakob Berzelius en 1828. El pasado 21 de abril, el congresista Joe Sestak presentó en el Congreso estadounidense una proposición de ley para que la Secretaría de Energía estudie la posible utilización del torio como combustible nuclear en EE.UU. Unas semanas antes, el mismo diputado había presentado otra propuesta para investigar el uso de torio como combustible en los buques de la Armada.
El uranio no se acaba -según el Organismo Internacional de Energía Atómica hay reservas suficientes para 100 años-, pero los Gobiernos ya están buscando un sustituto. Y el torio parte con ventaja. Como explica el catedrático de Física Atómica, Molecular y Nuclear de la Universidad de Sevilla, Manuel Lozano Leyva, en su libro Nucleares, ¿por qué no?, todo el torio extraído en una mina se puede emplear en un reactor, frente al exiguo 0,7% del uranio natural.
"Si se hace un balance de masa y energía, resulta que cierta cantidad de torio ofrece unas 40 veces más energía que la misma de uranio", ilustra el físico. "Y, para colmo de virtudes del torio, resulta que es prácticamente inútil para la proliferación nuclear y que sus fragmentos de fisión y los transuránicos que produce su absorción de neutrones representan unos residuos mucho menos radiactivos que los del uranio", añade. Por si fuera poco, se estima que las reservas mundiales de torio triplican las de uranio, y más de la tercera parte se encuentran en Australia y EE.UU. El papel de España en esta hipotética energía del futuro no será relevante. Según Enusa, la empresa pública que suministra combustible a las centrales nucleares nacionales, "no existen datos de reservas oficiales de torio en España".
A pesar del nuevo ímpetu de EE.UU., el torio es un viejo conocido para los científicos. En los últimos 30 años, la utilización de este elemento como gasolina nuclear se ha experimentado en Alemania, India, Japón, Rusia, Reino Unido e, incluso, en EE.UU. Pero el desastre de Chernóbil, en 1986, y los bajos precios del petróleo hicieron a muchos países abandonar la investigación.
La carrera por el torio, no obstante, ha creado extraños compañeros de viaje. La empresa estadounidense Thorium Power, creada en 1992, ha probado en los últimos cinco años un combustible de torio y uranio en un reactor experimental del Instituto Kurchatov de Moscú, con dinero público de EE.UU. Los resultados se están evaluando ahora, y el siguiente paso será probar el fuel en un reactor comercial.
India, con un 12% de las reservas mundiales de torio, también mantiene sus líneas de investigación. El ex presidente indio Abdul Kalam, ingeniero aeronáutico de formación, urgió a comienzos de este mes a los jóvenes a utilizar el torio "para reducir la contaminación medioambiental".
EL FRACASO DEL 'RUBBIATRÓN'
El físico Francisco Castejón, responsable de la campaña antinuclear de Ecologistas en Acción, cree que estos ensayos están destinados a fracasar. Y pone un ejemplo muy cercano: el llamado, con sorna, Rubbiatrón. En marzo de 1997 se constituyó en Zaragoza el Laboratorio del Amplificador de Energía, una empresa promovida por el científico italiano Carlo Rubbia, premio Nobel de Física de 1984. Su objetivo era ambicioso: instalar en Aragón un prototipo de reactor de torio para eliminar los residuos radiactivos generados en las centrales nucleares. Finalmente, el proyecto, con un coste de 20.000 millones de pesetas, se abandonó por la fuerte oposición social y política.
Para Castejón, que trabaja en temas de fusión nuclear en el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ciemat), socio en su momento del Rubbiatrón aragonés, los reactores de torio abren demasiadas incógnitas. "Para obtener energía de este elemento, es necesario bombardearlo con neutrones. ¿Cómo generamos esos neutrones? Necesitaríamos bombardear una placa de plomo con protones para generarlos pero, de momento, ese acelerador de protones fundamental no existe", afirma.
Además, señala Castejón, los residuos de los reactores de torio son menos peligrosos que los que emplean uranio, pero seguirán siendo radiactivos durante miles de años. En su opinión, el torio no es el ingrediente de la revolución energética, sino "el último intento de la industria nuclear para continuar llevando a cabo actividades perniciosas".
Autor: Manuel Ansede
Un estudio muestra el efecto de los microorganismos marinos en el calentamiento oceánico
Los océanos influyen en el sistema climático de la Tierra y han contribuido a frenar el cambio climático al absorber hasta el 33% de las emisiones de gases de efecto invernadero generadas por los humanos. No obstante, existen ciertos factores biológicos cuya función en este proceso es fundamental, según ha aclarado un equipo de investigadores marinos de Alemania. Los resultados de su estudio han sido recientemente publicados en la revista PNAS.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 04/05/2009
Los investigadores, procedentes del Instituto Leibniz de Ciencias del Mar de la Universidad de Kiel (IFM-GEOMAR), el Instituto Alfred Wegener de Investigación Polar y Marina y el Instituto Leibniz de Investigación del Mar Báltico, mostraron en un experimento llevado a cabo con comunidades de plancton natural que el aspecto biológico desempeña un papel básico.
Los océanos absorben dióxido de carbono atmosférico (CO2) desde su superficie. Según los investigadores, la absorción constante de CO2 es posible si éste se desplaza hacia capas más profundas.
«Uno de los mecanismos responsables de este transporte hacia las profundidades es la bomba biológica de carbono», afirmó la autora principal del artículo, Julia Wohlers, estudiante de doctorado sobre oceanografía biológica del IFM-GEOMAR. Esta bomba de carbono «transporta el carbono orgánico de la superficie hacia el fondo oceánico, contribuyendo así a la capacidad del océano para absorber CO2 atmosférico», añadió.
Las algas planctónicas crean biomasa al procesar CO2 y nutrientes en primavera, cuando mejoran las condiciones de luz y temperatura, según explicaron. Al morir las algas, parte de la biomasa generada cae hasta las capas más profundas del océano, arrastrando con ella el carbono atrapado por fotosíntesis.
El equipo de investigación creó 8 mesocosmos (ecosistemas en miniatura) de 1.400 litros de volumen cada uno para evaluar qué efecto tenía el aumento de la temperatura de la superficie oceánica en el ciclo y el destino del carbono orgánico durante una fluorescencia primaveral de fitoplancton. Cuatro cámaras climáticas con temperatura controlada fueron llenadas con agua de mar no filtrada procedente del fiordo de Kiel, que contiene una comunidad natural de plancton de primavera e invierno. Se observó cada uno de los mesocosmos durante un mes, especialmente el crecimiento y declive de la fluorescencia planctónica primaveral.
Los investigadores afirmaron que la variación de las temperaturas coincidió con las predicciones sobre el calentamiento realizadas por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que abarcan hasta finales del siglo XXI. Según las predicciones mencionadas, las temperaturas podrían aumentar hasta en 6 grados centígrados antes de 2100.
«Tal y como cabía esperar, los ritmos metabólicos de todos los componentes de la comunidad planctónica se aceleraron al aumentar la temperatura», explicó el profesor Ulf Riebesell del IFM-GEOMAR, jefe del proyecto. «Lo que nos causó sorpresa fue que el plancton consumió hasta un tercio menos de CO2 a temperaturas elevadas. En último término, esto podría llegar a debilitar la bomba biológica de carbono.»
La investigación indicó que la bomba de carbono se debilitó cuando la biomasa fotosintética acumulada por las algas planctónicas reaccionó ligeramente al calentamiento y su consumo por bacterias creció de forma considerable, favorecido por las altas temperaturas. En resumen, se retiene más CO2 en la capa superficial, la cual a su vez absorbe menos CO2 de la atmósfera.
«Este estudio pone de relieve la importancia que posee mejorar la incorporación de procesos biológicos y retroalimentaciones en los modelos de sistemas de la Tierra», indicó la Sra. Wohlers. No obstante, también mencionó la necesidad de profundizar en las investigaciones para determinar la magnitud a escala mundial del proceso de retroalimentación observado. «La información disponible en referencia a esta área de investigación es todavía escasa, por lo que es necesario realizar más trabajos de investigación para subsanar este vacío de conocimientos.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 04/05/2009
Los investigadores, procedentes del Instituto Leibniz de Ciencias del Mar de la Universidad de Kiel (IFM-GEOMAR), el Instituto Alfred Wegener de Investigación Polar y Marina y el Instituto Leibniz de Investigación del Mar Báltico, mostraron en un experimento llevado a cabo con comunidades de plancton natural que el aspecto biológico desempeña un papel básico.
Los océanos absorben dióxido de carbono atmosférico (CO2) desde su superficie. Según los investigadores, la absorción constante de CO2 es posible si éste se desplaza hacia capas más profundas.
«Uno de los mecanismos responsables de este transporte hacia las profundidades es la bomba biológica de carbono», afirmó la autora principal del artículo, Julia Wohlers, estudiante de doctorado sobre oceanografía biológica del IFM-GEOMAR. Esta bomba de carbono «transporta el carbono orgánico de la superficie hacia el fondo oceánico, contribuyendo así a la capacidad del océano para absorber CO2 atmosférico», añadió.
Las algas planctónicas crean biomasa al procesar CO2 y nutrientes en primavera, cuando mejoran las condiciones de luz y temperatura, según explicaron. Al morir las algas, parte de la biomasa generada cae hasta las capas más profundas del océano, arrastrando con ella el carbono atrapado por fotosíntesis.
El equipo de investigación creó 8 mesocosmos (ecosistemas en miniatura) de 1.400 litros de volumen cada uno para evaluar qué efecto tenía el aumento de la temperatura de la superficie oceánica en el ciclo y el destino del carbono orgánico durante una fluorescencia primaveral de fitoplancton. Cuatro cámaras climáticas con temperatura controlada fueron llenadas con agua de mar no filtrada procedente del fiordo de Kiel, que contiene una comunidad natural de plancton de primavera e invierno. Se observó cada uno de los mesocosmos durante un mes, especialmente el crecimiento y declive de la fluorescencia planctónica primaveral.
Los investigadores afirmaron que la variación de las temperaturas coincidió con las predicciones sobre el calentamiento realizadas por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que abarcan hasta finales del siglo XXI. Según las predicciones mencionadas, las temperaturas podrían aumentar hasta en 6 grados centígrados antes de 2100.
«Tal y como cabía esperar, los ritmos metabólicos de todos los componentes de la comunidad planctónica se aceleraron al aumentar la temperatura», explicó el profesor Ulf Riebesell del IFM-GEOMAR, jefe del proyecto. «Lo que nos causó sorpresa fue que el plancton consumió hasta un tercio menos de CO2 a temperaturas elevadas. En último término, esto podría llegar a debilitar la bomba biológica de carbono.»
La investigación indicó que la bomba de carbono se debilitó cuando la biomasa fotosintética acumulada por las algas planctónicas reaccionó ligeramente al calentamiento y su consumo por bacterias creció de forma considerable, favorecido por las altas temperaturas. En resumen, se retiene más CO2 en la capa superficial, la cual a su vez absorbe menos CO2 de la atmósfera.
«Este estudio pone de relieve la importancia que posee mejorar la incorporación de procesos biológicos y retroalimentaciones en los modelos de sistemas de la Tierra», indicó la Sra. Wohlers. No obstante, también mencionó la necesidad de profundizar en las investigaciones para determinar la magnitud a escala mundial del proceso de retroalimentación observado. «La información disponible en referencia a esta área de investigación es todavía escasa, por lo que es necesario realizar más trabajos de investigación para subsanar este vacío de conocimientos.»
martes, 24 de marzo de 2009
Tecnología de la Nasa para convertir residuos en gas
La empresa canadiense PlascoEnergy Group y el Grupo Hera abren una planta que deshace la basura urbana a 3.000 grados de temperatura.
FUENTE | Expansión 23/03/2009
La Nasa tenía un problema que resolver: simular las condiciones de altísimas temperaturas que soportan los cohetes cuando salen y entran en la atmósfera, para poder observar el comportamiento de los materiales en estas circunstancias. Con este objetivo, un grupo de investigadores de la agencia espacial desarrollaron la tecnología de Plasma, que logra temperaturas de hasta 3.000 grados, a las que se descomponen las moléculas.
REALIDAD EMPRESARIAL
Un grupo de los científicos que estaba dentro del equipo de la agencia espacial se trasladó a Canadá para desarrollar la aplicación del descubrimiento al tratamiento de residuos. El resultado, casi un cuarto de siglo después, es una planta que lleva funcionando desde mediados de 2008, en Ottawa (Canadá), y que gestiona 100 toneladas de residuos urbanos de la ciudad canadiense, al día. Además, genera más de un megavatio hora de electricidad por cada tonelada que trata. ¿Cómo lo consigue? La alta temperatura a la que se expone los residuos libera gases, por un lado, y un material que se solidifica en forma de cristal y no tiene ninguna toxicidad. El gas sintético producido es rico en metano, hidrógeno y monóxido de carbono, con un alto poder energético que se incorpora a la red eléctrica.
Este proceso de convertir la idea del plasma en una realidad empresarial ha sido liderado por el Grupo Hera, experto en el tratamiento de residuos. La compañía española, en asociación con la canadiense PlascoEnergy Group, construyó una planta piloto en 2005, en Castellgalí (Barcelona), para tratar tres toneladas al día de residuos urbanos. La planta supuso una inversión de 10 millones de euros que aportó el Grupo Hera.
Como contrapartida, la empresa española obtuvo el 10% de su socia canadiense, PlascoEnergy Group, y un puesto en su consejo de administración. Además, las dos empresas crean la firma Hera Plasco, en la que el grupo español tiene el 60%, y los derechos exclusivos de explotar esta tecnología en Europa. En 2008, fue cuando entró en explotación la planta industrial, en la ciudad de Ottawa, con una inversión más de 50 millones de dólares canadienses (30,3 millones de euros), de los que el Gobierno de Canadá aportó seis millones de dólares canadienses.
En el país americano, la prima eléctrica para la energía renovable procedente de residuos es de 0,10 céntimos de euros por kilovatio. En España, la prima es de 0,05 céntimos de euros.
Autor: S. Valle
FUENTE | Expansión 23/03/2009
La Nasa tenía un problema que resolver: simular las condiciones de altísimas temperaturas que soportan los cohetes cuando salen y entran en la atmósfera, para poder observar el comportamiento de los materiales en estas circunstancias. Con este objetivo, un grupo de investigadores de la agencia espacial desarrollaron la tecnología de Plasma, que logra temperaturas de hasta 3.000 grados, a las que se descomponen las moléculas.
REALIDAD EMPRESARIAL
Un grupo de los científicos que estaba dentro del equipo de la agencia espacial se trasladó a Canadá para desarrollar la aplicación del descubrimiento al tratamiento de residuos. El resultado, casi un cuarto de siglo después, es una planta que lleva funcionando desde mediados de 2008, en Ottawa (Canadá), y que gestiona 100 toneladas de residuos urbanos de la ciudad canadiense, al día. Además, genera más de un megavatio hora de electricidad por cada tonelada que trata. ¿Cómo lo consigue? La alta temperatura a la que se expone los residuos libera gases, por un lado, y un material que se solidifica en forma de cristal y no tiene ninguna toxicidad. El gas sintético producido es rico en metano, hidrógeno y monóxido de carbono, con un alto poder energético que se incorpora a la red eléctrica.
Este proceso de convertir la idea del plasma en una realidad empresarial ha sido liderado por el Grupo Hera, experto en el tratamiento de residuos. La compañía española, en asociación con la canadiense PlascoEnergy Group, construyó una planta piloto en 2005, en Castellgalí (Barcelona), para tratar tres toneladas al día de residuos urbanos. La planta supuso una inversión de 10 millones de euros que aportó el Grupo Hera.
Como contrapartida, la empresa española obtuvo el 10% de su socia canadiense, PlascoEnergy Group, y un puesto en su consejo de administración. Además, las dos empresas crean la firma Hera Plasco, en la que el grupo español tiene el 60%, y los derechos exclusivos de explotar esta tecnología en Europa. En 2008, fue cuando entró en explotación la planta industrial, en la ciudad de Ottawa, con una inversión más de 50 millones de dólares canadienses (30,3 millones de euros), de los que el Gobierno de Canadá aportó seis millones de dólares canadienses.
En el país americano, la prima eléctrica para la energía renovable procedente de residuos es de 0,10 céntimos de euros por kilovatio. En España, la prima es de 0,05 céntimos de euros.
Autor: S. Valle
Los nuevos biocombustibles procederán de los desechos
Los biocombustibles primarios -maíz, palma o caña de azúcar cultivados para su uso energético- pierden fuelle ante una segunda generación inspirada en el reciclado.
FUENTE | El País Digital 24/03/2009
Alemania, el primer productor mundial de biodiésel antiguo, ha marcado la pauta con la primera refinería que saca fuel de la madera. Y el Reino Unido abrió en enero un Centro de Bioenergía Sostenible para obtenerlo de residuos agrícolas, desechos leñosos, algas marinas y microbios alterados.
Hay dos problemas con los biocombustibles primarios, uno ambiental -requieren ganar al bosque nuevas tierras de cultivo, lo que agrava el cambio climático- y otro económico: pueden alterar los precios, y comprometer el suministro de alimentos como el azúcar, el sorgo y el maíz.
La Unión Europea revisó el año pasado su objetivo para 2020, que era cubrir con biocombustibles (de los llamados primarios) el 10% de la energía para el transporte. Bruselas mantiene esa cifra, pero ha decidido que se pueda cubrir también con hidrógeno, paneles solares o cualquier otra fuente renovable.
Contra las expectativas de hace unos años, y pese al apoyo de muchos gobiernos, incluido el español, el mercado mundial lleva tiempo acumulando excedentes de biocombustibles primarios. Hay un exceso de oferta, según el sector. Repsol, por ejemplo, acaba de congelar la construcción de una planta en Tarragona que iba a producir 150.000 toneladas anuales.
Al mismo tiempo, sin embargo, la primera refinería de segunda generación ha nacido en Friburgo: Industrias Choren empezará este año a producir 13.500 toneladas de biodiésel a partir de residuos de madera. La empresa se basa en una técnica propia llamada Carbo-V que primero convierte la madera en gas, y luego usa el gas para sintetizar el diésel.
Los residuos leñosos -paja, madera, partes no comestibles de los cultivos- son una fuente potencial muy abundante. Pero digerir la madera ha resultado un problema técnico extremadamente difícil. Mientras Industrias Choren explota su método químico exclusivo, los británicos se han acordado de una vieja pesadilla de sus costas: el gribble, la versión marina de una termita.
El gribble de cuatro puntos (Limnoria quadripunctata) es un pequeño crustáceo. Se conoce en el norte de Europa desde hace siglos por sus destrozos en la quilla de los barcos, y más en Inglaterra, donde se comió el muelle victoriano de Swanage. Simon McQueen-Mason, de la Universidad de York, ha identificado las enzimas (catalizadores biológicos) que digieren la madera en el estómago del gribble.
"Hemos hallado enzimas nunca vistas", dice el científico. "Falta ver si podemos adaptarlas para objetivos industriales". McQueen-Mason coordina el programa de investigación sobre el gribble en el Centro de Bioenergía Sostenible del Reino Unido. Con una dotación pública de 27 millones de libras (29 millones de euros), el centro es la mayor inversión británica en investigación sobre biocombustibles de cualquier tipo.
Pero sus seis programas científicos persiguen un objetivo muy definido a corto plazo: la producción industrial de bioetanol a partir de paja de cebada. Incluyen el desarrollo de un cereal optimizado para lo que nadie la ha mejorado en 10.000 años de agricultura: que tenga una paja más energética. Otros laboratorios trabajan con los microorganismos que producen el actual bioetanol primario a partir de cultivos. Quieren crear cepas adaptadas a usar paja en vez de grano.
El pionero privado de la genómica, Craig Venter, tiene planes más ambiciosos para las bacterias. Se ha dedicado en los últimos años a secuenciar en masa cualquier cosa que saliera del agua, empezando por el mar de los Sargazos. La gran mayoría de los microorganismos no crecen en los cultivos convencionales, y esta estrategia no los necesita. Venter ha descubierto así miles de nuevos microbios y millones de nuevos genes.
Entre ellos hay 3.000 genes que fabrican distintos fotorreceptores, las proteínas especializadas en captar la luz solar. Una de las ideas de Venter es crear una bacteria artificial que lleve toda una gama de esos genes para aprovechar un espectro muy amplio de la energía solar. Convirtiendo en hidrógeno un 10% de esa energía, el científico calcula que una superficie de 13.000 kilómetros cuadrados bastaría para alimentar todo el transporte de Estados Unidos.
Venter ha creado su nueva empresa, Synthetic Genomics, alrededor del concepto de vida sintética: un genoma bacteriano que podrá ser hecho desde cero, añadiendo una a una las funciones buscadas, y combinándolas a la carta. Su gran plan es usar esa vida sintética para producir biocombustible. O combustible a secas.
Autor: Javier Sampedro
FUENTE | El País Digital 24/03/2009
Alemania, el primer productor mundial de biodiésel antiguo, ha marcado la pauta con la primera refinería que saca fuel de la madera. Y el Reino Unido abrió en enero un Centro de Bioenergía Sostenible para obtenerlo de residuos agrícolas, desechos leñosos, algas marinas y microbios alterados.
Hay dos problemas con los biocombustibles primarios, uno ambiental -requieren ganar al bosque nuevas tierras de cultivo, lo que agrava el cambio climático- y otro económico: pueden alterar los precios, y comprometer el suministro de alimentos como el azúcar, el sorgo y el maíz.
La Unión Europea revisó el año pasado su objetivo para 2020, que era cubrir con biocombustibles (de los llamados primarios) el 10% de la energía para el transporte. Bruselas mantiene esa cifra, pero ha decidido que se pueda cubrir también con hidrógeno, paneles solares o cualquier otra fuente renovable.
Contra las expectativas de hace unos años, y pese al apoyo de muchos gobiernos, incluido el español, el mercado mundial lleva tiempo acumulando excedentes de biocombustibles primarios. Hay un exceso de oferta, según el sector. Repsol, por ejemplo, acaba de congelar la construcción de una planta en Tarragona que iba a producir 150.000 toneladas anuales.
Al mismo tiempo, sin embargo, la primera refinería de segunda generación ha nacido en Friburgo: Industrias Choren empezará este año a producir 13.500 toneladas de biodiésel a partir de residuos de madera. La empresa se basa en una técnica propia llamada Carbo-V que primero convierte la madera en gas, y luego usa el gas para sintetizar el diésel.
Los residuos leñosos -paja, madera, partes no comestibles de los cultivos- son una fuente potencial muy abundante. Pero digerir la madera ha resultado un problema técnico extremadamente difícil. Mientras Industrias Choren explota su método químico exclusivo, los británicos se han acordado de una vieja pesadilla de sus costas: el gribble, la versión marina de una termita.
El gribble de cuatro puntos (Limnoria quadripunctata) es un pequeño crustáceo. Se conoce en el norte de Europa desde hace siglos por sus destrozos en la quilla de los barcos, y más en Inglaterra, donde se comió el muelle victoriano de Swanage. Simon McQueen-Mason, de la Universidad de York, ha identificado las enzimas (catalizadores biológicos) que digieren la madera en el estómago del gribble.
"Hemos hallado enzimas nunca vistas", dice el científico. "Falta ver si podemos adaptarlas para objetivos industriales". McQueen-Mason coordina el programa de investigación sobre el gribble en el Centro de Bioenergía Sostenible del Reino Unido. Con una dotación pública de 27 millones de libras (29 millones de euros), el centro es la mayor inversión británica en investigación sobre biocombustibles de cualquier tipo.
Pero sus seis programas científicos persiguen un objetivo muy definido a corto plazo: la producción industrial de bioetanol a partir de paja de cebada. Incluyen el desarrollo de un cereal optimizado para lo que nadie la ha mejorado en 10.000 años de agricultura: que tenga una paja más energética. Otros laboratorios trabajan con los microorganismos que producen el actual bioetanol primario a partir de cultivos. Quieren crear cepas adaptadas a usar paja en vez de grano.
El pionero privado de la genómica, Craig Venter, tiene planes más ambiciosos para las bacterias. Se ha dedicado en los últimos años a secuenciar en masa cualquier cosa que saliera del agua, empezando por el mar de los Sargazos. La gran mayoría de los microorganismos no crecen en los cultivos convencionales, y esta estrategia no los necesita. Venter ha descubierto así miles de nuevos microbios y millones de nuevos genes.
Entre ellos hay 3.000 genes que fabrican distintos fotorreceptores, las proteínas especializadas en captar la luz solar. Una de las ideas de Venter es crear una bacteria artificial que lleve toda una gama de esos genes para aprovechar un espectro muy amplio de la energía solar. Convirtiendo en hidrógeno un 10% de esa energía, el científico calcula que una superficie de 13.000 kilómetros cuadrados bastaría para alimentar todo el transporte de Estados Unidos.
Venter ha creado su nueva empresa, Synthetic Genomics, alrededor del concepto de vida sintética: un genoma bacteriano que podrá ser hecho desde cero, añadiendo una a una las funciones buscadas, y combinándolas a la carta. Su gran plan es usar esa vida sintética para producir biocombustible. O combustible a secas.
Autor: Javier Sampedro
viernes, 27 de febrero de 2009
Trabajo "El paisaje como recurso"
A continuación os dejo el guión que os indica los aspectos que debeis tener en cuenta para la elaboración de uno de los trabajos para la tercera evaluación.
Ya sabeis que se puntuará sobre dos. Leedlo bien, consta de dos partes.
La entrega se hará de forma telemática (así contribuimos a disminuir el impacto ambiental que supondría tanto gasto de papel) a la siguiente dirección de correo electrónico ctmedio@gmail.com indicando vuestro nombre en el asunto. Si en tres días no habeis recibido un ok volved a enviarlo.
La fecha tope de entrega es la semana anterior a Semana Santa (Jueves 25 de Marzo), bueno para los perezosos que sea el 6 de Abril.
Trabajo "El paisaje como recurso"
Primera parte: Información bibliográfica (mínimo, 6 páginas)
Contenidos:
-Diferentes conceptos de paisaje
-Componentes del paisaje: Factores abióticos, bióticos y antrópicos.
-Elementos visuales del paisaje: Color, forma, línea, textura, escala y configuración espacial
-Impactos producidos en el paisaje.
-La calidad y la fragilidad visual: conceptos.
-Actuaciones de corrección paisajística.
-La conservación de los espacios naturales: Diferentes figuras legales que tratan de apoyar la conservación de los paisajes: parques nacionales, parques regionales, monumentos naturales, reservas naturales, parajes naturales, parques temáticos, etc. Otras leyes que defiendan aspectos relacionados con el paisaje: Ordenación del territorio, caza y pesca, especies protegidas, etc.
Segunda parte: Aplicación práctica de los conceptos anteriores a paisajes concretos.
Para esta parte deberás comentar diversos aspectos paisajísticos de, al menos, 2 fotografías puedes obtener en periódicos, revistas, postales, calendarios, fotos caseras, CD-rom, internet
Criterios para la elección de las fotografías:
Tamaño: Mínimo, media postal. Máximo, un folio
Contenido: Las fotos mostrarán paisajes naturales,en una será notoria la influencia humana y en la otra no.
Temas recomendables:
-Urbanizaciones, aldeas, pueblos, ciudades, centros turísticos
-Actividades agrícolas, cultivos, repoblación forestal, etc.
-Actividades ganaderas
-Carreteras, caminos, ferrocarriles
-Embalses o presas, canales, puertos
-Tendidos eléctricos o telefónicos, parques cólicos,...
-Minas, canteras, extracción de áridos, salinas
-Instalaciones deportivas: estaciones de esquí, campos de golf, estadios,...
-Instalaciones recreativas: parques temáticos, arqueológicos, de atracciones, infantiles, etc.
-Vertederos, escombreras
-Centrales energéticas, fábricas,etc.
-Otros
Los aspectos principales que debes comentar de cada foto son:
-Identificación de la fotografía
-Elementos visuales (forma, línea, color textura, escala,...)
-Componentes naturales (suelo, agua, vegetación, fauna,...) y artificiales (acción humana)
-Calidad visual
-Fragilidad visual
- Impactos (si los hubiere) y la actuación pertinente para su corrección.
Ya sabeis que se puntuará sobre dos. Leedlo bien, consta de dos partes.
La entrega se hará de forma telemática (así contribuimos a disminuir el impacto ambiental que supondría tanto gasto de papel) a la siguiente dirección de correo electrónico ctmedio@gmail.com indicando vuestro nombre en el asunto. Si en tres días no habeis recibido un ok volved a enviarlo.
La fecha tope de entrega es la semana anterior a Semana Santa (Jueves 25 de Marzo), bueno para los perezosos que sea el 6 de Abril.
Trabajo "El paisaje como recurso"
Primera parte: Información bibliográfica (mínimo, 6 páginas)
Contenidos:
-Diferentes conceptos de paisaje
-Componentes del paisaje: Factores abióticos, bióticos y antrópicos.
-Elementos visuales del paisaje: Color, forma, línea, textura, escala y configuración espacial
-Impactos producidos en el paisaje.
-La calidad y la fragilidad visual: conceptos.
-Actuaciones de corrección paisajística.
-La conservación de los espacios naturales: Diferentes figuras legales que tratan de apoyar la conservación de los paisajes: parques nacionales, parques regionales, monumentos naturales, reservas naturales, parajes naturales, parques temáticos, etc. Otras leyes que defiendan aspectos relacionados con el paisaje: Ordenación del territorio, caza y pesca, especies protegidas, etc.
Segunda parte: Aplicación práctica de los conceptos anteriores a paisajes concretos.
Para esta parte deberás comentar diversos aspectos paisajísticos de, al menos, 2 fotografías puedes obtener en periódicos, revistas, postales, calendarios, fotos caseras, CD-rom, internet
Criterios para la elección de las fotografías:
Tamaño: Mínimo, media postal. Máximo, un folio
Contenido: Las fotos mostrarán paisajes naturales,en una será notoria la influencia humana y en la otra no.
Temas recomendables:
-Urbanizaciones, aldeas, pueblos, ciudades, centros turísticos
-Actividades agrícolas, cultivos, repoblación forestal, etc.
-Actividades ganaderas
-Carreteras, caminos, ferrocarriles
-Embalses o presas, canales, puertos
-Tendidos eléctricos o telefónicos, parques cólicos,...
-Minas, canteras, extracción de áridos, salinas
-Instalaciones deportivas: estaciones de esquí, campos de golf, estadios,...
-Instalaciones recreativas: parques temáticos, arqueológicos, de atracciones, infantiles, etc.
-Vertederos, escombreras
-Centrales energéticas, fábricas,etc.
-Otros
Los aspectos principales que debes comentar de cada foto son:
-Identificación de la fotografía
-Elementos visuales (forma, línea, color textura, escala,...)
-Componentes naturales (suelo, agua, vegetación, fauna,...) y artificiales (acción humana)
-Calidad visual
-Fragilidad visual
- Impactos (si los hubiere) y la actuación pertinente para su corrección.
jueves, 26 de febrero de 2009
El deshielo de los polos afecta ya a las corrientes oceánicas
Una investigación en el marco del Año Polar Internacional (API) 2007-2008 aporta nuevas pruebas sobre la generalización de los efectos del calentamiento global en las regiones polares, según han anunciado sus autores en un comunicado.
FUENTE | El País Digital 26/02/2009
La nieve y el hielo están disminuyendo en ambas regiones polares, lo que afecta tanto a la vida humana como a la vida animal y vegetal local del Ártico, y a la circulación oceánica y atmosférica mundial y al nivel del mar. Estos son sólo algunos de los resultados que figuran en el documento Estado de la Investigación Polar, publicado por la Organización Meteorológica Mundial (OMM) y el Consejo Internacional para la Ciencia (ICSU).
El API se puso en marcha en marzo de 2007 y comprende un período de dos años que abarca hasta marzo de 2009 para permitir que se puedan realizar observaciones en ambas regiones polares. Para Michel Jarraud, Secretario General de la OMM, "las nuevas pruebas resultantes de la investigación polar consolidarán la base científica sobre la que se fundamentarán las actividades del futuro."
El comunicado de prensa asegura que ahora queda claro que las capas de hielo de Groenlandia y de la Antártida están perdiendo masa, lo que contribuye a la elevación del nivel del mar. El calentamiento en la Antártida está mucho más generalizado de lo que se pensaba antes del API y resulta que en Groenlandia cada vez hay menos volumen de hielo. Los investigadores también descubrieron que en el Ártico, durante los veranos de 2007 y 2008, la extensión mínima del hielo marino durante todo el año disminuyó al nivel más bajo detectado nunca desde que empezaron a elaborar a registros satelitales hace 30 años.
En las expediciones realizadas en el marco del API se registró también un ritmo sin precedentes de la deriva de los hielos en el Ártico. Debido al calentamiento global, cambiaron los tipos y el alcance de la vegetación en el Ártico, lo que afectó a los animales de pastoreo y a la caza. Otras pruebas del calentamiento del planeta son las obtenidas por los buques de investigación del API, que han confirmado que el nivel de calentamiento del océano Austral está por encima de lo normal. El enfriamiento de las corrientes de los fondos oceánicos cerca de la Antártida es coherente con el aumento del derretimiento del hielo de la Antártida y podría afectar a la circulación oceánica. Por consiguiente, el calentamiento global afecta a la Antártida de formas que antes no se conocían.
La investigación realizada en el marco del API también ha identificado grandes reservas de carbono almacenado como el metano en el permafrost (capa profunda del suelo permanentemente helada). El deshielo del permafrost amenaza con desestabilizar el metano -un gas de efecto invernadero- almacenado y enviarlo a la atmósfera. De hecho, los investigadores del API que se encontraban a lo largo de la costa de Siberia observaron emisiones sustanciales de metano procedentes de los sedimentos de los océanos.
DATOS ATMOSFÉRICOS
El API también ha dado una nueva perspectiva de la investigación atmosférica. Los investigadores han descubierto que las tormentas del Atlántico Norte son las principales fuentes de calor y humedad de las regiones polares. La comprensión de esos mecanismos mejorará las predicciones de la trayectoria y la intensidad de las tormentas. Los estudios sobre el agujero de ozono también se han beneficiado de las investigaciones realizadas en el marco del API, ya que se han detectado nuevas conexiones entre las concentraciones de ozono por encima de la Antártida y las condiciones de viento y tormenta en el océano Austral.
"El trabajo iniciado por el API debe continuar", señaló Michel Jarraud. "En los próximos decenios seguirá siendo necesaria una acción coordinada internacionalmente en relación con las regiones polares", añadió. En el documento Estado de la Investigación Polar no sólo se describen algunos de los descubrimientos realizados durante el API, sino que también se recomiendan una serie de prioridades para la acción futura con el fin de garantizar que la sociedad esté mejor informada sobre los cambios polares en curso, su probable evolución futura y sus repercusiones globales.
FUENTE | El País Digital 26/02/2009
La nieve y el hielo están disminuyendo en ambas regiones polares, lo que afecta tanto a la vida humana como a la vida animal y vegetal local del Ártico, y a la circulación oceánica y atmosférica mundial y al nivel del mar. Estos son sólo algunos de los resultados que figuran en el documento Estado de la Investigación Polar, publicado por la Organización Meteorológica Mundial (OMM) y el Consejo Internacional para la Ciencia (ICSU).
El API se puso en marcha en marzo de 2007 y comprende un período de dos años que abarca hasta marzo de 2009 para permitir que se puedan realizar observaciones en ambas regiones polares. Para Michel Jarraud, Secretario General de la OMM, "las nuevas pruebas resultantes de la investigación polar consolidarán la base científica sobre la que se fundamentarán las actividades del futuro."
El comunicado de prensa asegura que ahora queda claro que las capas de hielo de Groenlandia y de la Antártida están perdiendo masa, lo que contribuye a la elevación del nivel del mar. El calentamiento en la Antártida está mucho más generalizado de lo que se pensaba antes del API y resulta que en Groenlandia cada vez hay menos volumen de hielo. Los investigadores también descubrieron que en el Ártico, durante los veranos de 2007 y 2008, la extensión mínima del hielo marino durante todo el año disminuyó al nivel más bajo detectado nunca desde que empezaron a elaborar a registros satelitales hace 30 años.
En las expediciones realizadas en el marco del API se registró también un ritmo sin precedentes de la deriva de los hielos en el Ártico. Debido al calentamiento global, cambiaron los tipos y el alcance de la vegetación en el Ártico, lo que afectó a los animales de pastoreo y a la caza. Otras pruebas del calentamiento del planeta son las obtenidas por los buques de investigación del API, que han confirmado que el nivel de calentamiento del océano Austral está por encima de lo normal. El enfriamiento de las corrientes de los fondos oceánicos cerca de la Antártida es coherente con el aumento del derretimiento del hielo de la Antártida y podría afectar a la circulación oceánica. Por consiguiente, el calentamiento global afecta a la Antártida de formas que antes no se conocían.
La investigación realizada en el marco del API también ha identificado grandes reservas de carbono almacenado como el metano en el permafrost (capa profunda del suelo permanentemente helada). El deshielo del permafrost amenaza con desestabilizar el metano -un gas de efecto invernadero- almacenado y enviarlo a la atmósfera. De hecho, los investigadores del API que se encontraban a lo largo de la costa de Siberia observaron emisiones sustanciales de metano procedentes de los sedimentos de los océanos.
DATOS ATMOSFÉRICOS
El API también ha dado una nueva perspectiva de la investigación atmosférica. Los investigadores han descubierto que las tormentas del Atlántico Norte son las principales fuentes de calor y humedad de las regiones polares. La comprensión de esos mecanismos mejorará las predicciones de la trayectoria y la intensidad de las tormentas. Los estudios sobre el agujero de ozono también se han beneficiado de las investigaciones realizadas en el marco del API, ya que se han detectado nuevas conexiones entre las concentraciones de ozono por encima de la Antártida y las condiciones de viento y tormenta en el océano Austral.
"El trabajo iniciado por el API debe continuar", señaló Michel Jarraud. "En los próximos decenios seguirá siendo necesaria una acción coordinada internacionalmente en relación con las regiones polares", añadió. En el documento Estado de la Investigación Polar no sólo se describen algunos de los descubrimientos realizados durante el API, sino que también se recomiendan una serie de prioridades para la acción futura con el fin de garantizar que la sociedad esté mejor informada sobre los cambios polares en curso, su probable evolución futura y sus repercusiones globales.
martes, 24 de febrero de 2009
Un alga revela las claves de la formación de la vida compleja
De una forma semejante a la que llevó, en 1953, al entonces doctorando Stanley L. Miller y a su director Harold Urey a rastrear en un laboratorio el origen de las primeras moléculas orgánicas formadas en la Tierra, un equipo científico de la Universidad de Arizona ha buceado en el árbol filogenético de un grupo de algas verdes microscópicas, llamadas 'Volvox', para establecer los pasos fundamentales de la formación de los organismos multicelulares de este grupo en la Tierra.
FUENTE | El Mundo Digital 18/02/2009
Los investigadores, dirigidos por el especialista en biología evolutiva Matthew D. Herron, no sólo han podido esclarecer los grandes cambios que operaron en el ancestro unicelular del género hasta que concluyó la formación de la primera forma de vida multicelular de este tipo de algas, sino que, además, han conseguido determinar en qué momento de la Historia de la Vida operó cada transformación. Esto ha permitido al equipo de Herron datar el origen multicelular de estos organismos hace alrededor de 234 millones de años, en lugar de hace entre 50 y 75 millones de años, como se creía hasta el momento.
Aunque la fecha de aparición se retrasa sustancialmente hay que tener en cuenta que por aquel entonces (pleno triásico) ya andaban por la superficie terrestre los primeros dinosaurios. Aún así, el trabajo podría orientar futuras investigaciones dirigidas a esclarecer el origen multicelular de las plantas y los animales.
Además, según afirman los investigadores en el trabajo, publicado en la revista científica 'Proceedings of the National Academy of Sciences' (PNAS), la mayor parte de los cambios que ocurrieron en el desarrollo de estas algas tuvieron lugar durante una temprana y rápida (en términos de millones de años, por supuesto) explosión que tuvo lugar poco después de la divergencia entre las formas uni y multicelular.
EL RELOJ DE LA VIDA MULTICELULAR
En los 34 millones de años después de esta separación tuvieron lugar gran parte de las transformaciones que darían con la forma multicelular que conocemos en la actualidad. Hace 223 millones de años tuvo lugar el primer gran cambio. Las células hijas de una forma de vida parecida a las actuales Chlamydomonas, que debieron separarse, quedaron atrapadas en una matriz común. A partir de ese momento se sucedieron de forma rápida los cambios.
Hace unos 211 millones de años, se produjo la primera citoquinesis incompleta en el grupo de algas, es decir, que, tras una división celular, las paredes de ambas células hijas no se cerraron completamente quedando unidas por puentes de citoplasma (el líquido que contiene el interior de las células). Además, algunas de las células resultantes rotaron para que sus orgánulos locomotores quedaran orientados hacia el mismo lado y el organismo, ya multicelular, tuviese un sistema locomotor más efectivo, parecido al flagelo que impulsa a los espermazoides pero formado por muchos filamentos.
Poco después, tan sólo unos 11 millones de años, se produjo el cambio de forma corporal definitivo, lo que produjo una especialización definitiva de las células que formaban el organismo. Por último hace unos 180 millones de años se dio el primer paso hacia la diferenciación de las células reproductoras y las somáticas o no reproductoras.
El equipo de Herron sugiere que este primer modelo bien documentado podría ayudar a comprender la formación de los ancestros multicelulares de animales y plantas, ya que este mismo proceso se ha producido en la Historia de la Vida docenas de veces.
Autor: Miguel G. Corral
FUENTE | El Mundo Digital 18/02/2009
Los investigadores, dirigidos por el especialista en biología evolutiva Matthew D. Herron, no sólo han podido esclarecer los grandes cambios que operaron en el ancestro unicelular del género hasta que concluyó la formación de la primera forma de vida multicelular de este tipo de algas, sino que, además, han conseguido determinar en qué momento de la Historia de la Vida operó cada transformación. Esto ha permitido al equipo de Herron datar el origen multicelular de estos organismos hace alrededor de 234 millones de años, en lugar de hace entre 50 y 75 millones de años, como se creía hasta el momento.
Aunque la fecha de aparición se retrasa sustancialmente hay que tener en cuenta que por aquel entonces (pleno triásico) ya andaban por la superficie terrestre los primeros dinosaurios. Aún así, el trabajo podría orientar futuras investigaciones dirigidas a esclarecer el origen multicelular de las plantas y los animales.
Además, según afirman los investigadores en el trabajo, publicado en la revista científica 'Proceedings of the National Academy of Sciences' (PNAS), la mayor parte de los cambios que ocurrieron en el desarrollo de estas algas tuvieron lugar durante una temprana y rápida (en términos de millones de años, por supuesto) explosión que tuvo lugar poco después de la divergencia entre las formas uni y multicelular.
EL RELOJ DE LA VIDA MULTICELULAR
En los 34 millones de años después de esta separación tuvieron lugar gran parte de las transformaciones que darían con la forma multicelular que conocemos en la actualidad. Hace 223 millones de años tuvo lugar el primer gran cambio. Las células hijas de una forma de vida parecida a las actuales Chlamydomonas, que debieron separarse, quedaron atrapadas en una matriz común. A partir de ese momento se sucedieron de forma rápida los cambios.
Hace unos 211 millones de años, se produjo la primera citoquinesis incompleta en el grupo de algas, es decir, que, tras una división celular, las paredes de ambas células hijas no se cerraron completamente quedando unidas por puentes de citoplasma (el líquido que contiene el interior de las células). Además, algunas de las células resultantes rotaron para que sus orgánulos locomotores quedaran orientados hacia el mismo lado y el organismo, ya multicelular, tuviese un sistema locomotor más efectivo, parecido al flagelo que impulsa a los espermazoides pero formado por muchos filamentos.
Poco después, tan sólo unos 11 millones de años, se produjo el cambio de forma corporal definitivo, lo que produjo una especialización definitiva de las células que formaban el organismo. Por último hace unos 180 millones de años se dio el primer paso hacia la diferenciación de las células reproductoras y las somáticas o no reproductoras.
El equipo de Herron sugiere que este primer modelo bien documentado podría ayudar a comprender la formación de los ancestros multicelulares de animales y plantas, ya que este mismo proceso se ha producido en la Historia de la Vida docenas de veces.
Autor: Miguel G. Corral
lunes, 16 de febrero de 2009
La Tierra vista desde el cielo
Hola:
Aquí os dejo dos enlaces para que admireis esta fantástica obra de arte (bajo mi punto de vista claro).
La fotografía es magnífica, los comentarios fundamentados, toca varias materias dentro de las ciencias ambientales: ecología, geología, biología ....
Los contenidos permiten trabajar desde una clase de alto nivel de Ciencias de la Tierra de 2º de Bachillerato hasta unas cuantas horas de tutoría para tratar el tema tranversal de la conservación del medio ambiente y la correcta utilización de los recursos.
Merece la pena invertir horas de tu tiempo en ver estos documentales y si los puedes conseguir o tienes cómo hacerlo, por favor ponte en contacto conmigo.
Gracias.
- Agua dulce 1ª parte.
- Agua dulce 2ª parte.
- Biodiversidad 1ª parte.
- Biodiversidad 2ª parte.
Gracias también a Laura alumna de 2º de Bachillerato que me proporcionó las direcciones de estos videos.
Aquí os dejo dos enlaces para que admireis esta fantástica obra de arte (bajo mi punto de vista claro).
La fotografía es magnífica, los comentarios fundamentados, toca varias materias dentro de las ciencias ambientales: ecología, geología, biología ....
Los contenidos permiten trabajar desde una clase de alto nivel de Ciencias de la Tierra de 2º de Bachillerato hasta unas cuantas horas de tutoría para tratar el tema tranversal de la conservación del medio ambiente y la correcta utilización de los recursos.
Merece la pena invertir horas de tu tiempo en ver estos documentales y si los puedes conseguir o tienes cómo hacerlo, por favor ponte en contacto conmigo.
Gracias.
- Agua dulce 1ª parte.
- Agua dulce 2ª parte.
- Biodiversidad 1ª parte.
- Biodiversidad 2ª parte.
Gracias también a Laura alumna de 2º de Bachillerato que me proporcionó las direcciones de estos videos.
lunes, 19 de enero de 2009
La industria ingresa más de 400 millones por la venta masiva de CO2
Qué ironía. Durante años la industria ha presionado contra la limitación de emisiones de dióxido de carbono que imponía el Protocolo de Kioto. Sin embargo, al cumplirse el primer año de entrada en vigor del protocolo, la industria pesada, especialmente la ligada al sector de la construcción (azulejeras, ladrilleras, cementeras...), ha vendido los derechos de emisión de entre 20 y 25 millones de toneladas, con lo que han ingresado entre 400 y 500 millones de euros, según la estimación de Ismael Romeo, director general de Sendeco2, la bolsa española de CO2.
FUENTE | El País Digital 19/01/2009
El cálculo es necesariamente aproximado, porque las compraventas son anónimas, pero todas las fuentes consultadas coinciden en que la industria ha paliado la falta de liquidez y de crédito con la venta masiva de derechos de emisión que recibieron gratis del Gobierno. La industria ha vendido a empresas energéticas (eléctricas o refinerías) e inversores internacionales, principalmente.
Romeo afirma: "La industria es excedentaria de derechos de emisión y más en tiempo de crisis y de bajada de producción, con empresas que han cerrado o que están hibernando. A eso se le suma la dificultad de acceso al crédito. Por eso han acudido masivamente a la venta de derechos de CO2".
Jordi Ortega, del grupo de trabajo de cambio climático de la Universidad Carlos III, coincide: "La crisis de liquidez del sector financiero convierte las emisiones en una fuente para lograr liquidez. Es mucho más rentable vender emisiones al contado que pedir un préstamo".
En abril pasado, el Ministerio de Medio Ambiente repartió unos 100 millones de toneladas de CO2 entre 1.056 instalaciones industriales. Ése era el dióxido de carbono que podían emitir gratis dentro del reparto de la UE para cumplir Kioto. "Las asignaciones del dióxido de carbono en el periodo 2008-2012 fueron inferiores a las asignadas en 2005, pero muy por encima, no sólo de las emisiones de 2005, sino sobre las expectativas de incremento del producto interior bruto", explica Ortega: "Ha habido un error al asignar las emisiones, se debía haber hecho en función de la producción. No podemos primar a empresas que cierran y despiden a gente y que encima se lucran".
La previsión no podía andar más errada y la actividad de las fábricas se ha hundido. Según el Instituto Nacional de Estadística, la producción industrial en noviembre cayó un 15,1% respecto al mismo mes del año anterior.
Los ecologistas siempre denunciaron que esa asignación fue demasiado generosa con la industria y que por eso el mercado de CO2 no reducirá las emisiones. La idea original del mercado era que las empresas invirtieran en tecnología para emitir menos y vender las emisiones, no que pudieran llegar a cerrar para vender el derecho de emisión.
Como sobra CO2 y falta crédito, Sendeco2 ha tramitado numerosas peticiones de venta de derechos, especialmente de sectores muy atomizados, sin posibilidad de reconversión ni de inversión (como las ladrilleras). Uno de los mejores ejemplos está en Bailén (Jaén), donde hay 38 instalaciones afectadas por el Protocolo de Kioto. Son empresas pequeñas que, con la crisis del ladrillo, funcionan al ralentí. Cuando Sendeco2 dio allí una charla para explicar las posibilidades que ofrecía la venta de derechos, la mayoría se apuntaron. Algunas han evitado el cierre y mantenido una actividad testimonial para poder vender los derechos de emisión, ya que los perderían si suspendieran pagos, según fuentes del sector. Lo mismo ha ocurrido en zonas como Castellón o Toledo, que concentran actividad industrial contaminante.
Además, las empresas españolas partían con ventaja porque España fue de los primeros países en asignar sus derechos en la UE. En primavera y verano, cuando la crisis no parecía tan grave y se pensaba que faltarían derechos, muchos pudieron vender antes que las empresas de otros países europeos. El precio de la tonelada de CO2 llegó entonces a los 29 euros, y ahora se ha desplomado -el viernes cerró a 11,8 euros-. El exceso de oferta amenaza con hundir el valor de la tonelada, aunque no a los niveles de 2007, cuando era gratis porque los derechos de emisión para el periodo de 2005 a 2007 caducaban.
La secretaria de Estado de Cambio Climático, Teresa Ribera, explicaba a finales de 2008 a este diario que la crisis provocaría una bajada de emisiones en el sector industrial: "Habrá más liquidez de derechos y, por tanto, una caída del precio de la tonelada". Ribera afirmó que el Gobierno vigilaría ese costo, pero admitió que "no existe capacidad de reacción", porque legalmente el Ejecutivo no puede recortar la asignación. El problema del descenso del valor del CO2 es que puede condicionar la política energética y lastrar la lucha contra el cambio climático. En 2007, cuando se desplomó el precio, las eléctricas no tuvieron problema en poner en marcha las centrales de carbón -pese a ser más contaminantes- para producir electricidad.
En 2008, con el precio del petróleo y del CO2 por las nubes durante la primera mitad del año, las emisiones del sector eléctrico han bajado un 16%, según WWF/Adena. Unas cifras que, cuando se sumen a la bajada industrial y del transporte (el consumo de gasolina se ha reducido un 6% en octubre) llevarán a que España haya experimentado en 2008 un descenso brusco de emisiones.
La industria admite que puede haber esa venta masiva de derechos de emisión, pero con matices. Aniceto Zaragoza, director de Oficemen, la patronal del cemento, señala: "Puede ser en parte irónico que la industria venda CO2 para financiarse. Pero no todo el CO2 que sobra se debe al descenso de producción. En el sector del cemento hemos invertido 600 millones para implantar procesos más eficientes y eso reduce las emisiones. Ya quisiéramos que faltasen derechos y tener que comprar porque eso supondría que la producción se ha recuperado". Un escenario que sigue muy lejos.
Autor: Rafael Méndez
FUENTE | El País Digital 19/01/2009
El cálculo es necesariamente aproximado, porque las compraventas son anónimas, pero todas las fuentes consultadas coinciden en que la industria ha paliado la falta de liquidez y de crédito con la venta masiva de derechos de emisión que recibieron gratis del Gobierno. La industria ha vendido a empresas energéticas (eléctricas o refinerías) e inversores internacionales, principalmente.
Romeo afirma: "La industria es excedentaria de derechos de emisión y más en tiempo de crisis y de bajada de producción, con empresas que han cerrado o que están hibernando. A eso se le suma la dificultad de acceso al crédito. Por eso han acudido masivamente a la venta de derechos de CO2".
Jordi Ortega, del grupo de trabajo de cambio climático de la Universidad Carlos III, coincide: "La crisis de liquidez del sector financiero convierte las emisiones en una fuente para lograr liquidez. Es mucho más rentable vender emisiones al contado que pedir un préstamo".
En abril pasado, el Ministerio de Medio Ambiente repartió unos 100 millones de toneladas de CO2 entre 1.056 instalaciones industriales. Ése era el dióxido de carbono que podían emitir gratis dentro del reparto de la UE para cumplir Kioto. "Las asignaciones del dióxido de carbono en el periodo 2008-2012 fueron inferiores a las asignadas en 2005, pero muy por encima, no sólo de las emisiones de 2005, sino sobre las expectativas de incremento del producto interior bruto", explica Ortega: "Ha habido un error al asignar las emisiones, se debía haber hecho en función de la producción. No podemos primar a empresas que cierran y despiden a gente y que encima se lucran".
La previsión no podía andar más errada y la actividad de las fábricas se ha hundido. Según el Instituto Nacional de Estadística, la producción industrial en noviembre cayó un 15,1% respecto al mismo mes del año anterior.
Los ecologistas siempre denunciaron que esa asignación fue demasiado generosa con la industria y que por eso el mercado de CO2 no reducirá las emisiones. La idea original del mercado era que las empresas invirtieran en tecnología para emitir menos y vender las emisiones, no que pudieran llegar a cerrar para vender el derecho de emisión.
Como sobra CO2 y falta crédito, Sendeco2 ha tramitado numerosas peticiones de venta de derechos, especialmente de sectores muy atomizados, sin posibilidad de reconversión ni de inversión (como las ladrilleras). Uno de los mejores ejemplos está en Bailén (Jaén), donde hay 38 instalaciones afectadas por el Protocolo de Kioto. Son empresas pequeñas que, con la crisis del ladrillo, funcionan al ralentí. Cuando Sendeco2 dio allí una charla para explicar las posibilidades que ofrecía la venta de derechos, la mayoría se apuntaron. Algunas han evitado el cierre y mantenido una actividad testimonial para poder vender los derechos de emisión, ya que los perderían si suspendieran pagos, según fuentes del sector. Lo mismo ha ocurrido en zonas como Castellón o Toledo, que concentran actividad industrial contaminante.
Además, las empresas españolas partían con ventaja porque España fue de los primeros países en asignar sus derechos en la UE. En primavera y verano, cuando la crisis no parecía tan grave y se pensaba que faltarían derechos, muchos pudieron vender antes que las empresas de otros países europeos. El precio de la tonelada de CO2 llegó entonces a los 29 euros, y ahora se ha desplomado -el viernes cerró a 11,8 euros-. El exceso de oferta amenaza con hundir el valor de la tonelada, aunque no a los niveles de 2007, cuando era gratis porque los derechos de emisión para el periodo de 2005 a 2007 caducaban.
La secretaria de Estado de Cambio Climático, Teresa Ribera, explicaba a finales de 2008 a este diario que la crisis provocaría una bajada de emisiones en el sector industrial: "Habrá más liquidez de derechos y, por tanto, una caída del precio de la tonelada". Ribera afirmó que el Gobierno vigilaría ese costo, pero admitió que "no existe capacidad de reacción", porque legalmente el Ejecutivo no puede recortar la asignación. El problema del descenso del valor del CO2 es que puede condicionar la política energética y lastrar la lucha contra el cambio climático. En 2007, cuando se desplomó el precio, las eléctricas no tuvieron problema en poner en marcha las centrales de carbón -pese a ser más contaminantes- para producir electricidad.
En 2008, con el precio del petróleo y del CO2 por las nubes durante la primera mitad del año, las emisiones del sector eléctrico han bajado un 16%, según WWF/Adena. Unas cifras que, cuando se sumen a la bajada industrial y del transporte (el consumo de gasolina se ha reducido un 6% en octubre) llevarán a que España haya experimentado en 2008 un descenso brusco de emisiones.
La industria admite que puede haber esa venta masiva de derechos de emisión, pero con matices. Aniceto Zaragoza, director de Oficemen, la patronal del cemento, señala: "Puede ser en parte irónico que la industria venda CO2 para financiarse. Pero no todo el CO2 que sobra se debe al descenso de producción. En el sector del cemento hemos invertido 600 millones para implantar procesos más eficientes y eso reduce las emisiones. Ya quisiéramos que faltasen derechos y tener que comprar porque eso supondría que la producción se ha recuperado". Un escenario que sigue muy lejos.
Autor: Rafael Méndez
Aguas Subterraneas europeas
e-Water informa sobre aguas subterráneas de 12 países europeos
El primer sistema europeo de información de aguas subterráneas ya está en la red. Dispone de información sobre más de 800.000 pozos y manantiales europeos. La aplicación e-Water móvil permite el acceso a los datos de aguas subterráneas sobre el terreno.
FUENTE | IGME - mi+d 19/01/2009
El proyecto europeo eWater, sistema de información multilingüe de las aguas subterráneas en Europa, ha finalizado tras más de dos años de trabajo.
Se trata de un portal web con un sistema de información asociado que proporciona un acceso multilingüe (13 idiomas) y transfronterizo a las bases de datos sobre aguas subterráneas y a la cartografía hidrogeológica de 12 institutos geológicos europeos: Austria, Dinamarca, Emilia-Romagna de Italia, Francia, Hungría, Países Bajos, República Checa, Lituania, Eslovenia, Eslovaquia, Suecia y España.
Entrando en www.ewater.eu cualquier especialista o gestor del agua de la administración o de la empresa privada encontrará información de más de 800.000 pozos y manantiales europeos; datos de niveles piezométricos, caudales y características químicas del agua; un catálogo de metadatos (información sobre los datos); un visualizador de mapas; un diccionario multilingüe online para la traducción de términos hidrogeológicos e, incluso, una aplicación eWater móvil para el acceso a datos de aguas subterráneas sobre el terreno, mediante un dispositivo móvil con GPS.
Este portal, se conforma como una herramienta que mejorará la eficacia en la gestión del agua subterránea. Multiplica la disponibilidad, la accesibilidad y la utilización de los datos espaciales sobre la localización, cantidad, calidad y el uso de las aguas subterráneas, contribuyendo a salvar los problemas a la hora de compartir información hidrogeológica espacial y homogénea a través de las fronteras de la Unión Europea. Servirá, además, para el análisis conjunto de los múltiples aspectos que afectan a la gestión de los recursos hídricos a escala nacional y comunitaria.
eWater cumple con la Directiva INSPIRE, que establece una infraestructura de información espacial en la Comunidad Europea. Según Juana López Bravo, responsable del proyecto en el Instituto Geológico y Minero de España (IGME) junto a Javier Rodríguez Arévalo (actualmente en el CEDEX), "el proyecto ha supuesto un salto importante en la interoperabilidad de mapas digitales". Y es que el portal cuenta con servicios web que hacen posible que un usuario pueda llamar información desde cualquier país y trabajar con ella independientemente de la tecnología que utilice para crear mapas. "La infraestructura de datos espaciales hidrogeológicos y el sistema desarrollado en eWater son pioneros y los 15 socios del proyecto hemos trabajado con el objetivo de contribuir al desarrollo de la Directiva Marco del Agua (DMA) y ser una herramienta hacia la construcción del Sistema de Información sobre el Agua en Europa (WISE)". La implicación del IGME en este proyecto europeo, de 1,2 millones de euros de presupuesto, ha sido muy activa. Hay que tener en cuenta que el Instituto acumula información geocientífica desde hace más de 150 años y sus bases de datos e informes representan uno de sus principales activos. El equipo español ha liderado los trabajos de interoperabilidad de mapas digitales además de la definición de un mapa hidrogeológico común para toda Europa, que se basa en una leyenda armonizada y que ya se estrena en www.ewater.eu
Mapa hidrogeológico armonizado para España
Durante los próximos 3 años (2009-2011), los 12 servicios geológicos y las 3 compañías de tecnología de la información, GIM (Bélgica), Geodan (Países Bajos) y I.T. (Lituania), que han participado como socios en este proyecto, se ocuparán del mantenimiento de este portal que se enmarca en el área de trabajo de Información Geográfica del programa europeo eContentplus (2005-2008) aprobado por el Parlamento y el Consejo Europeo con objeto de hacer más accesible y explotable la información digital. En este sentido Javier Rodríguez Arévalo explica que "eWater ha motivado una acción conjunta de estos 12 servicios geológicos europeos a la altura de sus retos futuros, que ha permitido dar acceso a esa información a través de plataformas acordes con la realidad tecnológica actual y potenciar la transferencia de datos y resultados de la investigación geocientífica a la comunidad científica y a la sociedad".
El primer sistema europeo de información de aguas subterráneas ya está en la red. Dispone de información sobre más de 800.000 pozos y manantiales europeos. La aplicación e-Water móvil permite el acceso a los datos de aguas subterráneas sobre el terreno.
FUENTE | IGME - mi+d 19/01/2009
El proyecto europeo eWater, sistema de información multilingüe de las aguas subterráneas en Europa, ha finalizado tras más de dos años de trabajo.
Se trata de un portal web con un sistema de información asociado que proporciona un acceso multilingüe (13 idiomas) y transfronterizo a las bases de datos sobre aguas subterráneas y a la cartografía hidrogeológica de 12 institutos geológicos europeos: Austria, Dinamarca, Emilia-Romagna de Italia, Francia, Hungría, Países Bajos, República Checa, Lituania, Eslovenia, Eslovaquia, Suecia y España.
Entrando en www.ewater.eu cualquier especialista o gestor del agua de la administración o de la empresa privada encontrará información de más de 800.000 pozos y manantiales europeos; datos de niveles piezométricos, caudales y características químicas del agua; un catálogo de metadatos (información sobre los datos); un visualizador de mapas; un diccionario multilingüe online para la traducción de términos hidrogeológicos e, incluso, una aplicación eWater móvil para el acceso a datos de aguas subterráneas sobre el terreno, mediante un dispositivo móvil con GPS.
Este portal, se conforma como una herramienta que mejorará la eficacia en la gestión del agua subterránea. Multiplica la disponibilidad, la accesibilidad y la utilización de los datos espaciales sobre la localización, cantidad, calidad y el uso de las aguas subterráneas, contribuyendo a salvar los problemas a la hora de compartir información hidrogeológica espacial y homogénea a través de las fronteras de la Unión Europea. Servirá, además, para el análisis conjunto de los múltiples aspectos que afectan a la gestión de los recursos hídricos a escala nacional y comunitaria.
eWater cumple con la Directiva INSPIRE, que establece una infraestructura de información espacial en la Comunidad Europea. Según Juana López Bravo, responsable del proyecto en el Instituto Geológico y Minero de España (IGME) junto a Javier Rodríguez Arévalo (actualmente en el CEDEX), "el proyecto ha supuesto un salto importante en la interoperabilidad de mapas digitales". Y es que el portal cuenta con servicios web que hacen posible que un usuario pueda llamar información desde cualquier país y trabajar con ella independientemente de la tecnología que utilice para crear mapas. "La infraestructura de datos espaciales hidrogeológicos y el sistema desarrollado en eWater son pioneros y los 15 socios del proyecto hemos trabajado con el objetivo de contribuir al desarrollo de la Directiva Marco del Agua (DMA) y ser una herramienta hacia la construcción del Sistema de Información sobre el Agua en Europa (WISE)". La implicación del IGME en este proyecto europeo, de 1,2 millones de euros de presupuesto, ha sido muy activa. Hay que tener en cuenta que el Instituto acumula información geocientífica desde hace más de 150 años y sus bases de datos e informes representan uno de sus principales activos. El equipo español ha liderado los trabajos de interoperabilidad de mapas digitales además de la definición de un mapa hidrogeológico común para toda Europa, que se basa en una leyenda armonizada y que ya se estrena en www.ewater.eu
Mapa hidrogeológico armonizado para España
Durante los próximos 3 años (2009-2011), los 12 servicios geológicos y las 3 compañías de tecnología de la información, GIM (Bélgica), Geodan (Países Bajos) y I.T. (Lituania), que han participado como socios en este proyecto, se ocuparán del mantenimiento de este portal que se enmarca en el área de trabajo de Información Geográfica del programa europeo eContentplus (2005-2008) aprobado por el Parlamento y el Consejo Europeo con objeto de hacer más accesible y explotable la información digital. En este sentido Javier Rodríguez Arévalo explica que "eWater ha motivado una acción conjunta de estos 12 servicios geológicos europeos a la altura de sus retos futuros, que ha permitido dar acceso a esa información a través de plataformas acordes con la realidad tecnológica actual y potenciar la transferencia de datos y resultados de la investigación geocientífica a la comunidad científica y a la sociedad".
Reconstruyen la temperatura del mar de hace 21.000 años
Un grupo de investigadores, entre ellos dos españoles, ha logrado reconstruir la temperatura oceánica global durante el último máximo glacial, hace 21.000 años, lo que podría ayudar a predecir con más fiabilidad el cambio climático y su magnitud.
FUENTE | Agencia EFE 19/01/2009
Este es uno de los principales objetivos de un proyecto llamado MARGO, cuyos resultados se publican en la revista 'Nature Geoscience' en su versión digital, y que, además, desvela datos como que algunas zonas tenían temperaturas más altas que las actuales, como por ejemplo el mar del noreste de Australia, entre uno y tres grados.
Antoni Rosell, investigador de la Universidad Autónoma de Barcelona y uno de los promotores de este proyecto, ha explicado que MARGO supone una versión actualizada de un estudio de los 70, CLIMAP, gracias al cual ya se obtuvieron mapas de temperatura del mar, pero sólo siguiendo un método y no seis como esta vez.
"Uno de los retos actuales más importantes en las ciencias del clima es poder predecir el cambio climático y para ello necesitamos modelos climáticos fiables", ha detallado este científico.
Para llevar a cabo este estudio, con participación de 52 investigadores de todo el mundo, se ha acotado el período de análisis entre los años 23.000 y 19.000 antes de nuestra era y se han compilado 696 medidas de la temperatura de la superficie de los océanos a partir de sedimentos encontrados en las profundidades y los restos de fósiles que contienen.
De los seis métodos o técnicas utilizadas, conocidas como paleotermómetros, para obtener estas mediciones, cuatro se basan en principios ecológicos y en el estudio de los caparazones de organismos marinos microscópicos, y dos en principios geoquímicos, por ejemplo a partir de moléculas orgánicas producidas por algas unicelulares.
Rosell ha detallado que MARGO ofrece datos más precisos sobre la temperatura, especialmente, de zonas marinas del Atlántico Norte o trópicos, una nueva perspectiva sobre la sensibilidad del sistema climático de la Tierra al dióxido de carbono y una herramienta que se podrá utilizar para mejorar la fiabilidad de los modelos climáticos actuales.
Los científicos han constatado que el clima en el período máximo glacial se caracterizó por grandes variaciones de temperaturas este-oeste en las latitudes tropicales y en el Atlántico Norte "muy diferentes a las actuales".
Según este trabajo, la cubierta de hielo que ocupaba gran parte del mar del Norte en este período no era permanente, como aseguraba CLIMAP, sino que se fundía durante la estación más cálida, lo que permitía el intercambio de calor entre el océano y la atmósfera, favoreciendo un mayor índice de humedad y el crecimiento y mantenimiento de grandes casquetes polares en Europa y Norteamérica.
De acuerdo con el proyecto CLIMAP, MARGO ha determinado que el mayor enfriamiento (más de -10 grados) se produjo a la latitud mediana del Atlántico Norte, y se extendió hacia la zona del Mediterráneo (-6 grados), pero MARGO indica que el enfriamiento creó un gradiente de temperaturas longitudinal (este-oeste) inverso al reconstruido por CLIMAP.
Con respecto al enfriamiento de los trópicos, el proyecto MARGO desvela que fue más extenso y más heterogéneo de lo que se creía, siendo más acusado en el Atlántico que en el Índico y el Pacífico.
Las corrientes subtropicales del Océano Atlántico experimentaron un ligero enfriamiento en la zona central, mientras que en el Pacífico las corrientes subtropicales del norte y del sur probablemente eran más calientes que hoy en día (entre 1 y 2 grados).
Los investigadores también han concluido que en el Océano Antártico se produjo un desplazamiento del frente polar hacia al norte, produciéndose un enfriamiento de entre -2 y -6 grados respeto a las temperaturas actuales.
Por su parte, Isabel Cacho, de la Universidad de Barcelona, ha recalcado que este trabajo confirma que una cuenca pequeña, como la del Mediterráneo, es capaz de amplificar (más intensidad) un cambio climático.
FUENTE | Agencia EFE 19/01/2009
Este es uno de los principales objetivos de un proyecto llamado MARGO, cuyos resultados se publican en la revista 'Nature Geoscience' en su versión digital, y que, además, desvela datos como que algunas zonas tenían temperaturas más altas que las actuales, como por ejemplo el mar del noreste de Australia, entre uno y tres grados.
Antoni Rosell, investigador de la Universidad Autónoma de Barcelona y uno de los promotores de este proyecto, ha explicado que MARGO supone una versión actualizada de un estudio de los 70, CLIMAP, gracias al cual ya se obtuvieron mapas de temperatura del mar, pero sólo siguiendo un método y no seis como esta vez.
"Uno de los retos actuales más importantes en las ciencias del clima es poder predecir el cambio climático y para ello necesitamos modelos climáticos fiables", ha detallado este científico.
Para llevar a cabo este estudio, con participación de 52 investigadores de todo el mundo, se ha acotado el período de análisis entre los años 23.000 y 19.000 antes de nuestra era y se han compilado 696 medidas de la temperatura de la superficie de los océanos a partir de sedimentos encontrados en las profundidades y los restos de fósiles que contienen.
De los seis métodos o técnicas utilizadas, conocidas como paleotermómetros, para obtener estas mediciones, cuatro se basan en principios ecológicos y en el estudio de los caparazones de organismos marinos microscópicos, y dos en principios geoquímicos, por ejemplo a partir de moléculas orgánicas producidas por algas unicelulares.
Rosell ha detallado que MARGO ofrece datos más precisos sobre la temperatura, especialmente, de zonas marinas del Atlántico Norte o trópicos, una nueva perspectiva sobre la sensibilidad del sistema climático de la Tierra al dióxido de carbono y una herramienta que se podrá utilizar para mejorar la fiabilidad de los modelos climáticos actuales.
Los científicos han constatado que el clima en el período máximo glacial se caracterizó por grandes variaciones de temperaturas este-oeste en las latitudes tropicales y en el Atlántico Norte "muy diferentes a las actuales".
Según este trabajo, la cubierta de hielo que ocupaba gran parte del mar del Norte en este período no era permanente, como aseguraba CLIMAP, sino que se fundía durante la estación más cálida, lo que permitía el intercambio de calor entre el océano y la atmósfera, favoreciendo un mayor índice de humedad y el crecimiento y mantenimiento de grandes casquetes polares en Europa y Norteamérica.
De acuerdo con el proyecto CLIMAP, MARGO ha determinado que el mayor enfriamiento (más de -10 grados) se produjo a la latitud mediana del Atlántico Norte, y se extendió hacia la zona del Mediterráneo (-6 grados), pero MARGO indica que el enfriamiento creó un gradiente de temperaturas longitudinal (este-oeste) inverso al reconstruido por CLIMAP.
Con respecto al enfriamiento de los trópicos, el proyecto MARGO desvela que fue más extenso y más heterogéneo de lo que se creía, siendo más acusado en el Atlántico que en el Índico y el Pacífico.
Las corrientes subtropicales del Océano Atlántico experimentaron un ligero enfriamiento en la zona central, mientras que en el Pacífico las corrientes subtropicales del norte y del sur probablemente eran más calientes que hoy en día (entre 1 y 2 grados).
Los investigadores también han concluido que en el Océano Antártico se produjo un desplazamiento del frente polar hacia al norte, produciéndose un enfriamiento de entre -2 y -6 grados respeto a las temperaturas actuales.
Por su parte, Isabel Cacho, de la Universidad de Barcelona, ha recalcado que este trabajo confirma que una cuenca pequeña, como la del Mediterráneo, es capaz de amplificar (más intensidad) un cambio climático.
Filtros verdes
En el siguiente enlace encontrarás información relativa a los filtros verdes empleados en la depuración blanda de las aguas residuales.
Si pinchas aquí verás una imagen de una zona en la que hay implantada una EDAR con filtros verdes alrededor.
En este enlace descubrirás los sistemas de fitodepuración más empleados
Si pinchas aquí verás una imagen de una zona en la que hay implantada una EDAR con filtros verdes alrededor.
En este enlace descubrirás los sistemas de fitodepuración más empleados
martes, 13 de enero de 2009
Páginas de pruebas Pau
- COMPRUEBA es una batería de ejercicios para entrenarse en todas las materias
-MODELOS DE EXAMEN DE ESTE CURSO Y DE CURSOS ANTERIORES Universidad Complutense de Madrid
- MODELOS DE EXAMEN DE ESTE CURSO Y DE CURSOS ANTERIORES Universidad de Alcalá
En cada examen se incluyen los Criterios de Corrección.
-MODELOS DE EXAMEN DE ESTE CURSO Y DE CURSOS ANTERIORES Universidad Complutense de Madrid
- MODELOS DE EXAMEN DE ESTE CURSO Y DE CURSOS ANTERIORES Universidad de Alcalá
En cada examen se incluyen los Criterios de Corrección.
Científicos advierten de que el nivel del mar subirá un metro durante el próximo siglo
El nivel del mar podría subir un metro durante el siguiente siglo según una investigación llevada a cabo por científicos europeos. Un artículo sobre el estudio, publicado en la revista Climate Dynamics, sugiere que incluso aunque la temperatura suba sólo dos grados centígrados durante los próximos cien años (lo que supone una situación relativamente optimista), los niveles del mar subirán unos ochenta centímetros.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 13/01/2009
«En realidad necesitamos adaptarnos a la subida del nivel del mar», manifestó el Dr. Aslak Grinsted, geofísico de la Universidad de Copenhague (Dinamarca). «Las reducciones de CO2 ayudarían pero ya vamos camino de un aumento considerable del nivel del mar. El sistema posee demasiada inercia.»
Las últimas predicciones del aumento del nivel del mar para el próximo siglo son mucho mayores que las publicadas por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC). En su último informe, se predijo que los niveles marinos aumentarían entre 18 y 59 centímetros en los próximos cien años. El propio IPCC ha admitido que ésta puede ser una estimación a la baja. Aunque la contribución de los pequeños glaciares y la expansión térmica de los océanos al aumento del nivel del mar está relativamente clara, no se puede afirmar lo mismo de las grandes capas de hielo que cubren Groenlandia y la Antártida.
En este reciente estudio, los científicos han empleado otro enfoque, que implica retroceder en el tiempo para investigar la relación entre la temperatura y el aumento del nivel del mar durante los últimos 2.000 años.
«En lugar de realizar cálculos en función de lo que se cree que ocurrirá cuando se derritan las capas de hielo, los hemos realizado basándonos en sucesos del pasado», explicó el Dr. Grinsted. La información sobre las temperaturas del pasado procedió de testigos de hielo y de los anillos de crecimiento anual de árboles. Los niveles marinos se han medido de forma directa en distintas localizaciones en todo el mundo desde hace cerca de trescientos años, pero también existe información que se remonta mucho más atrás en el tiempo.
De acuerdo con los cálculos del equipo, si la temperatura sube 3 grados centígrados durante los próximos 100 años, los niveles marinos también se elevarán entre 0,9 y 1,3 metros. Una predicción más optimista, en la que los aumentos de temperatura alcanzarán los dos grados centígrados, advierte de aumento del nivel del mar de unos ochenta centímetros. Por otro lado, siendo más pesimistas y situando el aumento de temperatura en los 4,5 grados centígrados, los niveles marinos podrían subir hasta 1,35 metros.
«Incluso aunque consigamos detener el aumento de la temperatura, el nivel del mar subirá entre 20 y 40 centímetros», afirmó el Dr. Grinsted. «Para detener el aumento del nivel del mar deberíamos reducir la temperatura en 0,6 grados centígrados.»
Los investigadores señalan que durante el siglo XXI el nivel del mar subirá más rápido de lo que lo ha hecho durante los últimos dos mil años. No obstante, existen precedentes a estos rápidos cambios en el nivel del mar. Al final de la última glaciación, hace unos 11.700 años, las capas de hielo se derritieron tan rápido que el nivel del mar subió 11 milímetros anuales, o lo que es lo mismo, más de un metro en 100 años.
«Todos los expertos, incluso los del propio IPCC, estaban al corriente de que los proyectos del IPCC pecaron de conservadores, y aquellos con los que he mantenido comunicación tenían la impresión de que se podía esperar un aumento de entre un metro y un metro y medio», comentó el Dr. Grinsted. «Ahora hemos aportado pruebas sólidas. Confiamos en que los planificadores de estructuras nos escuchen y hagan su trabajo en relación a estas pruebas.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 13/01/2009
«En realidad necesitamos adaptarnos a la subida del nivel del mar», manifestó el Dr. Aslak Grinsted, geofísico de la Universidad de Copenhague (Dinamarca). «Las reducciones de CO2 ayudarían pero ya vamos camino de un aumento considerable del nivel del mar. El sistema posee demasiada inercia.»
Las últimas predicciones del aumento del nivel del mar para el próximo siglo son mucho mayores que las publicadas por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC). En su último informe, se predijo que los niveles marinos aumentarían entre 18 y 59 centímetros en los próximos cien años. El propio IPCC ha admitido que ésta puede ser una estimación a la baja. Aunque la contribución de los pequeños glaciares y la expansión térmica de los océanos al aumento del nivel del mar está relativamente clara, no se puede afirmar lo mismo de las grandes capas de hielo que cubren Groenlandia y la Antártida.
En este reciente estudio, los científicos han empleado otro enfoque, que implica retroceder en el tiempo para investigar la relación entre la temperatura y el aumento del nivel del mar durante los últimos 2.000 años.
«En lugar de realizar cálculos en función de lo que se cree que ocurrirá cuando se derritan las capas de hielo, los hemos realizado basándonos en sucesos del pasado», explicó el Dr. Grinsted. La información sobre las temperaturas del pasado procedió de testigos de hielo y de los anillos de crecimiento anual de árboles. Los niveles marinos se han medido de forma directa en distintas localizaciones en todo el mundo desde hace cerca de trescientos años, pero también existe información que se remonta mucho más atrás en el tiempo.
De acuerdo con los cálculos del equipo, si la temperatura sube 3 grados centígrados durante los próximos 100 años, los niveles marinos también se elevarán entre 0,9 y 1,3 metros. Una predicción más optimista, en la que los aumentos de temperatura alcanzarán los dos grados centígrados, advierte de aumento del nivel del mar de unos ochenta centímetros. Por otro lado, siendo más pesimistas y situando el aumento de temperatura en los 4,5 grados centígrados, los niveles marinos podrían subir hasta 1,35 metros.
«Incluso aunque consigamos detener el aumento de la temperatura, el nivel del mar subirá entre 20 y 40 centímetros», afirmó el Dr. Grinsted. «Para detener el aumento del nivel del mar deberíamos reducir la temperatura en 0,6 grados centígrados.»
Los investigadores señalan que durante el siglo XXI el nivel del mar subirá más rápido de lo que lo ha hecho durante los últimos dos mil años. No obstante, existen precedentes a estos rápidos cambios en el nivel del mar. Al final de la última glaciación, hace unos 11.700 años, las capas de hielo se derritieron tan rápido que el nivel del mar subió 11 milímetros anuales, o lo que es lo mismo, más de un metro en 100 años.
«Todos los expertos, incluso los del propio IPCC, estaban al corriente de que los proyectos del IPCC pecaron de conservadores, y aquellos con los que he mantenido comunicación tenían la impresión de que se podía esperar un aumento de entre un metro y un metro y medio», comentó el Dr. Grinsted. «Ahora hemos aportado pruebas sólidas. Confiamos en que los planificadores de estructuras nos escuchen y hagan su trabajo en relación a estas pruebas.»
viernes, 26 de diciembre de 2008
jueves, 11 de diciembre de 2008
El hidrógeno: ¿última oportunidad para un sistema energético sostenible?
El continuo desarrollo económico y tecnológico de nuestra sociedad va acompañado de un incremento creciente de las necesidades energéticas. ¿Coches, barcos y aviones alimentados por hidrógeno?
David Serrano Granados
Catedrático de Ingeniería Química. Director del Departamento de Tecnología Química y Ambiental. Universidad Rey Juan Carlos
El consumo de energía primaria a nivel mundial se ha incrementado durante la última década a un ritmo promedio del 2% anual, lo que implica que el consumo total de energía se duplica cada 35 años. Recientemente, las tasas de crecimiento anuales han sido incluso mayores con valores del 3,3 y 2,9% en los años 2002 y 2003, respectivamente. Una tasa de crecimiento sostenida del 3% nos llevaría a una duplicación del consumo energético anual en apenas 24 años. Estos aumentos en la demanda de energía han tenido lugar a pesar de los importantes logros alcanzados en cuanto a la mejora de la eficiencia de las transformaciones energéticas. El constante incremento de la población mundial y el desarrollo económico que están experimentando determinados países y zonas geográficas, de los que China representa el máximo exponente, son las principales razones de la aceleración en la demanda de energía. Sólo en el año 2003, la energía total consumida por ese país experimentó un incremento del 13,8%.
En la actualidad, las fuentes de energía primaria fundamentales son los combustibles fósiles (petróleo, gas natural y carbón) que, en conjunto, aportan más del 80% de la energía total que consumimos. El resto se distribuye entre energía nuclear, energía hidroeléctrica y otras energías renovables. Este sistema energético plantea una serie de problemas de gran magnitud, entre los que cabe citar:
- Es previsible que los combustibles fósiles, a excepción del carbón, se agoten en las próximas décadas. Actualmente la relación reservas probadas / producción anual (R/P) para el petróleo y el gas natural es de 41 y 67 años, respectivamente. Cierto es que de forma continua se realizan descubrimientos de nuevos yacimientos, pero también que el consumo de ambos tipos de combustibles crece sin pausa, por lo que más tarde o más temprano se producirá un descenso paulatino de la relación R/P. Por otro lado, cabe pensar que los efectos de esta situación sobre los mercados y los precios de la energía se harán sentir mucho antes de que se produzca el agotamiento del petróleo y del gas natural. Se estima que antes del año 2030 la producción de petróleo y gas natural no podrá cubrir la demanda de estos tipos de combustibles fósiles.
- Las reservas de petróleo y gas natural muestran una distribución geográfica muy heterogénea, concentrándose en zonas de elevada inestabilidad geopolítica. El 63% de las reservas de petróleo y el 41% de las de gas natural se localizan en Oriente Medio. Los efectos de esta concentración de recursos energéticos sobre los precios, la economía y la estabilidad mundial son bien conocidos.
- El uso de combustibles fósiles como fuente de energía lleva asociado un coste medioambiental muy importante, con una degradación de la calidad del aire como consecuencia de las emisiones de diferentes contaminantes (SOx, NOx, hidrocarburos, partículas sólidas, etc.). De entre todos los problemas generados, sin duda en la actualidad el más grave y acuciante es la acumulación en la atmósfera de CO2 y otros gases de efecto invernadero que están provocando un incremento de la temperatura media del planeta, con el consiguiente riesgo de alteraciones en el clima.
Estos factores evidencian claramente que nuestro actual modelo energético no es sostenible, por lo que urge la búsqueda de nuevas alternativas y fuentes de energía sustitutivas de los combustibles fósiles. La energía nuclear de fisión presenta su propia problemática y riesgos ambientales, mientras que el desarrollo de procesos de fusión de forma controlada no resulta una meta alcanzable a medio plazo, ni siquiera en el horizonte de la segunda mitad del siglo XXI. Las energías renovables tradicionales (hidráulica, eólica, solar, biomasa, etc.) han experimentado un fuerte crecimiento a lo largo de la última década, pero por sí solas tampoco parece que puedan sustituir por completo a los combustibles fósiles. Se corre el riesgo de que se produzca una inversión en la evolución histórica que, a lo largo de los siglos XIX y XX, ha permitido utilizar paulatinamente combustibles más limpios y con menores emisiones de contaminantes, pasando del carbón al petróleo, primero, y al gas natural, después. Las cifras de años recientes muestran una cierta marcha atrás con incrementos en el consumo de carbón del 9,1 y 6,9% en los años 2002 y 2003, respectivamente, tasas muy superiores a las experimentadas por el petróleo y el gas natural. Como consecuencia el carbón ha pasado de aportar el 24,1% de la energía primaria consumida a nivel mundial en el año 2001 al 26,4% en el año 2003, es decir, un incremento de más de 2 puntos porcentuales sobre el total de energía primaria. Aunque los datos del año 2004 todavía no están disponibles, cabe anticipar una participación todavía mayor del carbón como consecuencia del fuerte incremento experimentado por el precio del barril de petróleo. El carbón no presenta problemas de limitación en el volumen de reservas pero, de mantenerse esta tendencia, se agravarían enormemente los problemas medioambientales con un incremento muy importante en las emisiones de contaminantes, y en especial de CO2.
Se han propuesto diferentes métodos para conseguir el confinamiento del CO2 generado a partir de combustibles fósiles, lo que en todos los casos requiere el desarrollo de una serie de etapas de captura, presurización y transporte de CO2. Entre las alternativas contempladas se encuentra la inyección de CO2 líquido en océanos a una profundidad superior a 2 km. o en depósitos subterráneos (yacimientos agotados de gas natural y formaciones geológicas). El confinamiento de CO2 implica, por tanto, importantes costes energéticos y económicos. Asimismo, existe un elevado grado de incertidumbre respecto de la estabilidad a medio/largo plazo del CO2 capturado, así como sobre los posibles efectos medioambientales que puede tener su confinamiento en grandes cantidades.
Se comprende que, en este contexto, el posible uso del hidrógeno como fuente de energía haya despertado un enorme interés. La reacción entre el hidrógeno y el oxígeno es un proceso sencillo, fuertemente exotérmico, que conduce a la formación de agua como único producto. La energía liberada se puede aprovechar directamente o se puede emplear para generar electricidad mediante una pila de combustible. El uso del hidrógeno como fuente de energía presenta, además, las siguientes ventajas: el hidrógeno se puede transportar grandes distancias en fase gas o líquida, existe una amplia variedad de procesos que permiten su transformación en otras formas de energía, la interconversión hidrógeno/electricidad tiene lugar en ambas direcciones con una elevada eficacia y, a diferencia de lo que sucede con la energía eléctrica, es posible acumular y almacenar hidrógeno en grandes cantidades. Un sistema energético basado en el hidrógeno permitiría una amplia deslocalización de los recursos energéticos, ya que cada país podría adaptar los sistemas de producción de hidrógeno a las fuentes de energía propias, evitándose la actual dependencia en el suministro de energía procedente de determinadas zonas geográficas. Esta relación de potenciales ventajas explica que el hidrógeno esté "de moda" y que en los últimos años se haya producido una extraordinaria proliferación de acontecimientos respecto de su uso como fuente de energía: artículos científicos, libros, revistas, páginas web, asociaciones, redes, plataformas, congresos, conferencias, proyectos, prototipos, declaraciones políticas, etc. El término "economía del hidrógeno" se ha acuñado y aplicado con bastante éxito para referirse a un futuro más o menos próximo en el que el hidrógeno será el principal vector energético.
El hidrógeno se postula como una nueva fuente de energía que puede remediar las limitaciones y problemas derivados de la actual dependencia de los combustibles fósiles. Realmente, el concepto no es nuevo. En 1839 se descubre el principio de funcionamiento de las pilas de combustible. Posteriormente, uno de los personajes de la novela de Julio Verne "La isla misteriosa", publicada en 1874, sugiere que en el futuro "...hidrógeno y oxígeno, usados juntos o por separado, proporcionarán una fuente inagotable de luz y calor". En los años 20 y 30 del siglo XX se producen las primeras aplicaciones industriales del hidrógeno, mientras que en el periodo 1950-70 se desarrollan usos puntuales del hidrógeno como fuente de energía. La crisis energética de 1973 evidencia el gran potencial de un sistema energético basado en el hidrógeno. Sin embargo, posteriormente se produce un cierto decaimiento del interés en el hidrógeno como consecuencia del descenso en los precios del petróleo a lo largo de las décadas 1980-90. La situación actual, con un coste del barril de petróleo superior a 50$ y la percepción generalizada de los daños sobre el medio ambiente que está causando el uso de combustibles fósiles, es la ideal para promover el desarrollo de la economía del hidrógeno.
La posible sustitución del petróleo y del gas natural por hidrógeno confirmaría la evolución histórica en cuanto a la composición de los combustibles, que ha seguido un proceso paulatino de descarbonización. El carbón, combustible fósil predominante en el siglo XIX y que posee una relación C/H de 2, fue desplazado a lo largo del siglo XX en primer lugar por el petróleo (C/H = 0,5) y, a continuación, por el gas natural (C/H = 0,25). La introducción del hidrógeno durante el siglo XXI supondría llevar al extremo este proceso alcanzando una relación C/H de cero. La descarbonización lleva implícito el uso de combustibles cada vez más limpios y que conducen a una menor producción de CO2.
Sin embargo, no todo son luces respecto del uso generalizado del hidrógeno como fuente de energía. Existen, actualmente, importantes limitaciones tecnológicas y económicas que afectan a las diferentes fases del proceso: producción, almacenamiento, transporte, distribución y utilización del hidrógeno. Asimismo, es previsible que se presenten dificultades en cuanto a su aceptación social, derivadas de la percepción de riesgo que supone la elevada inflamabilidad del hidrógeno, así como la necesidad de llevar a cabo su transporte y almacenamiento a altas presiones. El principal inconveniente de un sistema energético basado en el hidrógeno se deriva del hecho de que no se trata de una fuente de energía primaria, al no encontrarse libre en nuestro planeta (la concentración de hidrógeno en la atmósfera es inferior a 1 ppm). Por ello, el hidrógeno ha de obtenerse y producirse a partir de compuestos que lo contienen como es el caso del agua, hidrocarburos y alcoholes, mediante procesos que implican un importante consumo de energía primaria. En este esquema, el hidrógeno actúa como un vector energético, permitiendo el transporte de energía desde la fuente primaria hasta la aplicación final. La afirmación de que el hidrógeno es una fuente de energía totalmente limpia, sin emisiones y renovable debe, por tanto, matizarse. El hidrógeno podrá considerarse una fuente de energía renovable siempre y cuando la energía primaria consumida en su generación así lo sea. Asimismo, en un balance global habrán de considerarse, asociados al hidrógeno, las emisiones y efectos medioambientales correspondientes a la fuente de energía primaria. Si el hidrógeno se obtiene, por ejemplo, a partir de electricidad que, a su vez, procede de una central térmica de carbón, habrá de considerarse como una fuente no renovable, que lleva asociadas importantes emisiones de CO2 y otros contaminantes.
A continuación se analizan brevemente los principales procesos que permiten producir hidrógeno:
1. Reformado de gas natural con vapor de agua. Mediante este proceso el metano, componente mayoritario del gas natural, se transforma en una mezcla de CO2 y H2. La transformación tiene lugar a elevada presión y temperatura, lo que implica un coste energético significativo con una eficacia global de aproximadamente el 65%. El reformado con vapor de agua también se puede aplicar a otras materias primas como es el caso del carbón o de los hidrocarburos obtenidos del petróleo, aunque con mayores emisiones de CO2. Únicamente, si este proceso parte de productos derivados de la biomasa, las emisiones globales de CO2 podrán considerarse casi nulas.
2. Oxidación parcial de hidrocarburos (gasificación). El contacto con una atmósfera deficiente en oxígeno a elevada temperatura provoca la transformación del hidrocarburo de partida en CO y H2. Este proceso permite la obtención de hidrógeno a partir de cualquier tipo de hidrocarburo, aunque la eficiencia global es sólo del 50%. Los procesos de gasificación son también aplicables para la producción de hidrógeno a partir de carbón o biomasa.
3. Electrolisis. El paso de una corriente eléctrica permite romper la molécula de agua en hidrógeno y oxígeno. La eficiencia es elevada, situándose en el intervalo 65-85%. El hidrógeno así obtenido se encuentra libre de CO2 y de otros gases contaminantes, al menos aparentemente. En un balance global, la existencia o no de estas emisiones dependerá del origen de la energía eléctrica consumida. Si ésta procede de combustibles fósiles, el CO2 se habrá generado en la central térmica productora de electricidad y en este caso la eficacia energética del proceso en su conjunto será mucho menor. Por ello, existe un gran interés en el desarrollo de procesos electrolíticos de producción de hidrógeno en los que la energía eléctrica se haya generado "in situ" mediante una fuente renovable, principalmente energía solar fotovoltaica o energía eólica. En la actualidad, la principal limitación de esta vía es el elevado coste del hidrógeno así producido, del orden de cinco veces el coste del hidrógeno obtenido por reformado.
4. Fotoprocesos. En este apartado se engloba un conjunto de procesos que tienen en común la utilización de la radiación solar para producir hidrógeno a partir del agua o la biomasa. Las técnicas fotobiológicas se basan en el ciclo de la fotosíntesis de las plantas y de algunas bacterias y algas. Uno de los problemas que presentan es que la mayor parte de las enzimas capaces de catalizar la disociación del agua se inhiben en presencia de oxígeno. Los procesos fotoquímicos tratan de imitar el proceso natural de la fotosíntesis utilizando moléculas sintéticas. En los procesos fotoelectroquímicos (fotoelectrolisis) se utilizan materiales fotovoltaicos y semiconductores que al ser expuestos a la luz producen una diferencia de potencial eléctrico, la cual a su vez provoca la escisión de la molécula de agua. Los fotoprocesos presentan eficiencias energéticas bajas (< 15%), aunque en este caso este factor no sea del todo determinante por utilizar una fuente de energía inagotable.
5. Procesos termoquímicos. Se basan en el empleo de calor para provocar la disociación del agua en hidrógeno y oxígeno. La transformación puramente térmica resulta inviable desde un punto de vista práctico ya que sería necesario alcanzar temperaturas del orden de 3000ºC. Como alternativa, se ha propuesto el desarrollo de diferentes reacciones químicas mediante complejos procesos multietapas, lo que permite reducir apreciablemente la temperatura de operación.
Las tecnologías de producción de hidrógeno a partir de fuentes renovables se encuentran todavía en fase de incubación. De hecho en la actualidad el 99% del hidrógeno producido procede de combustibles fósiles, estimándose que transcurrirán entre una y dos décadas hasta que se desarrollen procesos comerciales de obtención de hidrógeno basados en fuentes renovables.
Otro de los retos fundamentales que debe afrontar un sistema energético basado en el hidrógeno es la necesidad de crear una red completa de nuevas infraestructuras para su transporte, almacenamiento y distribución: depósitos, tuberías, estaciones de bombeo, estaciones para el llenado de vehículos ("hidrogeneras"), etc. Los problemas a solventar no son sólo de índole económica, dadas las grandes inversiones a realizar, sino también tecnológicos. El transporte y almacenamiento de hidrógeno pueden llevarse a cabo como gas comprimido o licuado. A presión y temperatura ambiente el hidrógeno ocupa un volumen 3000 veces superior al de una cantidad de gasolina con el mismo contenido energético. La baja densidad del hidrógeno hace necesario que su transporte y/o almacenamiento en fase gas se realicen a presiones elevadas (entre 200 y 500 atm), lo que implica un coste energético adicional asociado al trabajo de compresión, además de plantear cuestiones de seguridad. Otra alternativa, es la licuefacción del hidrógeno, para lo cual resulta necesario alcanzar temperaturas de - 253ºC. En este caso, los depósitos de hidrógeno han de estar aislados térmicamente o bien refrigerados con nitrógeno líquido. Aún así, las pérdidas por evaporación de parte del hidrógeno líquido pueden ser importantes, entre un 0,1 y un 2% al día. A estas pérdidas energéticas, habría que sumar el consumo de energía producido en el proceso de licuefacción. Ninguna de estas dos alternativas parece viable para el uso de hidrógeno como combustible en el sector del transporte, lo que puede suponer un auténtico cuello de botella en el desarrollo de vehículos impulsados con hidrógeno al limitar la autonomía de los mismos. Por ello, se están estudiando otros métodos de almacenamiento de hidrógeno en vehículos como es el uso de diferentes materiales que tienen la capacidad de retener hidrógeno en elevadas concentraciones como es el caso de hidruros metálicos, hidruros químicos, esponjas de hierro, microesferas de vidrio, nanotubos de carbono, etc., aunque hasta la fecha ninguno de ellos parece poder cumplir los requerimientos necesarios en términos de volumen, peso, condiciones de liberación del hidrógeno y tiempos de llenado y descarga del depósito.
Respecto del uso final del hidrógeno para producir energía existen diferentes alternativas, entre las que cabe citar su utilización como combustible en motores de combustión interna, turbinas y pilas de combustible. La aplicación del hidrógeno en motores de combustión interna permite obtener eficiencias energéticas superiores en un 20% a las de motores de gasolina, aunque se produce una pérdida de potencia debido al menor contenido energético de la mezcla presente en el cilindro del motor. Asimismo, el accionamiento de turbinas mediante la combustión de hidrógeno conduce a mayores eficiencias y evita problemas de formación de depósitos y de corrosión de los materiales de la turbina. En todos estos procesos el producto principal que se forma es agua, sin apenas presencia de gases contaminantes. Únicamente, en los procesos de combustión que operan a elevada temperatura se produce también la formación de pequeñas cantidades de NOX.
No obstante, la alternativa de mayor potencial futuro y que ha despertado un mayor interés es la generación de electricidad por alimentación del hidrógeno a pilas de combustible a través de un proceso electroquímico. La energía eléctrica se genera por oxidación electroquímica del hidrógeno (se alimenta al ánodo) con oxígeno (se alimenta al cátodo). Esta transformación tiene lugar con una eficiencia de aproximadamente el 60%. Dependiendo del electrolito se distinguen diferentes tipos de pilas de combustible: disoluciones alcalinas, membranas de intercambio de protones, ácido fosfórico, carbonatos fundidos y óxidos sólidos. Las pilas de combustible suelen operar con voltajes comprendidos entre 0,6 y 0,8 V, mientras que la temperatura de trabajo viene determinada por el tipo de electrolito. Las pilas de membranas de polímero operan a temperaturas comprendidas entre 60 y 80ºC. En el extremo opuesto se encuentran las pilas de óxidos sólidos que necesitan alcanzar temperaturas de hasta 1000ºC. Para su uso en automóviles, las pilas de combustible basadas en membranas de intercambio de protones parecen ser una de las alternativas más interesantes. En la mayor parte de los casos el hidrógeno alimentado a la pila de combustible ha de poseer una elevada pureza, lo que hace necesario reducir hasta niveles extremadamente bajos la concentración de otros componentes que pueden acompañar al hidrógeno en función de su origen. En la actualidad las principales limitaciones de las pilas de combustible están relacionadas con su durabilidad y elevado coste.
El uso masivo del hidrógeno como vector energético puede tener también sus consecuencias medioambientales. El hidrógeno es un gas extremadamente ligero, que posee la capacidad de infiltrarse a través de pequeños huecos e intersticios de los materiales de construcción. Cabe esperar que las fugas de hidrógeno a lo largo de la red de tuberías, depósitos de almacenamiento y estaciones de suministro sean considerables. Se ha especulado con la posibilidad de que el hidrógeno así liberado pueda afectar negativamente al ozono estratosférico. No obstante, estas fugas se podrían minimizar con un sistema descentralizado de distribución del hidrógeno en el que éste se produzca, no en grandes plantas, sino directamente en instalaciones de menor tamaño localizadas en las proximidades de los puntos de consumo.
Como resumen, podemos concluir que, aunque no todos son aspectos favorables y que todavía existen muchas incógnitas por despejar, el uso del hidrógeno como vector energético será probablemente una realidad a medio plazo. Esta opción no está completamente exenta de riesgos y de potenciales efectos negativos. Además, los retos tecnológicos que han de alcanzarse requerirán de un ingente esfuerzo científico, tecnológico y económico. Sin embargo, los beneficios que se pueden derivar de la economía del hidrógeno son de tal magnitud que a priori compensan a los anteriores. Las previsiones más razonables auguran una transición a la economía del hidrógeno en dos etapas. En la primera, el hidrógeno se obtendría a partir de combustibles fósiles de menor impacto ambiental, principalmente gas natural. Este periodo de transición, que podría prolongarse durante varias décadas, daría paso finalmente a un sistema energético en el que el hidrógeno se obtendría enteramente de fuentes renovables. El camino por recorrer para el desarrollo de la economía del hidrógeno parece todavía bastante largo y con numerosas incertidumbres. Pero, por otro lado, no se vislumbran, al menos a medio plazo, otras alternativas viables para el desarrollo de un sistema energético sostenible y compatible con el medio ambiente.
David Serrano Granados
Catedrático de Ingeniería Química. Director del Departamento de Tecnología Química y Ambiental. Universidad Rey Juan Carlos
El consumo de energía primaria a nivel mundial se ha incrementado durante la última década a un ritmo promedio del 2% anual, lo que implica que el consumo total de energía se duplica cada 35 años. Recientemente, las tasas de crecimiento anuales han sido incluso mayores con valores del 3,3 y 2,9% en los años 2002 y 2003, respectivamente. Una tasa de crecimiento sostenida del 3% nos llevaría a una duplicación del consumo energético anual en apenas 24 años. Estos aumentos en la demanda de energía han tenido lugar a pesar de los importantes logros alcanzados en cuanto a la mejora de la eficiencia de las transformaciones energéticas. El constante incremento de la población mundial y el desarrollo económico que están experimentando determinados países y zonas geográficas, de los que China representa el máximo exponente, son las principales razones de la aceleración en la demanda de energía. Sólo en el año 2003, la energía total consumida por ese país experimentó un incremento del 13,8%.
En la actualidad, las fuentes de energía primaria fundamentales son los combustibles fósiles (petróleo, gas natural y carbón) que, en conjunto, aportan más del 80% de la energía total que consumimos. El resto se distribuye entre energía nuclear, energía hidroeléctrica y otras energías renovables. Este sistema energético plantea una serie de problemas de gran magnitud, entre los que cabe citar:
- Es previsible que los combustibles fósiles, a excepción del carbón, se agoten en las próximas décadas. Actualmente la relación reservas probadas / producción anual (R/P) para el petróleo y el gas natural es de 41 y 67 años, respectivamente. Cierto es que de forma continua se realizan descubrimientos de nuevos yacimientos, pero también que el consumo de ambos tipos de combustibles crece sin pausa, por lo que más tarde o más temprano se producirá un descenso paulatino de la relación R/P. Por otro lado, cabe pensar que los efectos de esta situación sobre los mercados y los precios de la energía se harán sentir mucho antes de que se produzca el agotamiento del petróleo y del gas natural. Se estima que antes del año 2030 la producción de petróleo y gas natural no podrá cubrir la demanda de estos tipos de combustibles fósiles.
- Las reservas de petróleo y gas natural muestran una distribución geográfica muy heterogénea, concentrándose en zonas de elevada inestabilidad geopolítica. El 63% de las reservas de petróleo y el 41% de las de gas natural se localizan en Oriente Medio. Los efectos de esta concentración de recursos energéticos sobre los precios, la economía y la estabilidad mundial son bien conocidos.
- El uso de combustibles fósiles como fuente de energía lleva asociado un coste medioambiental muy importante, con una degradación de la calidad del aire como consecuencia de las emisiones de diferentes contaminantes (SOx, NOx, hidrocarburos, partículas sólidas, etc.). De entre todos los problemas generados, sin duda en la actualidad el más grave y acuciante es la acumulación en la atmósfera de CO2 y otros gases de efecto invernadero que están provocando un incremento de la temperatura media del planeta, con el consiguiente riesgo de alteraciones en el clima.
Estos factores evidencian claramente que nuestro actual modelo energético no es sostenible, por lo que urge la búsqueda de nuevas alternativas y fuentes de energía sustitutivas de los combustibles fósiles. La energía nuclear de fisión presenta su propia problemática y riesgos ambientales, mientras que el desarrollo de procesos de fusión de forma controlada no resulta una meta alcanzable a medio plazo, ni siquiera en el horizonte de la segunda mitad del siglo XXI. Las energías renovables tradicionales (hidráulica, eólica, solar, biomasa, etc.) han experimentado un fuerte crecimiento a lo largo de la última década, pero por sí solas tampoco parece que puedan sustituir por completo a los combustibles fósiles. Se corre el riesgo de que se produzca una inversión en la evolución histórica que, a lo largo de los siglos XIX y XX, ha permitido utilizar paulatinamente combustibles más limpios y con menores emisiones de contaminantes, pasando del carbón al petróleo, primero, y al gas natural, después. Las cifras de años recientes muestran una cierta marcha atrás con incrementos en el consumo de carbón del 9,1 y 6,9% en los años 2002 y 2003, respectivamente, tasas muy superiores a las experimentadas por el petróleo y el gas natural. Como consecuencia el carbón ha pasado de aportar el 24,1% de la energía primaria consumida a nivel mundial en el año 2001 al 26,4% en el año 2003, es decir, un incremento de más de 2 puntos porcentuales sobre el total de energía primaria. Aunque los datos del año 2004 todavía no están disponibles, cabe anticipar una participación todavía mayor del carbón como consecuencia del fuerte incremento experimentado por el precio del barril de petróleo. El carbón no presenta problemas de limitación en el volumen de reservas pero, de mantenerse esta tendencia, se agravarían enormemente los problemas medioambientales con un incremento muy importante en las emisiones de contaminantes, y en especial de CO2.
Se han propuesto diferentes métodos para conseguir el confinamiento del CO2 generado a partir de combustibles fósiles, lo que en todos los casos requiere el desarrollo de una serie de etapas de captura, presurización y transporte de CO2. Entre las alternativas contempladas se encuentra la inyección de CO2 líquido en océanos a una profundidad superior a 2 km. o en depósitos subterráneos (yacimientos agotados de gas natural y formaciones geológicas). El confinamiento de CO2 implica, por tanto, importantes costes energéticos y económicos. Asimismo, existe un elevado grado de incertidumbre respecto de la estabilidad a medio/largo plazo del CO2 capturado, así como sobre los posibles efectos medioambientales que puede tener su confinamiento en grandes cantidades.
Se comprende que, en este contexto, el posible uso del hidrógeno como fuente de energía haya despertado un enorme interés. La reacción entre el hidrógeno y el oxígeno es un proceso sencillo, fuertemente exotérmico, que conduce a la formación de agua como único producto. La energía liberada se puede aprovechar directamente o se puede emplear para generar electricidad mediante una pila de combustible. El uso del hidrógeno como fuente de energía presenta, además, las siguientes ventajas: el hidrógeno se puede transportar grandes distancias en fase gas o líquida, existe una amplia variedad de procesos que permiten su transformación en otras formas de energía, la interconversión hidrógeno/electricidad tiene lugar en ambas direcciones con una elevada eficacia y, a diferencia de lo que sucede con la energía eléctrica, es posible acumular y almacenar hidrógeno en grandes cantidades. Un sistema energético basado en el hidrógeno permitiría una amplia deslocalización de los recursos energéticos, ya que cada país podría adaptar los sistemas de producción de hidrógeno a las fuentes de energía propias, evitándose la actual dependencia en el suministro de energía procedente de determinadas zonas geográficas. Esta relación de potenciales ventajas explica que el hidrógeno esté "de moda" y que en los últimos años se haya producido una extraordinaria proliferación de acontecimientos respecto de su uso como fuente de energía: artículos científicos, libros, revistas, páginas web, asociaciones, redes, plataformas, congresos, conferencias, proyectos, prototipos, declaraciones políticas, etc. El término "economía del hidrógeno" se ha acuñado y aplicado con bastante éxito para referirse a un futuro más o menos próximo en el que el hidrógeno será el principal vector energético.
El hidrógeno se postula como una nueva fuente de energía que puede remediar las limitaciones y problemas derivados de la actual dependencia de los combustibles fósiles. Realmente, el concepto no es nuevo. En 1839 se descubre el principio de funcionamiento de las pilas de combustible. Posteriormente, uno de los personajes de la novela de Julio Verne "La isla misteriosa", publicada en 1874, sugiere que en el futuro "...hidrógeno y oxígeno, usados juntos o por separado, proporcionarán una fuente inagotable de luz y calor". En los años 20 y 30 del siglo XX se producen las primeras aplicaciones industriales del hidrógeno, mientras que en el periodo 1950-70 se desarrollan usos puntuales del hidrógeno como fuente de energía. La crisis energética de 1973 evidencia el gran potencial de un sistema energético basado en el hidrógeno. Sin embargo, posteriormente se produce un cierto decaimiento del interés en el hidrógeno como consecuencia del descenso en los precios del petróleo a lo largo de las décadas 1980-90. La situación actual, con un coste del barril de petróleo superior a 50$ y la percepción generalizada de los daños sobre el medio ambiente que está causando el uso de combustibles fósiles, es la ideal para promover el desarrollo de la economía del hidrógeno.
La posible sustitución del petróleo y del gas natural por hidrógeno confirmaría la evolución histórica en cuanto a la composición de los combustibles, que ha seguido un proceso paulatino de descarbonización. El carbón, combustible fósil predominante en el siglo XIX y que posee una relación C/H de 2, fue desplazado a lo largo del siglo XX en primer lugar por el petróleo (C/H = 0,5) y, a continuación, por el gas natural (C/H = 0,25). La introducción del hidrógeno durante el siglo XXI supondría llevar al extremo este proceso alcanzando una relación C/H de cero. La descarbonización lleva implícito el uso de combustibles cada vez más limpios y que conducen a una menor producción de CO2.
Sin embargo, no todo son luces respecto del uso generalizado del hidrógeno como fuente de energía. Existen, actualmente, importantes limitaciones tecnológicas y económicas que afectan a las diferentes fases del proceso: producción, almacenamiento, transporte, distribución y utilización del hidrógeno. Asimismo, es previsible que se presenten dificultades en cuanto a su aceptación social, derivadas de la percepción de riesgo que supone la elevada inflamabilidad del hidrógeno, así como la necesidad de llevar a cabo su transporte y almacenamiento a altas presiones. El principal inconveniente de un sistema energético basado en el hidrógeno se deriva del hecho de que no se trata de una fuente de energía primaria, al no encontrarse libre en nuestro planeta (la concentración de hidrógeno en la atmósfera es inferior a 1 ppm). Por ello, el hidrógeno ha de obtenerse y producirse a partir de compuestos que lo contienen como es el caso del agua, hidrocarburos y alcoholes, mediante procesos que implican un importante consumo de energía primaria. En este esquema, el hidrógeno actúa como un vector energético, permitiendo el transporte de energía desde la fuente primaria hasta la aplicación final. La afirmación de que el hidrógeno es una fuente de energía totalmente limpia, sin emisiones y renovable debe, por tanto, matizarse. El hidrógeno podrá considerarse una fuente de energía renovable siempre y cuando la energía primaria consumida en su generación así lo sea. Asimismo, en un balance global habrán de considerarse, asociados al hidrógeno, las emisiones y efectos medioambientales correspondientes a la fuente de energía primaria. Si el hidrógeno se obtiene, por ejemplo, a partir de electricidad que, a su vez, procede de una central térmica de carbón, habrá de considerarse como una fuente no renovable, que lleva asociadas importantes emisiones de CO2 y otros contaminantes.
A continuación se analizan brevemente los principales procesos que permiten producir hidrógeno:
1. Reformado de gas natural con vapor de agua. Mediante este proceso el metano, componente mayoritario del gas natural, se transforma en una mezcla de CO2 y H2. La transformación tiene lugar a elevada presión y temperatura, lo que implica un coste energético significativo con una eficacia global de aproximadamente el 65%. El reformado con vapor de agua también se puede aplicar a otras materias primas como es el caso del carbón o de los hidrocarburos obtenidos del petróleo, aunque con mayores emisiones de CO2. Únicamente, si este proceso parte de productos derivados de la biomasa, las emisiones globales de CO2 podrán considerarse casi nulas.
2. Oxidación parcial de hidrocarburos (gasificación). El contacto con una atmósfera deficiente en oxígeno a elevada temperatura provoca la transformación del hidrocarburo de partida en CO y H2. Este proceso permite la obtención de hidrógeno a partir de cualquier tipo de hidrocarburo, aunque la eficiencia global es sólo del 50%. Los procesos de gasificación son también aplicables para la producción de hidrógeno a partir de carbón o biomasa.
3. Electrolisis. El paso de una corriente eléctrica permite romper la molécula de agua en hidrógeno y oxígeno. La eficiencia es elevada, situándose en el intervalo 65-85%. El hidrógeno así obtenido se encuentra libre de CO2 y de otros gases contaminantes, al menos aparentemente. En un balance global, la existencia o no de estas emisiones dependerá del origen de la energía eléctrica consumida. Si ésta procede de combustibles fósiles, el CO2 se habrá generado en la central térmica productora de electricidad y en este caso la eficacia energética del proceso en su conjunto será mucho menor. Por ello, existe un gran interés en el desarrollo de procesos electrolíticos de producción de hidrógeno en los que la energía eléctrica se haya generado "in situ" mediante una fuente renovable, principalmente energía solar fotovoltaica o energía eólica. En la actualidad, la principal limitación de esta vía es el elevado coste del hidrógeno así producido, del orden de cinco veces el coste del hidrógeno obtenido por reformado.
4. Fotoprocesos. En este apartado se engloba un conjunto de procesos que tienen en común la utilización de la radiación solar para producir hidrógeno a partir del agua o la biomasa. Las técnicas fotobiológicas se basan en el ciclo de la fotosíntesis de las plantas y de algunas bacterias y algas. Uno de los problemas que presentan es que la mayor parte de las enzimas capaces de catalizar la disociación del agua se inhiben en presencia de oxígeno. Los procesos fotoquímicos tratan de imitar el proceso natural de la fotosíntesis utilizando moléculas sintéticas. En los procesos fotoelectroquímicos (fotoelectrolisis) se utilizan materiales fotovoltaicos y semiconductores que al ser expuestos a la luz producen una diferencia de potencial eléctrico, la cual a su vez provoca la escisión de la molécula de agua. Los fotoprocesos presentan eficiencias energéticas bajas (< 15%), aunque en este caso este factor no sea del todo determinante por utilizar una fuente de energía inagotable.
5. Procesos termoquímicos. Se basan en el empleo de calor para provocar la disociación del agua en hidrógeno y oxígeno. La transformación puramente térmica resulta inviable desde un punto de vista práctico ya que sería necesario alcanzar temperaturas del orden de 3000ºC. Como alternativa, se ha propuesto el desarrollo de diferentes reacciones químicas mediante complejos procesos multietapas, lo que permite reducir apreciablemente la temperatura de operación.
Las tecnologías de producción de hidrógeno a partir de fuentes renovables se encuentran todavía en fase de incubación. De hecho en la actualidad el 99% del hidrógeno producido procede de combustibles fósiles, estimándose que transcurrirán entre una y dos décadas hasta que se desarrollen procesos comerciales de obtención de hidrógeno basados en fuentes renovables.
Otro de los retos fundamentales que debe afrontar un sistema energético basado en el hidrógeno es la necesidad de crear una red completa de nuevas infraestructuras para su transporte, almacenamiento y distribución: depósitos, tuberías, estaciones de bombeo, estaciones para el llenado de vehículos ("hidrogeneras"), etc. Los problemas a solventar no son sólo de índole económica, dadas las grandes inversiones a realizar, sino también tecnológicos. El transporte y almacenamiento de hidrógeno pueden llevarse a cabo como gas comprimido o licuado. A presión y temperatura ambiente el hidrógeno ocupa un volumen 3000 veces superior al de una cantidad de gasolina con el mismo contenido energético. La baja densidad del hidrógeno hace necesario que su transporte y/o almacenamiento en fase gas se realicen a presiones elevadas (entre 200 y 500 atm), lo que implica un coste energético adicional asociado al trabajo de compresión, además de plantear cuestiones de seguridad. Otra alternativa, es la licuefacción del hidrógeno, para lo cual resulta necesario alcanzar temperaturas de - 253ºC. En este caso, los depósitos de hidrógeno han de estar aislados térmicamente o bien refrigerados con nitrógeno líquido. Aún así, las pérdidas por evaporación de parte del hidrógeno líquido pueden ser importantes, entre un 0,1 y un 2% al día. A estas pérdidas energéticas, habría que sumar el consumo de energía producido en el proceso de licuefacción. Ninguna de estas dos alternativas parece viable para el uso de hidrógeno como combustible en el sector del transporte, lo que puede suponer un auténtico cuello de botella en el desarrollo de vehículos impulsados con hidrógeno al limitar la autonomía de los mismos. Por ello, se están estudiando otros métodos de almacenamiento de hidrógeno en vehículos como es el uso de diferentes materiales que tienen la capacidad de retener hidrógeno en elevadas concentraciones como es el caso de hidruros metálicos, hidruros químicos, esponjas de hierro, microesferas de vidrio, nanotubos de carbono, etc., aunque hasta la fecha ninguno de ellos parece poder cumplir los requerimientos necesarios en términos de volumen, peso, condiciones de liberación del hidrógeno y tiempos de llenado y descarga del depósito.
Respecto del uso final del hidrógeno para producir energía existen diferentes alternativas, entre las que cabe citar su utilización como combustible en motores de combustión interna, turbinas y pilas de combustible. La aplicación del hidrógeno en motores de combustión interna permite obtener eficiencias energéticas superiores en un 20% a las de motores de gasolina, aunque se produce una pérdida de potencia debido al menor contenido energético de la mezcla presente en el cilindro del motor. Asimismo, el accionamiento de turbinas mediante la combustión de hidrógeno conduce a mayores eficiencias y evita problemas de formación de depósitos y de corrosión de los materiales de la turbina. En todos estos procesos el producto principal que se forma es agua, sin apenas presencia de gases contaminantes. Únicamente, en los procesos de combustión que operan a elevada temperatura se produce también la formación de pequeñas cantidades de NOX.
No obstante, la alternativa de mayor potencial futuro y que ha despertado un mayor interés es la generación de electricidad por alimentación del hidrógeno a pilas de combustible a través de un proceso electroquímico. La energía eléctrica se genera por oxidación electroquímica del hidrógeno (se alimenta al ánodo) con oxígeno (se alimenta al cátodo). Esta transformación tiene lugar con una eficiencia de aproximadamente el 60%. Dependiendo del electrolito se distinguen diferentes tipos de pilas de combustible: disoluciones alcalinas, membranas de intercambio de protones, ácido fosfórico, carbonatos fundidos y óxidos sólidos. Las pilas de combustible suelen operar con voltajes comprendidos entre 0,6 y 0,8 V, mientras que la temperatura de trabajo viene determinada por el tipo de electrolito. Las pilas de membranas de polímero operan a temperaturas comprendidas entre 60 y 80ºC. En el extremo opuesto se encuentran las pilas de óxidos sólidos que necesitan alcanzar temperaturas de hasta 1000ºC. Para su uso en automóviles, las pilas de combustible basadas en membranas de intercambio de protones parecen ser una de las alternativas más interesantes. En la mayor parte de los casos el hidrógeno alimentado a la pila de combustible ha de poseer una elevada pureza, lo que hace necesario reducir hasta niveles extremadamente bajos la concentración de otros componentes que pueden acompañar al hidrógeno en función de su origen. En la actualidad las principales limitaciones de las pilas de combustible están relacionadas con su durabilidad y elevado coste.
El uso masivo del hidrógeno como vector energético puede tener también sus consecuencias medioambientales. El hidrógeno es un gas extremadamente ligero, que posee la capacidad de infiltrarse a través de pequeños huecos e intersticios de los materiales de construcción. Cabe esperar que las fugas de hidrógeno a lo largo de la red de tuberías, depósitos de almacenamiento y estaciones de suministro sean considerables. Se ha especulado con la posibilidad de que el hidrógeno así liberado pueda afectar negativamente al ozono estratosférico. No obstante, estas fugas se podrían minimizar con un sistema descentralizado de distribución del hidrógeno en el que éste se produzca, no en grandes plantas, sino directamente en instalaciones de menor tamaño localizadas en las proximidades de los puntos de consumo.
Como resumen, podemos concluir que, aunque no todos son aspectos favorables y que todavía existen muchas incógnitas por despejar, el uso del hidrógeno como vector energético será probablemente una realidad a medio plazo. Esta opción no está completamente exenta de riesgos y de potenciales efectos negativos. Además, los retos tecnológicos que han de alcanzarse requerirán de un ingente esfuerzo científico, tecnológico y económico. Sin embargo, los beneficios que se pueden derivar de la economía del hidrógeno son de tal magnitud que a priori compensan a los anteriores. Las previsiones más razonables auguran una transición a la economía del hidrógeno en dos etapas. En la primera, el hidrógeno se obtendría a partir de combustibles fósiles de menor impacto ambiental, principalmente gas natural. Este periodo de transición, que podría prolongarse durante varias décadas, daría paso finalmente a un sistema energético en el que el hidrógeno se obtendría enteramente de fuentes renovables. El camino por recorrer para el desarrollo de la economía del hidrógeno parece todavía bastante largo y con numerosas incertidumbres. Pero, por otro lado, no se vislumbran, al menos a medio plazo, otras alternativas viables para el desarrollo de un sistema energético sostenible y compatible con el medio ambiente.
Suscribirse a:
Entradas (Atom)