El anhelo de almacenar el dióxido de carbono (CO2) bajo tierra, con el fin de mitigar el calentamiento, está algo más cerca. Los planes para que las futuras plantas térmicas de carbón limpio no emitan estos gases de efecto invernadero avanzan con rapidez. Y los primeros pasos se están dando también en España, de la mano de la fundación pública Ciudad de la Energía (Ciuden), radicada en Ponferrada (León), en colaboración con Endesa. La iniciativa promueve una planta piloto de captura de CO2 de 30 MW en Compostilla (León) y la primera planta de investigación sobre almacenamiento subterráneo en Hontomín (Burgos).
FUENTE | La Vanguardia Digital 09/09/2010
Este es uno de los seis proyectos europeos para demostrar la viabilidad de las modernas tecnologías para producir electricidad con carbón limpio (con captura y almacenamiento de CO2) y combatir el cambio climático. El CO2 generado en la planta piloto de Compostilla será inyectado bajo tierra en Hontomín, en donde se llevan ya a cabo las tareas de investigación sobre el terreno.
Los trabajos para desarrollar estos primeros desarrollos tecnológicos en materia de almacenamiento de CO2 avanzan "a buen ritmo", explica Modesto Montoto, director del programa de almacenamiento de CO2 de Ciuden. La instalación de Hontomín deberá estar concluida el año próximo, de manera que las primeras experiencias de inyección del CO2 en el subsuelo podrían iniciarse a finales del 2011.
El lugar elegido es un subsuelo con aguas salobres (que no se usan para abastecimiento) en la cuenca del Duero. Concretamente, el CO2 se inyectará en una formación de rocas calizas para ser almacenado a unos 1.400 metros de profundidad. El gas, sometido a presión, deberá alojarse en los poros de la roca caliza, empapada de agua salobre. Ésta deberá actuar como una esponja. Allí, el CO2 deberá disolverse y reaccionar con los minerales de la roca para formar nuevas mineralizaciones y quedar confinado. En los huecos de esas rocas porosas deberá, pues, incrustarse el CO2 que no queremos que salga en la atmósfera. Y, por encima, existe una capa geológica no porosa ni permeable para garantizar el sellado y evitar que el CO2 salga a la superficie.
Montoto precisa que el objetivo prioritario de Ciuden es "conocer todas las actividades que rodean una planta de almacenamiento de CO2 y desarrollar la tecnología para que los futuros almacenamientos industriales sean factibles, seguros y económicos". En los próximos años, las térmicas de carbón deberán enterrar el CO2 en el subsuelo; y por eso se trata de conocer todas las circunstancias que esto supone en cuanto a viabilidad técnica, tecnológica y económica.
Al elegir el emplazamiento de Hontomín, Ciuden ha buscado una estructura geológica óptima y poder contrastar todas las variantes de las tecnologías que deberán ser empleadas en este tipo de operaciones de almacenamiento. Sólo se inyectará un máximo de 100.000 toneladas de CO2 atendiendo la normativa europea para estas investigaciones.
"Nuestra misión es imitar la naturaleza, que ya ha hecho almacenamientos de este tipo, de gas o de petróleo. Se trata de ver qué tipos de ensayos permiten garantizar que se va a actuar de la misma manera que lo ha hecho la naturaleza", dice Montoto.
Los primeros trabajos han consistido en caracterizar el terreno con reconocimientos sísmicos en tres dimensiones, tras lo cual podrán empezarse los sondeos. A partir de ellos, se podrá conocer mejor la rocas que van a actuar como almacén o como sello, detectar las posibles vías de fuga, concretar la capacidad de almacenamiento o analizar cómo se mueve esa agua salada en la que debe quedar atrapada el CO2.
Completa el ciclo del carbón limpio que se iniciará en la planta de captura de CO2 de Compostilla, en donde se incorporará un sistema de combustión del carbón con oxígeno (en lugar de aire), lo que permite obtener una corriente pura de gran concentración de estos gases. Así, se evitará su emisión a la atmósfera, conducirlos y enterrarlos. Los primeros envíos del CO2 hasta Hontomín se harán en camión, aunque en el futuro, la previsión es que este tipo de transporte de CO2 -desde las térmicas de carbón limpio hasta los lugares de almacenamiento- se haga mediante grandes conductos (como los actuales gasoductos u oleoductos), según los planes esbozados por la UE.
La planta de captura de CO2 de Compostilla tendrá 30 MW, pero el acuerdo de colaboración firmado entre Ciuden y Endesa pretende avanzar hacia la posible construcción de una planta industrial de 300 MW con esta tecnología (en una segunda fase). Sería la primera planta industrial del mundo en su especialidad (oxicombustión y en lecho fluido) y estaría lista en el 2015. Sin embargo, la financiación europea sólo cubre 180 millones de euros hasta el 2012, mientras que la futura planta industrial de 300MW costaría 1.400 millones. El almacenamiento del CO2 generado a partir del 2015 en la planta industrial no tiene destino definido.
Autor: Antonio Cerrillo
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
sábado, 11 de septiembre de 2010
miércoles, 8 de septiembre de 2010
Adecuada gestión del agua
Huracanes, desprendimientos, sequías y terremotos son sólo algunos de los fenómenos naturales que azotan nuestro planeta.
FUENTE CORDIS: Servicio de Información en I+D Comunitario
08/09/2010
Además, un nuevo informe advierte de que el aumento de la aleatoriedad de las lluvias ligado al cambio climático afectará de forma negativa a la seguridad alimentaria y el crecimiento económico, y que África y Asia se llevarán la peor parte.
El Instituto Internacional de Gestión del Agua (IWMI, Sri Lanka) ha identificado una acción clave que podría ayudar a detener este proceso y a la vez aumentar la producción agrícola de secano: impulsar la inversión en distintas formas de almacenamiento de agua.
«Millones de agricultores de secano están a merced de la disponibilidad de agua, impredecible y menguante», explicó Colin Chartres, Director General del IWMI. «El cambio climático afectará en extremo a estas personas, por lo que es necesario realizar con rapidez grandes inversiones en medidas de adaptación.»
Algunas acciones, como la construcción de presas de gran tamaño, suponen un alivio rápido, pero no garantizan del todo la sostenibilidad a largo plazo. A pesar de su capacidad para controlar inundaciones y mejorar la productividad agrícola, tales presas generan problemas de índole social y medioambiental. El IWMI explica que los cambios en los cursos de los ríos han obligado a hasta 80 millones de personas a desplazarse de sus hogares y afectan a cerca de 470 millones que viven río abajo de presas.
En lugar de centrarse en acciones de este tipo es necesario emplear un método integrado que combine opciones de almacenado de agua a pequeña y gran escala. Por ejemplo, el agua subterránea, almacenada en el subsuelo, y el agua recogida en estanques, embalses y tanques podría utilizarse para solucionar los problemas que pudieran surgir.
«Al igual que los consumidores modernos diversifican sus posesiones para reducir riesgos, los pequeños agricultores precisan una gama amplia de "reservas de agua" para amortiguar los impactos del cambio climático», indicó Matthew McCartney del IWMI, primer firmante del informe. «De esta forma si se seca una fuente de agua podrán utilizar las demás», añadió.
«Para los millones de personas que dependen de la agricultura de secano, el acceso estable al agua puede marcar la diferencia entre el hambre crónica y un progreso constante hacia la seguridad alimentaria. Incluso pequeñas cantidades de agua almacenada pueden propiciar grandes aumentos de la productividad agrícola y del bienestar de las comunidades rurales al permitir que tanto cultivos como ganado sobrevivan a periodos secos.»
Según el IWMI, una mejor gestión agrícola del agua podría mejorar enormemente la situación de casi 500 millones de personas en África e India. La agricultura de secano supone el 94% del total de la superficie de cultivo en el África subsahariana y el 66% en Asia, según datos del IWMI. El problema reside en que las infraestructuras de almacenaje de agua son prácticamente inexistentes en estas zonas.
«Si no reducimos la incertidumbre en la agricultura de secano mediante la mejora de los medios para almacenar agua, muchos agricultores de países en desarrollo se enfrentarán indefensos a un clima mucho más hostil e impredecible», señala el IWMI.
Es necesario meditar en profundidad y adoptar medidas seguras como el desarrollo y la creación de más opciones de almacenado a pequeña escala, pues beneficiarían enormemente a la seguridad alimentaria y la economía local. En resumen, la solución radica en la eficacia en la planificación y la gestión.
El Dr. McCartney advierte que «ninguna de las opciones propuestas es una panacea». «Todas entrañan beneficios y desventajas en función de sus características inherentes, la forma en la que se planifican y gestionan y las condiciones que se pueden dar en emplazamientos concretos.»
En declaraciones realizadas el 30 de agosto durante el Foro Estratégico 2010 en Bled (Eslovenia), que llevó por título «El reto del agua», el Comisario europeo de Medio Ambiente Janez Potocnik indicó que la «aceleración rápida» del siglo XX permitió la cuadruplicación de la población mundial y la multiplicación por cuarenta de la producción económica. No obstante, también multiplicamos por dieciséis y por nueve el empleo de combustibles fósiles y agua respectivamente.
El Comisario Potocnik indicó que la correcta gestión del agua es uno de los principales retos a los que nos enfrentamos. «No hay más que dirigir la vista a cualquiera de los millones de paquistaníes en peligro de muerte debido a las inundaciones y enfermedades derivadas de ellas», subrayó. «Agentes de todo el mundo son conscientes de la importancia de abordar de frente este reto.»
Los Objetivos de Desarrollo del Milenio (ODM) y la Cumbre Mundial sobre Desarrollo Sostenible (CMDS) trabajan para reducir a la mitad la proporción de personas que no poseen un acceso sostenible a agua potable y alcantarillado básico.
Por su parte, la Comisión Europea ha creado la Iniciativa de la Unión Europea sobre el Agua, que pretende implantar la gestión integrada de recursos hídricos abarcando cada cuenca hidrográfica en su totalidad. Con cerca de 1.500 millones de euros de financiación para proyectos relacionados con el agua, esta iniciativa reúne a grupos y personas procedentes de una enorme variedad de sectores con el fin de asegurar una mejor gobernanza en el sector hídrico y atraer una mayor cantidad de inversiones regionales. Con ella se espera fortalecer la cooperación regional y aumentar la eficacia de los mecanismos financieros para la financiación de programas de desarrollo.
FUENTE CORDIS: Servicio de Información en I+D Comunitario
08/09/2010
Además, un nuevo informe advierte de que el aumento de la aleatoriedad de las lluvias ligado al cambio climático afectará de forma negativa a la seguridad alimentaria y el crecimiento económico, y que África y Asia se llevarán la peor parte.
El Instituto Internacional de Gestión del Agua (IWMI, Sri Lanka) ha identificado una acción clave que podría ayudar a detener este proceso y a la vez aumentar la producción agrícola de secano: impulsar la inversión en distintas formas de almacenamiento de agua.
«Millones de agricultores de secano están a merced de la disponibilidad de agua, impredecible y menguante», explicó Colin Chartres, Director General del IWMI. «El cambio climático afectará en extremo a estas personas, por lo que es necesario realizar con rapidez grandes inversiones en medidas de adaptación.»
Algunas acciones, como la construcción de presas de gran tamaño, suponen un alivio rápido, pero no garantizan del todo la sostenibilidad a largo plazo. A pesar de su capacidad para controlar inundaciones y mejorar la productividad agrícola, tales presas generan problemas de índole social y medioambiental. El IWMI explica que los cambios en los cursos de los ríos han obligado a hasta 80 millones de personas a desplazarse de sus hogares y afectan a cerca de 470 millones que viven río abajo de presas.
En lugar de centrarse en acciones de este tipo es necesario emplear un método integrado que combine opciones de almacenado de agua a pequeña y gran escala. Por ejemplo, el agua subterránea, almacenada en el subsuelo, y el agua recogida en estanques, embalses y tanques podría utilizarse para solucionar los problemas que pudieran surgir.
«Al igual que los consumidores modernos diversifican sus posesiones para reducir riesgos, los pequeños agricultores precisan una gama amplia de "reservas de agua" para amortiguar los impactos del cambio climático», indicó Matthew McCartney del IWMI, primer firmante del informe. «De esta forma si se seca una fuente de agua podrán utilizar las demás», añadió.
«Para los millones de personas que dependen de la agricultura de secano, el acceso estable al agua puede marcar la diferencia entre el hambre crónica y un progreso constante hacia la seguridad alimentaria. Incluso pequeñas cantidades de agua almacenada pueden propiciar grandes aumentos de la productividad agrícola y del bienestar de las comunidades rurales al permitir que tanto cultivos como ganado sobrevivan a periodos secos.»
Según el IWMI, una mejor gestión agrícola del agua podría mejorar enormemente la situación de casi 500 millones de personas en África e India. La agricultura de secano supone el 94% del total de la superficie de cultivo en el África subsahariana y el 66% en Asia, según datos del IWMI. El problema reside en que las infraestructuras de almacenaje de agua son prácticamente inexistentes en estas zonas.
«Si no reducimos la incertidumbre en la agricultura de secano mediante la mejora de los medios para almacenar agua, muchos agricultores de países en desarrollo se enfrentarán indefensos a un clima mucho más hostil e impredecible», señala el IWMI.
Es necesario meditar en profundidad y adoptar medidas seguras como el desarrollo y la creación de más opciones de almacenado a pequeña escala, pues beneficiarían enormemente a la seguridad alimentaria y la economía local. En resumen, la solución radica en la eficacia en la planificación y la gestión.
El Dr. McCartney advierte que «ninguna de las opciones propuestas es una panacea». «Todas entrañan beneficios y desventajas en función de sus características inherentes, la forma en la que se planifican y gestionan y las condiciones que se pueden dar en emplazamientos concretos.»
En declaraciones realizadas el 30 de agosto durante el Foro Estratégico 2010 en Bled (Eslovenia), que llevó por título «El reto del agua», el Comisario europeo de Medio Ambiente Janez Potocnik indicó que la «aceleración rápida» del siglo XX permitió la cuadruplicación de la población mundial y la multiplicación por cuarenta de la producción económica. No obstante, también multiplicamos por dieciséis y por nueve el empleo de combustibles fósiles y agua respectivamente.
El Comisario Potocnik indicó que la correcta gestión del agua es uno de los principales retos a los que nos enfrentamos. «No hay más que dirigir la vista a cualquiera de los millones de paquistaníes en peligro de muerte debido a las inundaciones y enfermedades derivadas de ellas», subrayó. «Agentes de todo el mundo son conscientes de la importancia de abordar de frente este reto.»
Los Objetivos de Desarrollo del Milenio (ODM) y la Cumbre Mundial sobre Desarrollo Sostenible (CMDS) trabajan para reducir a la mitad la proporción de personas que no poseen un acceso sostenible a agua potable y alcantarillado básico.
Por su parte, la Comisión Europea ha creado la Iniciativa de la Unión Europea sobre el Agua, que pretende implantar la gestión integrada de recursos hídricos abarcando cada cuenca hidrográfica en su totalidad. Con cerca de 1.500 millones de euros de financiación para proyectos relacionados con el agua, esta iniciativa reúne a grupos y personas procedentes de una enorme variedad de sectores con el fin de asegurar una mejor gobernanza en el sector hídrico y atraer una mayor cantidad de inversiones regionales. Con ella se espera fortalecer la cooperación regional y aumentar la eficacia de los mecanismos financieros para la financiación de programas de desarrollo.
martes, 7 de septiembre de 2010
Energía y medio ambiente: la búsqueda del planeta que necesitamos
Dentro del contexto actual de energía y medio ambiente, la Universidad Rey Juan Carlos (URJC) propone un conjunto de actividades para su Campus de Móstoles que en un ambiente lúdico y placentero llame la atención sobre las soluciones y la complementariedad que pueden aportar la pareja energía/medio ambiente en la futura sostenibilidad del planeta, de forma que se incentive entre los jóvenes el interés por la investigación y el desarrollo tecnológico en estos ámbitos.
FUENTE URJC - mi+d
07/09/2010
Ahora que las sociedades más avanzadas han comprendido por fin que los recursos energéticos clásicos no son ilimitados y que el aprovechamiento de la energía no puede comprometer el futuro del planeta y de las próximas generaciones, el imparable desarrollo en el siglo XXI de los nuevos países emergentes, que conlleva un aumento exponencial del consumo de recursos energéticos, plantea dos grandes retos científicos y tecnológicos a los que debemos enfrentarnos: la generación sostenible de nuevas fuentes de energía y el aprovechamiento medioambientalmente respetuoso de las mismas. En este sentido, las actividades planteadas tratarán de poner de manifiesto todas las anteriores premisas, intentando llamar la atención de forma didáctica y al mismo tiempo lúdica.
Para ello se realizará un recorrido científico-tecnológico por el parque de energías renovables de forma que se pueda valorar la aportación de la energía solar, la energía eólica, etc., como fuentes de energía adicionales a las convencionales. También se plantea dentro de este recorrido una visita a la planta depuradora de aguas residuales con la que cuenta el campus de Móstoles de la Universidad Rey Juan Carlos, así como visitas a las instalaciones de biorremediación y conservación, todo ello enfocado a una correcta gestión medioambiental. Además, teniendo en cuenta el desarrollo tecnológico que se está produciendo en los países desarrollados y las necesidades que van a requerir los países emergentes la biodiversidad se puede ver afectada, y en ese sentido se plantean dos actividades relacionadas con esta problemática: la valoración de la fotosíntesis y respiración del césped del campus de Móstoles, y la biodiversidad de las mariposas nocturnas en el campus de Móstoles.
La proyección de documentales y recreaciones 3D, utilizando medios de realidad virtual, electrónicos, informáticos y audiovisuales, para dar a conocer los problemas actuales en el planeta, y por supuesto, las diferentes tecnologías energéticas y de conservación del medio ambiente para solucionarlos será otra de las propuestas. De igual forma, el intercambio de experiencias mediante la impartición de charlas y mesas redondas abiertas con la presencia de investigadores relevantes del Campus de Móstoles de la URJC, serán otras de las actividades propuestas, finalizando con algo que está entre la ciencia y los pasatiempos: una serie de 25 partidas simultáneas de ajedrez con la presencia de un Gran Maestro Internacional que permita hacerse una idea de la "energía del ajedrez".
--------------------------------------------------------------------------------
ENERGÍA Y MEDIO AMBIENTE: LA BÚSQUEDA DEL PLANETA QUE NECESITAMOS
24 de septiembre de 2010 de 18:00 a 24:00
Campus de Móstoles de la Universidad Rey Juan Carlos
C/ Tulipán, s/n.
Móstoles
FUENTE URJC - mi+d
07/09/2010
Ahora que las sociedades más avanzadas han comprendido por fin que los recursos energéticos clásicos no son ilimitados y que el aprovechamiento de la energía no puede comprometer el futuro del planeta y de las próximas generaciones, el imparable desarrollo en el siglo XXI de los nuevos países emergentes, que conlleva un aumento exponencial del consumo de recursos energéticos, plantea dos grandes retos científicos y tecnológicos a los que debemos enfrentarnos: la generación sostenible de nuevas fuentes de energía y el aprovechamiento medioambientalmente respetuoso de las mismas. En este sentido, las actividades planteadas tratarán de poner de manifiesto todas las anteriores premisas, intentando llamar la atención de forma didáctica y al mismo tiempo lúdica.
Para ello se realizará un recorrido científico-tecnológico por el parque de energías renovables de forma que se pueda valorar la aportación de la energía solar, la energía eólica, etc., como fuentes de energía adicionales a las convencionales. También se plantea dentro de este recorrido una visita a la planta depuradora de aguas residuales con la que cuenta el campus de Móstoles de la Universidad Rey Juan Carlos, así como visitas a las instalaciones de biorremediación y conservación, todo ello enfocado a una correcta gestión medioambiental. Además, teniendo en cuenta el desarrollo tecnológico que se está produciendo en los países desarrollados y las necesidades que van a requerir los países emergentes la biodiversidad se puede ver afectada, y en ese sentido se plantean dos actividades relacionadas con esta problemática: la valoración de la fotosíntesis y respiración del césped del campus de Móstoles, y la biodiversidad de las mariposas nocturnas en el campus de Móstoles.
La proyección de documentales y recreaciones 3D, utilizando medios de realidad virtual, electrónicos, informáticos y audiovisuales, para dar a conocer los problemas actuales en el planeta, y por supuesto, las diferentes tecnologías energéticas y de conservación del medio ambiente para solucionarlos será otra de las propuestas. De igual forma, el intercambio de experiencias mediante la impartición de charlas y mesas redondas abiertas con la presencia de investigadores relevantes del Campus de Móstoles de la URJC, serán otras de las actividades propuestas, finalizando con algo que está entre la ciencia y los pasatiempos: una serie de 25 partidas simultáneas de ajedrez con la presencia de un Gran Maestro Internacional que permita hacerse una idea de la "energía del ajedrez".
--------------------------------------------------------------------------------
ENERGÍA Y MEDIO AMBIENTE: LA BÚSQUEDA DEL PLANETA QUE NECESITAMOS
24 de septiembre de 2010 de 18:00 a 24:00
Campus de Móstoles de la Universidad Rey Juan Carlos
C/ Tulipán, s/n.
Móstoles
viernes, 30 de julio de 2010
¿Y si nunca hubiera habido un Big Bang?
La teoría del Big Bang está tan extendida como el fenómeno al que hace referencia, pero puede existir una alternativa. El investigador Wun-Yi Shu, de la Universidad Nacional Tsing Hua en Taiwán, sugiere un nuevo modelo para explicar el Universo en el que no hay ni un origen ni un final. Según esta teoría del infinito, que sugiere que la masa, el espacio y el tiempo se relacionan de forma diferente a como ahora consideran los científicos, la gran explosión que, según el consenso científico, originó todas las cosas, nunca llegó a producirse.
FUENTE | ABC Periódico Electrónico S.A. 30/07/2010
En un estudio publicado en arXiv.org, Shu explica que el nuevo modelo responde a una nueva perspectiva sobre algunos de los conceptos básicos que se utilizan en astrofísica, como son el tiempo, el espacio, la masa y la longitud. En su propuesta, bastante difícil de entender para la gran mayoría de los mortales que no tenemos un título en Física o en Astronomía, el tiempo y el espacio se pueden convertir el uno en el otro, y la velocidad de la luz es el factor de conversión entre ambas. Como el Universo se expande, el tiempo se transforma en el espacio, y la masa, en longitud. A medida que el Universo se contrae, ocurre lo contrario.
En resumen, la propuesta de Shu tiene cuatro características distintivas. La primera es que la velocidad de la luz y la gravitación no son constantes, sino que varían con la evolución del Universo. En segundo lugar, el tiempo no tiene principio ni fin, es decir, que ni estalló el Big Bang ni se producirá nunca un Big Crunch (el Gran Colapso, una teoría que predice que el Universo irá frenándose poco a poco comprimiéndose hasta que todos sus elementos vuelvan al punto original, destruyendo toda la materia en un único punto de energía). Punto tercero: la sección espacial del Universo es de tres dimensiones curvadas en una cuarta, lo que descarta una geometría plana o hiperboloide, y por último, existen fases de aceleración y desaceleración.
La idea, además de complicada puede parecer arriesgada, pero Shu asegura que sus datos encajan perfectamente con las observaciones realizadas por los astrónomos en la Tierra. Para entender el funcionamiento del Cosmos, su teoría no necesita de la energía oscura, una misteriosa fuerza que, según los científicos, componen el 74% del Universo y cuya existencia es discutida por algunos investigadores. Sin embargo, tiene un punto flaco, y es que sus ideas no pueden explicar la existencia de fondo cósmico de microondas, que se supone la evidencia más sólida de los restos del Big Bang.
FUENTE | ABC Periódico Electrónico S.A. 30/07/2010
En un estudio publicado en arXiv.org, Shu explica que el nuevo modelo responde a una nueva perspectiva sobre algunos de los conceptos básicos que se utilizan en astrofísica, como son el tiempo, el espacio, la masa y la longitud. En su propuesta, bastante difícil de entender para la gran mayoría de los mortales que no tenemos un título en Física o en Astronomía, el tiempo y el espacio se pueden convertir el uno en el otro, y la velocidad de la luz es el factor de conversión entre ambas. Como el Universo se expande, el tiempo se transforma en el espacio, y la masa, en longitud. A medida que el Universo se contrae, ocurre lo contrario.
En resumen, la propuesta de Shu tiene cuatro características distintivas. La primera es que la velocidad de la luz y la gravitación no son constantes, sino que varían con la evolución del Universo. En segundo lugar, el tiempo no tiene principio ni fin, es decir, que ni estalló el Big Bang ni se producirá nunca un Big Crunch (el Gran Colapso, una teoría que predice que el Universo irá frenándose poco a poco comprimiéndose hasta que todos sus elementos vuelvan al punto original, destruyendo toda la materia en un único punto de energía). Punto tercero: la sección espacial del Universo es de tres dimensiones curvadas en una cuarta, lo que descarta una geometría plana o hiperboloide, y por último, existen fases de aceleración y desaceleración.
La idea, además de complicada puede parecer arriesgada, pero Shu asegura que sus datos encajan perfectamente con las observaciones realizadas por los astrónomos en la Tierra. Para entender el funcionamiento del Cosmos, su teoría no necesita de la energía oscura, una misteriosa fuerza que, según los científicos, componen el 74% del Universo y cuya existencia es discutida por algunos investigadores. Sin embargo, tiene un punto flaco, y es que sus ideas no pueden explicar la existencia de fondo cósmico de microondas, que se supone la evidencia más sólida de los restos del Big Bang.
sábado, 15 de mayo de 2010
Toda la vida procede de un único ancestro común
Hace más de 150 años, Charles Darwin propuso una teoría que entonces pareció descabellada: todos los seres vivos comparten la herencia genética de un único y remoto antepasado común (UCA, por sus siglas en inglés). Una idea que constituye uno de los pilares sobre los que el genial científico edificó su teoría de la evolución.
FUENTE | ABC Periódico Electrónico S.A. 14/05/2010
A partir de ese único organismo ancestral, la vida se diversificó después en la multitud de formas que hoy pueblan nuestro mundo. Ahora, un bioquímico de la Universidad de Brandeis en Boston, Massachusetts, ha publicado en Nature el primer estudio estadístico a gran escala que se realiza para poner a prueba la verosimilitud de la teoría.
Y los resultados del estudio confirman que Darwin tenía razón. En su «Origen de las especies», el naturalista británico proponía que «todos los seres orgánicos que alguna vez han vivido en la Tierra han descendido de una forma primordial». Desde entonces, las evidencias que confirman la teoría se han multiplicado, bajo la forma de un número creciente de criaturas «de transición» entre unas y otras especies en el registro fósil, pero también de una abrumadora cantidad de similitudes biológicas a nivel molecular.
Sin embargo, muchos biólogos se preguntan en la actualidad si las relaciones evolutivas entre los organismos vivientes se describen mejor con un único «árbol familiar» o, por el contrario, con una red de múltiples árboles evolutivos conectados entre sí, como en una telaraña. En cuyo caso, la vida habría podido expandirse de forma independiente a partir de un número indeterminado de ancestros, y no de uno solo.
Sin embargo, según el bioquímico Douglas Theobald, autor principal del estudio, eso es algo que en realidad no tiene demasiada importancia. «Déjeles decir que la vida surgió de forma independiente en múltiples ocasiones. Es algo que la idea de UCA permite. Y si fue así, la teoría sostiene que se produjo un cuello de botella en la evolución, en el que sólo sobrevivieron hasta el presente los descendientes de uno de los organismos independientes originales.
También es posible que efectivamente emergieran poblaciones separadas, pero por medio del intercambio de genes a lo largo del tiempo se habrían convertido en una única especie que fue el ancestro de todos nosotros. En ambos casos, todo lo que está vivo sigue estando relacionado genéticamente».
Por medio de potentes ordenadores y aplicando rigurosas fórmulas estadísticas, Theobald estudió los varios modelos diferentes de ancestros que existen. Y sus resultados inclinan abrumadoramente la balanza en favor de la hipótesis de UCA, un único antepasado común. De hecho, UCA es por lo menos 102.860 veces más probable que tener múltiples ancestros.
UNA ESPECIE DE ESPUMA
Para realizar su análisis, Theobald seleccionó 23 proteínas comunes a todo el espectro taxonómico, pero cuyas estructuras difieren de unas especies a otras. Buscó esas proteínas en doce especies diferentes, cuatro por cada uno de los tres diferentes dominios de la vida (Bacteria Archaea y Eucaryota). El paso siguiente fue preparar simulaciones informáticas para valorar las probabilidades de los diferentes escenarios evolutivos para producir ese rango de proteínas.
Y fue ahí donde Theobald se dio cuenta de que los escenarios evolutivos que partían de un único antepasado común superaban con mucho a los que se basaban en ancestros múltiples. «Simplemente -explica el científico- los modelos con un único antepasado común explicaban mejor los datos, y además eran los más simples, por lo que ganaban en todos los recuentos». Ahora bien, ¿qué aspecto debe tener ese antepasado común y dónde vivió? El estudio de Theobald no puede responder esas preguntas, aunque el científico sí que se permite especular: «para nosotros, debió parecerse a una especie de espuma, viviendo quizá en los bordes del océano, o quizá en las profundidades, al abrigo de chimeneas geotermales. Aunque a nivel molecular, estoy seguro de que debió tener un aspecto tan complejo y bello como el de la vida moderna».
Autor: José Manuel Nieves
FUENTE | ABC Periódico Electrónico S.A. 14/05/2010
A partir de ese único organismo ancestral, la vida se diversificó después en la multitud de formas que hoy pueblan nuestro mundo. Ahora, un bioquímico de la Universidad de Brandeis en Boston, Massachusetts, ha publicado en Nature el primer estudio estadístico a gran escala que se realiza para poner a prueba la verosimilitud de la teoría.
Y los resultados del estudio confirman que Darwin tenía razón. En su «Origen de las especies», el naturalista británico proponía que «todos los seres orgánicos que alguna vez han vivido en la Tierra han descendido de una forma primordial». Desde entonces, las evidencias que confirman la teoría se han multiplicado, bajo la forma de un número creciente de criaturas «de transición» entre unas y otras especies en el registro fósil, pero también de una abrumadora cantidad de similitudes biológicas a nivel molecular.
Sin embargo, muchos biólogos se preguntan en la actualidad si las relaciones evolutivas entre los organismos vivientes se describen mejor con un único «árbol familiar» o, por el contrario, con una red de múltiples árboles evolutivos conectados entre sí, como en una telaraña. En cuyo caso, la vida habría podido expandirse de forma independiente a partir de un número indeterminado de ancestros, y no de uno solo.
Sin embargo, según el bioquímico Douglas Theobald, autor principal del estudio, eso es algo que en realidad no tiene demasiada importancia. «Déjeles decir que la vida surgió de forma independiente en múltiples ocasiones. Es algo que la idea de UCA permite. Y si fue así, la teoría sostiene que se produjo un cuello de botella en la evolución, en el que sólo sobrevivieron hasta el presente los descendientes de uno de los organismos independientes originales.
También es posible que efectivamente emergieran poblaciones separadas, pero por medio del intercambio de genes a lo largo del tiempo se habrían convertido en una única especie que fue el ancestro de todos nosotros. En ambos casos, todo lo que está vivo sigue estando relacionado genéticamente».
Por medio de potentes ordenadores y aplicando rigurosas fórmulas estadísticas, Theobald estudió los varios modelos diferentes de ancestros que existen. Y sus resultados inclinan abrumadoramente la balanza en favor de la hipótesis de UCA, un único antepasado común. De hecho, UCA es por lo menos 102.860 veces más probable que tener múltiples ancestros.
UNA ESPECIE DE ESPUMA
Para realizar su análisis, Theobald seleccionó 23 proteínas comunes a todo el espectro taxonómico, pero cuyas estructuras difieren de unas especies a otras. Buscó esas proteínas en doce especies diferentes, cuatro por cada uno de los tres diferentes dominios de la vida (Bacteria Archaea y Eucaryota). El paso siguiente fue preparar simulaciones informáticas para valorar las probabilidades de los diferentes escenarios evolutivos para producir ese rango de proteínas.
Y fue ahí donde Theobald se dio cuenta de que los escenarios evolutivos que partían de un único antepasado común superaban con mucho a los que se basaban en ancestros múltiples. «Simplemente -explica el científico- los modelos con un único antepasado común explicaban mejor los datos, y además eran los más simples, por lo que ganaban en todos los recuentos». Ahora bien, ¿qué aspecto debe tener ese antepasado común y dónde vivió? El estudio de Theobald no puede responder esas preguntas, aunque el científico sí que se permite especular: «para nosotros, debió parecerse a una especie de espuma, viviendo quizá en los bordes del océano, o quizá en las profundidades, al abrigo de chimeneas geotermales. Aunque a nivel molecular, estoy seguro de que debió tener un aspecto tan complejo y bello como el de la vida moderna».
Autor: José Manuel Nieves
martes, 11 de mayo de 2010
Frenazo al biocarburante
Los biocarburantes se perfilaban como la gran promesa de las energías limpias y como solución a la dependencia del petróleo. A principios de esta década Europa se fijó ambiciosos objetivos y España prometió situarse en la vanguardia.
FUENTE | El País Digital 11/05/2010
La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?
La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE.UU., y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.
La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.
Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".
Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.
Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.
José María López, subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.
La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.
"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".
La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".
Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.
Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.
CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.
El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.
En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.
En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañía Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.
La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.
Autor: Elena Hidalgo
FUENTE | El País Digital 11/05/2010
La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?
La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE.UU., y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.
La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.
Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".
Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.
Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.
José María López, subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.
La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.
"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".
La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".
Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.
Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.
CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.
El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.
En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.
En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañía Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.
La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.
Autor: Elena Hidalgo
miércoles, 28 de abril de 2010
Descubierta una nueva y enorme corriente oceánica
Una nueva "autopista oceánica" de cuya existencia nadie sabía hasta ahora acaba de ser descubierta por un equipo de científicos japoneses y australianos. Tiene un caudal cuarenta veces superior al del río Amazonas y fluye bajo el Océano Índico, a más de tres mil metros de profundidad. El hallazgo, que ayudará a comprender mejor el clima de la Tierra, acaba de ser publicado en Nature Geoscience.
FUENTE ABC Periódico Electrónico S.A. 28/04/2010
La corriente transporta aguas muy densas y ricas en oxígeno que se hunden cerca de la Antártida a grandes profundidades y se dirigen hacia el lejano norte", explica Steve Rintoul, uno de los autores del estudio. "De hecho, sin esta aportación de agua antártica, las capas más profundas del océano tendrían muy poco oxígeno".
El papel y la influencia de las corrientes oceánicas en el clima son bien conocidas. En efecto, se encargan de almacenar y transportar una enorme cantidad de calor y dióxido de carbono, que de esta forma no se libera a la atmósfera y frena el proceso de calentamiento global. "La profunda corriente de la meseta submarina de Kerguelen forma parte de un sistema global de corrientes oceánicas que resultan determinantes a la hora de conocer cuánto calor y carbono puede almacenar el océano", añade el investigador.
Otras expediciones habían detectado antes evidencias de este complejo sistema de corrientes, pero ninguna de ellas había sido capaz de determinar la cantidad de agua que transportaban. El equipo australiano-japonés utilizó para sus experimentos distintos medidores de corriente anclados al fondo oceánico, a profundidades superiores a los 4.500 metros. Durante un periodo de dos años, los detectores enganchados al fondo flotaron a una profundidad de cerca de tres mil metros, midiendo sistemáticamente la velocidad de la corriente, su temperatura y salinidad.
DESDE LA ANTÁRTIDA
"Las mediciones continuas nos permitieron, por primera vez, determinar cuánta agua estaba transportando hacia el norte esta profunda corriente", afirma Rintoul. Y resulta que lleva más de doce millones de metros cúbicos por segundo de agua procedente de la Antártida, a menos de cero grados de temperatura y sin llegar a congelarse, ya que está mezclada con sales y minerales. "Fue una auténtica sorpresa comprobar lo fuerte que es esta corriente", dice el investigador. "Con una velocidad media durante dos años de 20 cm por segundo, se trata de la corriente más fuerte jamás medida a profundidades de tres km bajo la superficie marina".
Para Rintoul, "Disponer de un mapa de estos sistemas de corrientes profundas es un paso muy importante hacia la comprensión de la red global de corrientes que influye sobre el clima, tanto presente como futuro. Y nuestros resultados muestran que las corrientes de la Meseta Kerguelen realizan una gran contribución a esta circulación oceánica global".
Autor: José Manuel Nieves
FUENTE ABC Periódico Electrónico S.A. 28/04/2010
La corriente transporta aguas muy densas y ricas en oxígeno que se hunden cerca de la Antártida a grandes profundidades y se dirigen hacia el lejano norte", explica Steve Rintoul, uno de los autores del estudio. "De hecho, sin esta aportación de agua antártica, las capas más profundas del océano tendrían muy poco oxígeno".
El papel y la influencia de las corrientes oceánicas en el clima son bien conocidas. En efecto, se encargan de almacenar y transportar una enorme cantidad de calor y dióxido de carbono, que de esta forma no se libera a la atmósfera y frena el proceso de calentamiento global. "La profunda corriente de la meseta submarina de Kerguelen forma parte de un sistema global de corrientes oceánicas que resultan determinantes a la hora de conocer cuánto calor y carbono puede almacenar el océano", añade el investigador.
Otras expediciones habían detectado antes evidencias de este complejo sistema de corrientes, pero ninguna de ellas había sido capaz de determinar la cantidad de agua que transportaban. El equipo australiano-japonés utilizó para sus experimentos distintos medidores de corriente anclados al fondo oceánico, a profundidades superiores a los 4.500 metros. Durante un periodo de dos años, los detectores enganchados al fondo flotaron a una profundidad de cerca de tres mil metros, midiendo sistemáticamente la velocidad de la corriente, su temperatura y salinidad.
DESDE LA ANTÁRTIDA
"Las mediciones continuas nos permitieron, por primera vez, determinar cuánta agua estaba transportando hacia el norte esta profunda corriente", afirma Rintoul. Y resulta que lleva más de doce millones de metros cúbicos por segundo de agua procedente de la Antártida, a menos de cero grados de temperatura y sin llegar a congelarse, ya que está mezclada con sales y minerales. "Fue una auténtica sorpresa comprobar lo fuerte que es esta corriente", dice el investigador. "Con una velocidad media durante dos años de 20 cm por segundo, se trata de la corriente más fuerte jamás medida a profundidades de tres km bajo la superficie marina".
Para Rintoul, "Disponer de un mapa de estos sistemas de corrientes profundas es un paso muy importante hacia la comprensión de la red global de corrientes que influye sobre el clima, tanto presente como futuro. Y nuestros resultados muestran que las corrientes de la Meseta Kerguelen realizan una gran contribución a esta circulación oceánica global".
Autor: José Manuel Nieves
martes, 13 de abril de 2010
El impacto de la actividad humana sobre la desertificación
El Análisis de Ciclo de Vida (ACV) es una metodología científica que analiza de manera objetiva los impactos ambientales de una actividad o proceso abarcando todo su ciclo, esto es, desde la extracción de las materias primas hasta la gestión de los residuos generados al final de su vida útil.
Montserrat Núñez
Instituto de Investigación y Tecnologías Agroalimentarias
IRTA
En ACV, el impacto ambiental del sistema estudiado se expresa en categorías de impacto ambiental (calentamiento global, destrucción de la capa de ozono, acidificación, etc.). En los últimos años se han realizado importantes avances metodológicos en el ACV, por ejemplo, definiendo unas normas estándares de aplicación en las ISO 14040 y 14044.
Pese a la evolución del ACV, una de las principales debilidades metodológicas actuales es la ausencia de categorías que midan los impactos que las actividades humanas, como el cultivo de tierras o el pastoreo, ejercen sobre el uso del suelo.
El uso insostenible del suelo puede llevar a su degradación. Si esta degradación se produce en zonas áridas, semi-áridas y sub-húmedas secas[1] , como España, la degradación se denomina desertificación y los efectos pueden ser irreversibles, dando lugar a áreas totalmente improductivas. A pesar de la importancia de la desertificación a nivel mundial, que afecta especialmente a los países áridos en desarrollo, hasta la fecha no se habían desarrollado propuestas encaminadas a incluir este importante impacto ambiental en el ACV. A raíz de esta situación, un grupo de investigadores del IRTA de Cabrils (Barcelona), de la Universidad Autónoma de Barcelona y de la Universidad Tecnológica Nacional de Mendoza (Argentina) han realizado una propuesta metodológica con el fin de que el ACV cuente con una categoría de impacto ambiental que mida el potencial de desertificación de cualquier actividad humana sobre el territorio. La propuesta ha sido publicada recientemente en una revista científica de ámbito internacional.
Para poder calcular el impacto de desertificación que tiene una actividad humana en una región concreta, la metodología precisa información de cuatro importantes indicadores biofísicos de desertificación: aridez, erosión, sobreexplotación de acuíferos y riesgo de incendios. Estos indicadores abarcan los principales factores que causan desertificación.
Una vez medido el impacto de desertificación de la actividad, éste se pone en relación con la calidad del suelo que se está degradando, ya que el efecto puede ser muy distinto dependiendo del estado de degradación del suelo sobre el que se actúa. De este modo, mediante el uso de sistemas de información geográfica (GIS, en sus siglas en inglés), se clasificaron 15 áreas naturales según su riesgo de desertificación. Según los resultados obtenidos, el 38% de la superficie de la Tierra, correspondiente a la superficie de ocho regiones naturales, tienen un clima árido y por tanto pueden sufrir desertificación. En la Figura 1 se muestra un mapa de estas regiones con riesgo de desertificación, que son: desierto tropical o subtropical, estepa tropical o subtropical, Mediterránea, sabana, desierto templado, estepa templada, praderas y zonas marinas, ordenadas de mayor a menor riesgo.
El método permite evaluar satisfactoriamente el impacto de desertificación de una actividad humana, comparar el impacto de una misma actividad en lugares distintos o entre actividades distintas que se desarrollen en el mismo lugar. La metodología publicada se está poniendo actualmente en práctica en varios casos de estudio en España y Argentina, cuyos resultados serán publicados una vez finalizada la investigación.

Cuestiones:
1.- Investiga qué es ISO 14040 y 14044.
2.- ¿Qué es desertificación?
3.- Cita dos actividades humanas que lleven a desertificación.
4.- ¿En qué se basa el ACV para determinar el poder de desertificación de una actividad humana?
5.- Investiga qué es un SIG, qué información nos da y cita algunos ejemplos
Montserrat Núñez
Instituto de Investigación y Tecnologías Agroalimentarias
IRTA
En ACV, el impacto ambiental del sistema estudiado se expresa en categorías de impacto ambiental (calentamiento global, destrucción de la capa de ozono, acidificación, etc.). En los últimos años se han realizado importantes avances metodológicos en el ACV, por ejemplo, definiendo unas normas estándares de aplicación en las ISO 14040 y 14044.
Pese a la evolución del ACV, una de las principales debilidades metodológicas actuales es la ausencia de categorías que midan los impactos que las actividades humanas, como el cultivo de tierras o el pastoreo, ejercen sobre el uso del suelo.
El uso insostenible del suelo puede llevar a su degradación. Si esta degradación se produce en zonas áridas, semi-áridas y sub-húmedas secas[1] , como España, la degradación se denomina desertificación y los efectos pueden ser irreversibles, dando lugar a áreas totalmente improductivas. A pesar de la importancia de la desertificación a nivel mundial, que afecta especialmente a los países áridos en desarrollo, hasta la fecha no se habían desarrollado propuestas encaminadas a incluir este importante impacto ambiental en el ACV. A raíz de esta situación, un grupo de investigadores del IRTA de Cabrils (Barcelona), de la Universidad Autónoma de Barcelona y de la Universidad Tecnológica Nacional de Mendoza (Argentina) han realizado una propuesta metodológica con el fin de que el ACV cuente con una categoría de impacto ambiental que mida el potencial de desertificación de cualquier actividad humana sobre el territorio. La propuesta ha sido publicada recientemente en una revista científica de ámbito internacional.
Para poder calcular el impacto de desertificación que tiene una actividad humana en una región concreta, la metodología precisa información de cuatro importantes indicadores biofísicos de desertificación: aridez, erosión, sobreexplotación de acuíferos y riesgo de incendios. Estos indicadores abarcan los principales factores que causan desertificación.
Una vez medido el impacto de desertificación de la actividad, éste se pone en relación con la calidad del suelo que se está degradando, ya que el efecto puede ser muy distinto dependiendo del estado de degradación del suelo sobre el que se actúa. De este modo, mediante el uso de sistemas de información geográfica (GIS, en sus siglas en inglés), se clasificaron 15 áreas naturales según su riesgo de desertificación. Según los resultados obtenidos, el 38% de la superficie de la Tierra, correspondiente a la superficie de ocho regiones naturales, tienen un clima árido y por tanto pueden sufrir desertificación. En la Figura 1 se muestra un mapa de estas regiones con riesgo de desertificación, que son: desierto tropical o subtropical, estepa tropical o subtropical, Mediterránea, sabana, desierto templado, estepa templada, praderas y zonas marinas, ordenadas de mayor a menor riesgo.
El método permite evaluar satisfactoriamente el impacto de desertificación de una actividad humana, comparar el impacto de una misma actividad en lugares distintos o entre actividades distintas que se desarrollen en el mismo lugar. La metodología publicada se está poniendo actualmente en práctica en varios casos de estudio en España y Argentina, cuyos resultados serán publicados una vez finalizada la investigación.

Cuestiones:
1.- Investiga qué es ISO 14040 y 14044.
2.- ¿Qué es desertificación?
3.- Cita dos actividades humanas que lleven a desertificación.
4.- ¿En qué se basa el ACV para determinar el poder de desertificación de una actividad humana?
5.- Investiga qué es un SIG, qué información nos da y cita algunos ejemplos
lunes, 12 de abril de 2010
Evolución humana
Un grupo de científicos cree haber encontrado la piedra rosetta de la evolución humana. Se trata una nueva especie de homínido hallado en Suráfrica cuya anatomía, mitad mono y mitad hombre, le convierte en el mejor candidato a ser el precursor de los primeros humanos.
FUENTE | Público 09/04/2010
Vivió hace unos dos millones de años en un momento muy desconocido de la evolución en el que se piensa que algún miembro del género Australopithecus engendró el género humano, del que el Homo sapiens es el único superviviente actual.
La nueva especie, Australopithecus sediba, se ha descrito basada en dos individuos, un joven y una mujer adulta, cuyos restos quedaron encerrados en un ataúd de rocas donde se han conservado hasta la actualidad. Yacían en la cueva de Malapa, cerca de la Cuna de la Humanidad, una región a 50 kilómetros de Johannesburgo donde se han encontrado cientos de fósiles claves para dibujar los orígenes del hombre.
"El sediba es una piedra rosetta para definir qué es el género humano", dijo el paleoantropólogo Lee Berger, de la Universidad de Witwatersrand (Suráfrica), durante una videoconferencia para presentar sus hallazgos. Es el autor principal de la descripción de la nueva especie, que publica Science. Presenta una mezcla de rasgos primitivos y modernos nunca vista.
El ejemplar modelo ha sido el del joven, pues incluye su cráneo casi completo. Tenía unos 13 años y medía 1,3 metros. Su pelvis era casi como la de los primeros humanos e indica que era capaz de andar erguido. Su nariz se proyecta hacia adelante como la de los humanos, y sus piernas son más largas que las de los otros australopitecos que pasaban la mayor parte del tiempo en los árboles. Sin embargo, su cráneo es mucho menor que el de los humanos. Tiene unos brazos tan largos como los de un orangután y sus pies y manos son aún "primitivos", explicó Berger. Esta coctelera hace del sediba un ejemplar único para explicar quiénes fueron los australopitecos que bajaron de los árboles para siempre.
Hace entre tres y dos millones de años, Suráfrica era un hervidero de homínidos que incluía ejemplares de rasgos agigantados como los Paranthropus, otros más avanzados, entre los que estarían el Australopithecus africanus y el sediba, y los Homo habilis, primeros miembros del género humano, explica Antonio Rosas, investigador del CSIC. "Los bosques tropicales comenzaban a dejar paso a las sabanas y aparecía su característica fauna tal como la conocemos hoy", añade.
Los fósiles fueron hallados entre restos de antílopes y tigres de dientes de sable. Los responsables de la excavación creen que el joven sediba y su acompañante adulta cayeron en una "trampa mortal". Era una grieta del terreno que daba a un foso desde el que fueron luego arrastrados por corrientes de agua junto a los otros animales a un depósito más profundo.
Los expertos comenzaron a desenterrar los primeros fósiles en 2008, pero el yacimiento seguirá dando frutos. Ya hay al menos otros dos ejemplares que se están desenterrando en estos momentos, anunció Berger. "Pronto seremos capaces de ofrecer una reconstrucción detallada de cómo eran el rostro, el cuerpo y el estilo de vida de esta especie", dijo Berger.
ANCESTRO DEL ERECTUS
Los responsables del hallazgo creen que el sediba es descendiente del A. africanus, que vivió en el continente hasta hace unos 2,9 millones de años. Sus rasgos humanos indican que puede ser el ancestro directo del Homo habilis, primer miembro del género Homo, o incluso del Homo erectus, que salió de África hacia Asia hace 1,8 millones de años.
"El erectus es aceptado por todos los expertos como la primera especie genuinamente humana", explica Carles Lalueza, paleoantropólogo de la Universidad Pompeu Fabra de Barcelona. "Lo más importante de este estudio es que presenta el mejor candidato hasta la fecha para enlazar a australopitecos y humanos", añade.
Hay una tercera hipótesis. El sediba pudo ser una rama evolutiva independiente que "imitaba" a los primeros humanos, pero que no los originó. Los expertos apuntan que el trabajo dará que hablar durante meses y "desplazará el centro de estudio de la disciplina hacia los australopitecos", explica Rosas. "Se trata de uno de los capítulos más oscuros de la evolución", añade.
Algunos medios se han apresurado a decir que el sediba es el eslabón perdido, algo que los propios autores han negado rotundamente. "No me gusta aplicar el término porque es algo de la época victoriana y la evolución no es una cadena, sino un árbol", señaló Berger. Rosas elabora: "Cada especie era como un ensayo que respondía al cambio ambiental con un determinado modo de locomoción, dentición y tamaño cerebral". "Como salido de una caja negra, alguno de esos ensayos consolidó el género humano en la forma del Homo erectus", concluye.
Autor: Nuño Domínguez
FUENTE | Público 09/04/2010
Vivió hace unos dos millones de años en un momento muy desconocido de la evolución en el que se piensa que algún miembro del género Australopithecus engendró el género humano, del que el Homo sapiens es el único superviviente actual.
La nueva especie, Australopithecus sediba, se ha descrito basada en dos individuos, un joven y una mujer adulta, cuyos restos quedaron encerrados en un ataúd de rocas donde se han conservado hasta la actualidad. Yacían en la cueva de Malapa, cerca de la Cuna de la Humanidad, una región a 50 kilómetros de Johannesburgo donde se han encontrado cientos de fósiles claves para dibujar los orígenes del hombre.
"El sediba es una piedra rosetta para definir qué es el género humano", dijo el paleoantropólogo Lee Berger, de la Universidad de Witwatersrand (Suráfrica), durante una videoconferencia para presentar sus hallazgos. Es el autor principal de la descripción de la nueva especie, que publica Science. Presenta una mezcla de rasgos primitivos y modernos nunca vista.
El ejemplar modelo ha sido el del joven, pues incluye su cráneo casi completo. Tenía unos 13 años y medía 1,3 metros. Su pelvis era casi como la de los primeros humanos e indica que era capaz de andar erguido. Su nariz se proyecta hacia adelante como la de los humanos, y sus piernas son más largas que las de los otros australopitecos que pasaban la mayor parte del tiempo en los árboles. Sin embargo, su cráneo es mucho menor que el de los humanos. Tiene unos brazos tan largos como los de un orangután y sus pies y manos son aún "primitivos", explicó Berger. Esta coctelera hace del sediba un ejemplar único para explicar quiénes fueron los australopitecos que bajaron de los árboles para siempre.
Hace entre tres y dos millones de años, Suráfrica era un hervidero de homínidos que incluía ejemplares de rasgos agigantados como los Paranthropus, otros más avanzados, entre los que estarían el Australopithecus africanus y el sediba, y los Homo habilis, primeros miembros del género humano, explica Antonio Rosas, investigador del CSIC. "Los bosques tropicales comenzaban a dejar paso a las sabanas y aparecía su característica fauna tal como la conocemos hoy", añade.
Los fósiles fueron hallados entre restos de antílopes y tigres de dientes de sable. Los responsables de la excavación creen que el joven sediba y su acompañante adulta cayeron en una "trampa mortal". Era una grieta del terreno que daba a un foso desde el que fueron luego arrastrados por corrientes de agua junto a los otros animales a un depósito más profundo.
Los expertos comenzaron a desenterrar los primeros fósiles en 2008, pero el yacimiento seguirá dando frutos. Ya hay al menos otros dos ejemplares que se están desenterrando en estos momentos, anunció Berger. "Pronto seremos capaces de ofrecer una reconstrucción detallada de cómo eran el rostro, el cuerpo y el estilo de vida de esta especie", dijo Berger.
ANCESTRO DEL ERECTUS
Los responsables del hallazgo creen que el sediba es descendiente del A. africanus, que vivió en el continente hasta hace unos 2,9 millones de años. Sus rasgos humanos indican que puede ser el ancestro directo del Homo habilis, primer miembro del género Homo, o incluso del Homo erectus, que salió de África hacia Asia hace 1,8 millones de años.
"El erectus es aceptado por todos los expertos como la primera especie genuinamente humana", explica Carles Lalueza, paleoantropólogo de la Universidad Pompeu Fabra de Barcelona. "Lo más importante de este estudio es que presenta el mejor candidato hasta la fecha para enlazar a australopitecos y humanos", añade.
Hay una tercera hipótesis. El sediba pudo ser una rama evolutiva independiente que "imitaba" a los primeros humanos, pero que no los originó. Los expertos apuntan que el trabajo dará que hablar durante meses y "desplazará el centro de estudio de la disciplina hacia los australopitecos", explica Rosas. "Se trata de uno de los capítulos más oscuros de la evolución", añade.
Algunos medios se han apresurado a decir que el sediba es el eslabón perdido, algo que los propios autores han negado rotundamente. "No me gusta aplicar el término porque es algo de la época victoriana y la evolución no es una cadena, sino un árbol", señaló Berger. Rosas elabora: "Cada especie era como un ensayo que respondía al cambio ambiental con un determinado modo de locomoción, dentición y tamaño cerebral". "Como salido de una caja negra, alguno de esos ensayos consolidó el género humano en la forma del Homo erectus", concluye.
Autor: Nuño Domínguez
sábado, 10 de abril de 2010
Declaración de Río de Janeiro sobre medio ambiente y desarrollo
REPORT OF THE UNITED NATIONS CONFERENCE ON
ENVIRONMENT AND DEVELOPMENT*
(Rio de Janeiro, 3-14 June 1992)
Annex I
RIO DECLARATION ON ENVIRONMENT AND DEVELOPMENT
The United Nations Conference on Environment and Development,
Having met at Rio de Janeiro from 3 to 14 June 1992,
Reaffirming the Declaration of the United Nations Conference on the Human
Environment, adopted at Stockholm on 16 June 1972, a/ and seeking to build upon
it,
With the goal of establishing a new and equitable global partnership
through the creation of new levels of cooperation among States, key sectors of
societies and people,
Working towards international agreements which respect the interests of
all and protect the integrity of the global environmental and developmental
system,
Recognizing the integral and interdependent nature of the Earth, our
home,
Proclaims that:
Principle 1
Human beings are at the centre of concerns for sustainable development.
They are entitled to a healthy and productive life in harmony with nature.
Principle 2
States have, in accordance with the Charter of the United Nations and the
principles of international law, the sovereign right to exploit their own
resources pursuant to their own environmental and developmental policies, and
the responsibility to ensure that activities within their jurisdiction or
control do not cause damage to the environment of other States or of areas
beyond the limits of national jurisdiction.
Principle 3
The right to development must be fulfilled so as to equitably meet
developmental and environmental needs of present and future generations.
Principle 4
In order to achieve sustainable development, environmental protection
shall constitute an integral part of the development process and cannot be
considered in isolation from it.
Principle 5
All States and all people shall cooperate in the essential task of
eradicating poverty as an indispensable requirement for sustainable
development, in order to decrease the disparities in standards of living and
better meet the needs of the majority of the people of the world.
Principle 6
The special situation and needs of developing countries, particularly the
least developed and those most environmentally vulnerable, shall be given
special priority. International actions in the field of environment and
development should also address the interests and needs of all countries.
Principle 7
States shall cooperate in a spirit of global partnership to conserve,
protect and restore the health and integrity of the Earth's ecosystem. In view
of the different contributions to global environmental degradation, States have
common but differentiated responsibilities. The developed countries
acknowledge the responsibility that they bear in the international pursuit of
sustainable development in view of the pressures their societies place on the
global environment and of the technologies and financial resources they
command.
Principle 8
To achieve sustainable development and a higher quality of life for all
people, States should reduce and eliminate unsustainable patterns of production
and consumption and promote appropriate demographic policies.
Principle 9
States should cooperate to strengthen endogenous capacity-building for
sustainable development by improving scientific understanding through exchanges
of scientific and technological knowledge, and by enhancing the development,
adaptation, diffusion and transfer of technologies, including new and
innovative technologies.
Principle 10
Environmental issues are best handled with the participation of all
concerned citizens, at the relevant level. At the national level, each
individual shall have appropriate access to information concerning the
environment that is held by public authorities, including information on
hazardous materials and activities in their communities, and the opportunity
to participate in decision-making processes. States shall facilitate and
encourage public awareness and participation by making information widely
available. Effective access to judicial and administrative proceedings,
including redress and remedy, shall be provided.
Principle 11
States shall enact effective environmental legislation. Environmental
standards, management objectives and priorities should reflect the
environmental and developmental context to which they apply. Standards applied
by some countries may be inappropriate and of unwarranted economic and social
cost to other countries, in particular developing countries.
Principle 12
States should cooperate to promote a supportive and open international
economic system that would lead to economic growth and sustainable development
in all countries, to better address the problems of environmental degradation.
Trade policy measures for environmental purposes should not constitute a means
of arbitrary or unjustifiable discrimination or a disguised restriction on
international trade. Unilateral actions to deal with environmental challenges
outside the jurisdiction of the importing country should be avoided.
Environmental measures addressing transboundary or global environmental
problems should, as far as possible, be based on an international consensus.
Principle 13
States shall develop national law regarding liability and compensation
for the victims of pollution and other environmental damage. States shall also
cooperate in an expeditious and more determined manner to develop further
international law regarding liability and compensation for adverse effects of
environmental damage caused by activities within their jurisdiction or control
to areas beyond their jurisdiction.
Principle 14
States should effectively cooperate to discourage or prevent the
relocation and transfer to other States of any activities and substances that
cause severe environmental degradation or are found to be harmful to human
health.
Principle 15
In order to protect the environment, the precautionary approach shall be
widely applied by States according to their capabilities. Where there are
threats of serious or irreversible damage, lack of full scientific certainty
shall not be used as a reason for postponing cost-effective measures to prevent
environmental degradation.
Principle 16
National authorities should endeavour to promote the internalization of
environmental costs and the use of economic instruments, taking into account
the approach that the polluter should, in principle, bear the cost of
pollution, with due regard to the public interest and without distorting
international trade and investment.
Principle 17
Environmental impact assessment, as a national instrument, shall be
undertaken for proposed activities that are likely to have a significant
adverse impact on the environment and are subject to a decision of a competent
national authority.
Principle 18
States shall immediately notify other States of any natural disasters or
other emergencies that are likely to produce sudden harmful effects on the
environment of those States. Every effort shall be made by the international
community to help States so afflicted.
Principle 19
States shall provide prior and timely notification and relevant
information to potentially affected States on activities that may have a
significant adverse transboundary environmental effect and shall consult with
those States at an early stage and in good faith.
Principle 20
Women have a vital role in environmental management and development.
Their full participation is therefore essential to achieve sustainable
development.
Principle 21
The creativity, ideals and courage of the youth of the world should be
mobilized to forge a global partnership in order to achieve sustainable
development and ensure a better future for all.
Principle 22
Indigenous people and their communities and other local communities have
a vital role in environmental management and development because of their
knowledge and traditional practices. States should recognize and duly support
their identity, culture and interests and enable their effective participation
in the achievement of sustainable development.
Principle 23
The environment and natural resources of people under oppression,
domination and occupation shall be protected.
Principle 24
Warfare is inherently destructive of sustainable development. States
shall therefore respect international law providing protection for the
environment in times of armed conflict and cooperate in its further
development, as necessary.
Principle 25
Peace, development and environmental protection are interdependent and
indivisible.
Principle 26
States shall resolve all their environmental disputes peacefully and by
appropriate means in accordance with the Charter of the United Nations.
Principle 27
States and people shall cooperate in good faith and in a spirit of
partnership in the fulfilment of the principles embodied in this Declaration
and in the further development of international law in the field of sustainable
development.
* * * * *
a/ Report of the United Nations Conference on the Human Environment,
Stockholm, 5-16 June 1972 (United Nations publication, Sales No. E.73.II.A.14
and corrigendum), chap. I.
--------------------------------------------------------------------------------
This document has been posted online by the United Nations Department of Economic and Social Affairs (DESA). Reproduction and dissemination of the document - in electronic and/or printed format - is encouraged, provided acknowledgement is made of the role of the United Nations in making it available.
Date last updated: 12 January, 2000 by DESA/DSD
Copyright © 1999 United Nations
ENVIRONMENT AND DEVELOPMENT*
(Rio de Janeiro, 3-14 June 1992)
Annex I
RIO DECLARATION ON ENVIRONMENT AND DEVELOPMENT
The United Nations Conference on Environment and Development,
Having met at Rio de Janeiro from 3 to 14 June 1992,
Reaffirming the Declaration of the United Nations Conference on the Human
Environment, adopted at Stockholm on 16 June 1972, a/ and seeking to build upon
it,
With the goal of establishing a new and equitable global partnership
through the creation of new levels of cooperation among States, key sectors of
societies and people,
Working towards international agreements which respect the interests of
all and protect the integrity of the global environmental and developmental
system,
Recognizing the integral and interdependent nature of the Earth, our
home,
Proclaims that:
Principle 1
Human beings are at the centre of concerns for sustainable development.
They are entitled to a healthy and productive life in harmony with nature.
Principle 2
States have, in accordance with the Charter of the United Nations and the
principles of international law, the sovereign right to exploit their own
resources pursuant to their own environmental and developmental policies, and
the responsibility to ensure that activities within their jurisdiction or
control do not cause damage to the environment of other States or of areas
beyond the limits of national jurisdiction.
Principle 3
The right to development must be fulfilled so as to equitably meet
developmental and environmental needs of present and future generations.
Principle 4
In order to achieve sustainable development, environmental protection
shall constitute an integral part of the development process and cannot be
considered in isolation from it.
Principle 5
All States and all people shall cooperate in the essential task of
eradicating poverty as an indispensable requirement for sustainable
development, in order to decrease the disparities in standards of living and
better meet the needs of the majority of the people of the world.
Principle 6
The special situation and needs of developing countries, particularly the
least developed and those most environmentally vulnerable, shall be given
special priority. International actions in the field of environment and
development should also address the interests and needs of all countries.
Principle 7
States shall cooperate in a spirit of global partnership to conserve,
protect and restore the health and integrity of the Earth's ecosystem. In view
of the different contributions to global environmental degradation, States have
common but differentiated responsibilities. The developed countries
acknowledge the responsibility that they bear in the international pursuit of
sustainable development in view of the pressures their societies place on the
global environment and of the technologies and financial resources they
command.
Principle 8
To achieve sustainable development and a higher quality of life for all
people, States should reduce and eliminate unsustainable patterns of production
and consumption and promote appropriate demographic policies.
Principle 9
States should cooperate to strengthen endogenous capacity-building for
sustainable development by improving scientific understanding through exchanges
of scientific and technological knowledge, and by enhancing the development,
adaptation, diffusion and transfer of technologies, including new and
innovative technologies.
Principle 10
Environmental issues are best handled with the participation of all
concerned citizens, at the relevant level. At the national level, each
individual shall have appropriate access to information concerning the
environment that is held by public authorities, including information on
hazardous materials and activities in their communities, and the opportunity
to participate in decision-making processes. States shall facilitate and
encourage public awareness and participation by making information widely
available. Effective access to judicial and administrative proceedings,
including redress and remedy, shall be provided.
Principle 11
States shall enact effective environmental legislation. Environmental
standards, management objectives and priorities should reflect the
environmental and developmental context to which they apply. Standards applied
by some countries may be inappropriate and of unwarranted economic and social
cost to other countries, in particular developing countries.
Principle 12
States should cooperate to promote a supportive and open international
economic system that would lead to economic growth and sustainable development
in all countries, to better address the problems of environmental degradation.
Trade policy measures for environmental purposes should not constitute a means
of arbitrary or unjustifiable discrimination or a disguised restriction on
international trade. Unilateral actions to deal with environmental challenges
outside the jurisdiction of the importing country should be avoided.
Environmental measures addressing transboundary or global environmental
problems should, as far as possible, be based on an international consensus.
Principle 13
States shall develop national law regarding liability and compensation
for the victims of pollution and other environmental damage. States shall also
cooperate in an expeditious and more determined manner to develop further
international law regarding liability and compensation for adverse effects of
environmental damage caused by activities within their jurisdiction or control
to areas beyond their jurisdiction.
Principle 14
States should effectively cooperate to discourage or prevent the
relocation and transfer to other States of any activities and substances that
cause severe environmental degradation or are found to be harmful to human
health.
Principle 15
In order to protect the environment, the precautionary approach shall be
widely applied by States according to their capabilities. Where there are
threats of serious or irreversible damage, lack of full scientific certainty
shall not be used as a reason for postponing cost-effective measures to prevent
environmental degradation.
Principle 16
National authorities should endeavour to promote the internalization of
environmental costs and the use of economic instruments, taking into account
the approach that the polluter should, in principle, bear the cost of
pollution, with due regard to the public interest and without distorting
international trade and investment.
Principle 17
Environmental impact assessment, as a national instrument, shall be
undertaken for proposed activities that are likely to have a significant
adverse impact on the environment and are subject to a decision of a competent
national authority.
Principle 18
States shall immediately notify other States of any natural disasters or
other emergencies that are likely to produce sudden harmful effects on the
environment of those States. Every effort shall be made by the international
community to help States so afflicted.
Principle 19
States shall provide prior and timely notification and relevant
information to potentially affected States on activities that may have a
significant adverse transboundary environmental effect and shall consult with
those States at an early stage and in good faith.
Principle 20
Women have a vital role in environmental management and development.
Their full participation is therefore essential to achieve sustainable
development.
Principle 21
The creativity, ideals and courage of the youth of the world should be
mobilized to forge a global partnership in order to achieve sustainable
development and ensure a better future for all.
Principle 22
Indigenous people and their communities and other local communities have
a vital role in environmental management and development because of their
knowledge and traditional practices. States should recognize and duly support
their identity, culture and interests and enable their effective participation
in the achievement of sustainable development.
Principle 23
The environment and natural resources of people under oppression,
domination and occupation shall be protected.
Principle 24
Warfare is inherently destructive of sustainable development. States
shall therefore respect international law providing protection for the
environment in times of armed conflict and cooperate in its further
development, as necessary.
Principle 25
Peace, development and environmental protection are interdependent and
indivisible.
Principle 26
States shall resolve all their environmental disputes peacefully and by
appropriate means in accordance with the Charter of the United Nations.
Principle 27
States and people shall cooperate in good faith and in a spirit of
partnership in the fulfilment of the principles embodied in this Declaration
and in the further development of international law in the field of sustainable
development.
* * * * *
a/ Report of the United Nations Conference on the Human Environment,
Stockholm, 5-16 June 1972 (United Nations publication, Sales No. E.73.II.A.14
and corrigendum), chap. I.
--------------------------------------------------------------------------------
This document has been posted online by the United Nations Department of Economic and Social Affairs (DESA). Reproduction and dissemination of the document - in electronic and/or printed format - is encouraged, provided acknowledgement is made of the role of the United Nations in making it available.
Date last updated: 12 January, 2000 by DESA/DSD
Copyright © 1999 United Nations
lunes, 29 de marzo de 2010
Predecir el terremoto no, prevenirlo sí
Los recientes terremotos ocurridos en Haití (12 de enero, magnitud 7,0) y Chile (27 de febrero, magnitud 8,8) y sus trágicos efectos han dado lugar a las lógicas preguntas: ¿cómo se originan? ¿Es posible predecirlos? ¿Se puede hacer algo para evitarlos?
FUENTE El País Digital
17/03/2010
En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.
La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.
Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.
La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.
Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.
Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.
El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.
Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?
La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.
La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.
A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.
El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.
La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.
Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)
Responde las siguientes preguntas:
1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.
FUENTE El País Digital
17/03/2010
En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.
La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.
Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.
La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.
Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.
Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.
El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.
Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?
La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.
La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.
A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.
El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.
La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.
Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)
Responde las siguientes preguntas:
1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.
El mapa de terremotos de España no es fiable
España esconde decenas de fallas activas, capaces de provocar terremotos destructores, pero los organismos públicos responsables de prevenir sus efectos no tienen ni idea de dónde están. El Instituto Geográfico Nacional (IGN), encargado de elaborar el mapa de peligrosidad sísmica, dispone de datos obtenidos con sismógrafos en los últimos 100 años, en el mejor de los casos.
FUENTE Público 18/03/2010
También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.
Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.
DOS MANCHAS ROJAS
La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.
Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).
En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.
TRABAJOS EN SECRETO
Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.
Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.
DERROCHE DE DINERO
Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.
Autor: Manuel Ansede
FUENTE Público 18/03/2010
También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.
Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.
DOS MANCHAS ROJAS
La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.
Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).
En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.
TRABAJOS EN SECRETO
Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.
Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.
DERROCHE DE DINERO
Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.
Autor: Manuel Ansede
sábado, 27 de marzo de 2010
Los mares de la UE
Los océanos se encuentran cada vez más amenazados por varios factores, entre ellos la contaminación, la sobreexplotación y el cambio climático.
FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010
Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.
Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.
La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.
Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.
En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.
Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.
Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.
Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.
La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.
FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010
Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.
Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.
La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.
Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.
En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.
Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.
Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.
Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.
La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.
lunes, 1 de marzo de 2010
¿Qué es un tsunami?
Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
domingo, 14 de febrero de 2010
Consecuencias estres hídrico en España
El estrés del agua quiere decir sequía y desertificación. Significa que en el futuro, a nuestra lista de preocupaciones, se añadirá la falta de agua. Pero también el exceso: inundaciones y crecidas de ríos. Es la expresión que utiliza la Agencia Europea de Medio Ambiente (EEA) para calificar lo que va a sufrir en las próximas décadas España y todos los países de la cuenca del Mediterráneo.
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
lunes, 8 de febrero de 2010
Efectos del desarrollo urbano sobre el agua
El desarrollo urbano de los humanos se solapa con el hábitat de animales y plantas silvestres, y crea entornos que degradan los paisajes naturales. Entre las consecuencias destacan la proliferación de mosquitos, y la reducción de la cantidad de alimento para los peces. En relación a la gestión de las aguas urbanas, ecólogos estadounidenses han presentado, durante la Reunión Anual de la Sociedad Ecológica de Norteamérica, los resultados de sus investigaciones que pretenden equilibrar a una sociedad urbanizada con la protección de los ecosistemas acuáticos. Los ‘tejados verdes’ serían una solución.
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
jueves, 4 de febrero de 2010
España aumenta emisiones de CO2 un 40% desde 1990 y disminuye un 7,7% respecto a 1990
Las emisiones de gases de efecto invernadero del año 2008 se sitúan en 405.048 kilotoneladas de CO2 equivalentes, lo que supone una reducción del 7,7% respecto a 2007 y se sitúan en un 39,8% por encima de las del año base del Protocolo de Kioto (1990).
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
miércoles, 3 de febrero de 2010
Tratamiento de aguas residuales mediante reactores biológicos de membranas
Los reactores biológicos de membranas son una variante de los sistemas de fangos activos en los que la separación, biomasa/agua tratada, se efectúa por filtración en vez de por decantación. Estos sistemas son aplicables a efluentes procedentes de diferentes industrias como la láctea, textil, agroalimentaria, vitivinícola, conservera, cosmética, oleica, para tratar aguas del procesado de pasta y papel así como para tratar purines.
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)
Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
Antibióticos y genes de resistencia
La mayor parte de los antibióticos utilizados por la medicina para el tratamiento de las infecciones, y de los genes de resistencia a los propios antibióticos adquiridos por los patógenos que afectan al hombre, tienen su origen en el entorno natural. Allí se han desarrollado durante millones de años siguiendo las reglas darwinianas de la evolución. Pero la situación está cambiando sigilosamente desde hace medio siglo. Es el tiempo que lleva el hombre vertiendo antibióticos, en un volumen que aumenta de forma exponencial, al medio ambiente a través sobre todo de las aguas.
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
Suscribirse a:
Entradas (Atom)