HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

miércoles, 6 de octubre de 2010

El atún será la próxima especie en caer

Entrevista a Daniel Pauly, director del Centro de Pesquerías de la Universidad British Columbia de Canadá, que recibió el IV premio Ramón Margalef de Ecología que concede la Generalitat de Cataluña.
FUENTE El País Digital
07/10/2008

El pescado es un alimento cada vez más popular, pero también más escaso. Desde 1950, su consumo en todo el mundo se ha multiplicado por cinco. Sin embargo, el mar no puede dar respuesta a tanta voracidad. El 90% del daño que sufren nuestros mares y océanos se debe a la sobrepesca, explica el biólogo Daniel Pauly.

Calificado por la revista Scientific American como "uno de los 50 científicos más influyentes", Daniel Pauly es una autoridad mundial en el estudio del declive de las reservas pesqueras y la respuesta de los ecosistemas ante la presión humana. Las grandes flotas han arrasado hasta los caladeros más recónditos y han desmontado el equilibrio del ecosistema marino. Los mercados de los países desarrollados demandan, sobre todo, grandes depredadores como el bacalao o los túnidos. "Si no se hace algo, el atún será la próxima especie en desaparecer", afirma taxativo Pauly.

Critica los subsidios pesqueros, que no hacen más que legitimar una pesca que dedica demasiados recursos para capturar poco pescado. "Si ofreces subsidios, resulta rentable continuar pescando".

Daniel Pauly defiende la pesca artesanal y el consumo de especies más pequeñas y abundantes, como la anchoa. Y cree urgente establecer reservas marinas efectivas. Un 10% de los bosques están protegidos. Tan sólo un 0,7% de los mares lo está, apunta. Así las cosas, propone crear reservas marinas, y "una caja negra" en los barcos que permita detectar y penalizar su actividad en estas zonas. Concluye que la crisis del sector ofrece una oportunidad para repensar la pesca en todo el mundo.

sábado, 2 de octubre de 2010

Células reprogramadas

Las propuestas de mejora en el proceso de fabricación de células iPS (células que retroceden en su madurez hasta un estado similar al de las embrionarias) no cesan. La última, procedente de los laboratorios de la Universidad de Harvard (EE.UU.), elimina uno de los componentes más problemáticos de la reprogramación -los virus- y logra, además, mejorar su eficiencia. La técnica acerca un poco más estas células a la práctica clínica, según los autores.

FUENTE | El Mundo Digital 01/10/2010


La reprogramación es un proceso mediante el cual una célula adulta retorna a un estado de inmadurez similar al de una célula madre y que le confiere, por tanto, la capacidad de dar lugar a cualquier tipo celular. Esta regresión se logra mediante la introducción de varios factores en el núcleo de la célula, que son transportados hasta allí por virus (vectores). Éste es, a grandes rasgos, el protocolo original.

A pesar de que ha pasado poco tiempo desde que el investigador japonés Shinya Yamanaka fabricara las primeras iPS, la actividad en este campo de investigación es constante y varios grupos científicos han presentado vías alternativas al protocolo nipón, tratando de minimizar los riesgos de las células reprogramadas. Un trabajo publicado en la revista 'Cell Stem Cell' y desarrollado por expertos del Instituto de Células Madre de Harvard elimina uno de estos obstáculos: los vectores virales.

UN PROCESO MÁS EFICIENTE

"La aplicación clínica de las iPS está amenazada por la baja eficacia de la generación de estas células y los protocolos que alteran de forma permanente el genoma", explica Derrick Rossi, principal autor del estudio. Él y sus colegas se centraron, precisamente, en eliminar los vectores virales que, al introducir los factores en el núcleo, se integran en el ADN celular poniendo en riesgo su seguridad.

En lugar de estos virus, emplearon unas moléculas de ARN modificadas para codificar las proteínas adecuadas pero sin introducirse en el genoma de la célula. "Cuando penetran en la célula, siguen el curso normal de cualquier molécula de ARN para fabricar proteínas -en este caso, aquellas que hacen que la célula se reprograme- y después son degradadas", ha explicado Rossi a ELMUNDO.es. Así, mediante la administración repetida de estos ARNs se logró la producción de los factores de reprogramación necesarios para la conversión de las células maduras en iPS.

Aunque ha habido otros intentos de prescindir de los vectores, el uso de estos ARN tuvo un efecto colateral inesperado: el aumento de la eficacia del proceso. "No esperábamos que los ARN modificados funcionaran tan bien, pero lo cierto es que la eficiencia que observamos en la reprogramación con nuestra estrategia era muy alta", subraya Rossi.

MÁS CERCA DE LA CLÍNICA

Pero su investigación fue un paso más allá al utilizar estos mismos ARNs para diferenciar las iPS. "Hemos inventado una nueva técnica para fabricar células iPS pero, y quizás sea más importante, hemos usado los ARN para diferenciar las células", señala Rossi. "Nuestra tecnología es extremadamente versátil ya que podemos fabricar ARNs que codifiquen casi para cualquier proteína", añade, "incluidas aquellas que dirigen el destino de las células iPS hacia otras clínicamente útiles".

De este modo, sólo tuvieron que escoger el tipo celular que querían obtener a partir de estas iPS -en este caso, células musculares- y sintetizar los ARN adecuados para que la diferenciación se diera en esa dirección. Y lo hicieron de forma satisfactoria y "fácil", según el propio Rossi.

El entusiasmo inicial provocado por las células iPS, que tienen características muy similares a las células madre, ha ido menguando con el paso del tiempo y la falta de soluciones útiles a los problemas que impiden la aplicación clínica de estos 'diamantes en bruto'. Aunque es pronto, ya que su descubrimiento no ha cumplido ni siquiera un lustro, su capacidad para generar tumores, la ineficacia de los procesos de producción y las dudas acerca de su seguridad despiertan ciertas reticencias. Sin embargo, Rossi está convencido de que "se utilizarán en la clínica".

"Nuestro estudio no es más que una prueba de concepto para enseñarles a los investigadores que esto se puede hacer con esta tecnología", indica el investigador de Harvard. "Supongo que cientos de laboratorios del mundo la adoptarán para dirigir la diferenciación de las células madre hacía tipos celulares útiles".

Autor: Cristina de Martos

lunes, 27 de septiembre de 2010

Geólogos calculan dónde habrá una erupción volcánica

Un equipo internacional de geólogos ha encontrado una forma de calcular dónde puede ocurrir una erupción volcánica. La clave de su trabajo ha sido relacionar distintas erupciones.
FUENTE Público
27/09/2010
Los científicos, pertenecientes a las universidades de Leeds Purdue, Indiana y Addis Abeba, investigaron la actividad volcánica en la depresión de Afar, al norte de Etiopía, durante los años 2005 y 2009. Al estudiar una secuencia de 13 fenómenos magmáticos en los que la piedra fundida circulaba por una fisura entre las placas tectónicas africana y asiática, comprobaron que la localización de las intrusiones de magma no eran al azar. De hecho, a cada evento le sucedía un cambio concreto en la tensión de la corteza terrestre. Su trabajo, publicado por Nature Geoscience, ayudará a los científicos a calcular no cuándo se va a producir una erupción pero sí dónde.Uno de los investigadores, Ian Hamling, explica: "Se sabía que tras un gran terremoto podían venir otros seísmos pero, hasta ahora, nuestro conocimiento de los eventos volcánicos estaba basado en casos aislados".El equipo analizó la erupción de septiembre de 2005 en el desierto de Afar. El magma atravesó entre dos y nueve kilómetros de estratos provocando una alteración de la tensión terrestre. Después se sucedieron otras 12 menores intrusiones en cuatro años. Midiendo los niveles de tensión en cada zona de intrusión magmática, vieron que las erupciones a la superficie se producían en las zonas de mayor presión.

viernes, 17 de septiembre de 2010

Mejoran el uso del suelo reduciendo un 50% el abono de sus cultivos

La Universidad Nacional (UN) ha elaborado fijadores y solubilizadores mediante los cuales los cultivos requieren un 50% menos de abono.
FUENTE | Agencia de noticias Universidad Nacional de Colombia 14/09/2010

Colombia

Los cultivos requieren hasta 200 bultos de urea (abono) por hectárea para llegar a buen término. Con el uso de fijadores y solubilizadores elaborados en la UN, el ahorro es hasta del 50%. Estos productos son parte de algunos insumos agrícolas elaborados en el Instituto de Biotecnología de la UN (IBUN) que ya se encuentran en la industria y buscan mejorar el uso del suelo y sus cultivos.

Entre estos insumos se encuentran los solubilizadores de fosfato, que reemplazan el fósforo químico del suelo. Su acción consiste en disponer el fósforo que está en el suelo para que la planta lo pueda tener como nutriente esencial y, a su vez, es parte de los macronutrientes que necesitan las plantas para evolucionar (carbono, nitrógeno y potasio).

"Lo que hace el solubilizador es coger el fósforo fijado en el suelo y a través de su metabolismo lo liberan para que las plantas lo puedan utilizar", explicó la ingeniera química de la UN Nubia Moreno, magíster en ingeniería química y en biotecnología, actual investigadora del IBUN.

Otro insumo elaborado son los fijadores biológicos de nitrógeno, microorganismos que transforman el nitrógeno atmosférico en formas amoniacales para ser utilizados y aprovechados en un alto porcentaje por las plantas. Adicionalmente, en el IBUN también se diseñó un nuevo controlador biológico para acabar el hongo que ataca los cultivares de arroz (Rhizoctonia solani).

"Desde hace 10 años estamos desarrollando insumos agrícolas para una empresa, hemos ido avanzando en la búsqueda de productos que necesitan los agricultores para tecnificar sus cultivos".

Dos lustros lleva el grupo de investigación, liderado por la ingeniera Moreno, trabajando con estos insumos en laboratorio, que pasaron luego por estudios en planta piloto y actualmente tienen su desarrollo industrial.

Esta investigación fue financiada por Colciencias para el diseño de una planta en Ibagué, y la empresa privada colaboró para su construcción y puesta en marcha desde 2009. "Actualmente estamos produciendo 20 mil dosis de biofertilizantes y biocontroladores, de los cuales ya se tienen 6 productos registrados, desarrollados en el IBUN, y aspiramos a tener 40 mil", aseguró la ingeniera Moreno. El trabajo de la ingeniera Moreno ha sido destacado y reconocido en el sector, particularmente en el campo de los biofertilizantes, pues logró pasar de la investigación básica y el escalado a una planta de carácter industrial.

sábado, 11 de septiembre de 2010

Rocas almacén de CO2 en Burgos

El anhelo de almacenar el dióxido de carbono (CO2) bajo tierra, con el fin de mitigar el calentamiento, está algo más cerca. Los planes para que las futuras plantas térmicas de carbón limpio no emitan estos gases de efecto invernadero avanzan con rapidez. Y los primeros pasos se están dando también en España, de la mano de la fundación pública Ciudad de la Energía (Ciuden), radicada en Ponferrada (León), en colaboración con Endesa. La iniciativa promueve una planta piloto de captura de CO2 de 30 MW en Compostilla (León) y la primera planta de investigación sobre almacenamiento subterráneo en Hontomín (Burgos).

FUENTE | La Vanguardia Digital 09/09/2010

Este es uno de los seis proyectos europeos para demostrar la viabilidad de las modernas tecnologías para producir electricidad con carbón limpio (con captura y almacenamiento de CO2) y combatir el cambio climático. El CO2 generado en la planta piloto de Compostilla será inyectado bajo tierra en Hontomín, en donde se llevan ya a cabo las tareas de investigación sobre el terreno.

Los trabajos para desarrollar estos primeros desarrollos tecnológicos en materia de almacenamiento de CO2 avanzan "a buen ritmo", explica Modesto Montoto, director del programa de almacenamiento de CO2 de Ciuden. La instalación de Hontomín deberá estar concluida el año próximo, de manera que las primeras experiencias de inyección del CO2 en el subsuelo podrían iniciarse a finales del 2011.

El lugar elegido es un subsuelo con aguas salobres (que no se usan para abastecimiento) en la cuenca del Duero. Concretamente, el CO2 se inyectará en una formación de rocas calizas para ser almacenado a unos 1.400 metros de profundidad. El gas, sometido a presión, deberá alojarse en los poros de la roca caliza, empapada de agua salobre. Ésta deberá actuar como una esponja. Allí, el CO2 deberá disolverse y reaccionar con los minerales de la roca para formar nuevas mineralizaciones y quedar confinado. En los huecos de esas rocas porosas deberá, pues, incrustarse el CO2 que no queremos que salga en la atmósfera. Y, por encima, existe una capa geológica no porosa ni permeable para garantizar el sellado y evitar que el CO2 salga a la superficie.

Montoto precisa que el objetivo prioritario de Ciuden es "conocer todas las actividades que rodean una planta de almacenamiento de CO2 y desarrollar la tecnología para que los futuros almacenamientos industriales sean factibles, seguros y económicos". En los próximos años, las térmicas de carbón deberán enterrar el CO2 en el subsuelo; y por eso se trata de conocer todas las circunstancias que esto supone en cuanto a viabilidad técnica, tecnológica y económica.

Al elegir el emplazamiento de Hontomín, Ciuden ha buscado una estructura geológica óptima y poder contrastar todas las variantes de las tecnologías que deberán ser empleadas en este tipo de operaciones de almacenamiento. Sólo se inyectará un máximo de 100.000 toneladas de CO2 atendiendo la normativa europea para estas investigaciones.

"Nuestra misión es imitar la naturaleza, que ya ha hecho almacenamientos de este tipo, de gas o de petróleo. Se trata de ver qué tipos de ensayos permiten garantizar que se va a actuar de la misma manera que lo ha hecho la naturaleza", dice Montoto.

Los primeros trabajos han consistido en caracterizar el terreno con reconocimientos sísmicos en tres dimensiones, tras lo cual podrán empezarse los sondeos. A partir de ellos, se podrá conocer mejor la rocas que van a actuar como almacén o como sello, detectar las posibles vías de fuga, concretar la capacidad de almacenamiento o analizar cómo se mueve esa agua salada en la que debe quedar atrapada el CO2.

Completa el ciclo del carbón limpio que se iniciará en la planta de captura de CO2 de Compostilla, en donde se incorporará un sistema de combustión del carbón con oxígeno (en lugar de aire), lo que permite obtener una corriente pura de gran concentración de estos gases. Así, se evitará su emisión a la atmósfera, conducirlos y enterrarlos. Los primeros envíos del CO2 hasta Hontomín se harán en camión, aunque en el futuro, la previsión es que este tipo de transporte de CO2 -desde las térmicas de carbón limpio hasta los lugares de almacenamiento- se haga mediante grandes conductos (como los actuales gasoductos u oleoductos), según los planes esbozados por la UE.

La planta de captura de CO2 de Compostilla tendrá 30 MW, pero el acuerdo de colaboración firmado entre Ciuden y Endesa pretende avanzar hacia la posible construcción de una planta industrial de 300 MW con esta tecnología (en una segunda fase). Sería la primera planta industrial del mundo en su especialidad (oxicombustión y en lecho fluido) y estaría lista en el 2015. Sin embargo, la financiación europea sólo cubre 180 millones de euros hasta el 2012, mientras que la futura planta industrial de 300MW costaría 1.400 millones. El almacenamiento del CO2 generado a partir del 2015 en la planta industrial no tiene destino definido.

Autor: Antonio Cerrillo

miércoles, 8 de septiembre de 2010

Adecuada gestión del agua

Huracanes, desprendimientos, sequías y terremotos son sólo algunos de los fenómenos naturales que azotan nuestro planeta.

FUENTE CORDIS: Servicio de Información en I+D Comunitario
08/09/2010

Además, un nuevo informe advierte de que el aumento de la aleatoriedad de las lluvias ligado al cambio climático afectará de forma negativa a la seguridad alimentaria y el crecimiento económico, y que África y Asia se llevarán la peor parte.

El Instituto Internacional de Gestión del Agua (IWMI, Sri Lanka) ha identificado una acción clave que podría ayudar a detener este proceso y a la vez aumentar la producción agrícola de secano: impulsar la inversión en distintas formas de almacenamiento de agua.

«Millones de agricultores de secano están a merced de la disponibilidad de agua, impredecible y menguante», explicó Colin Chartres, Director General del IWMI. «El cambio climático afectará en extremo a estas personas, por lo que es necesario realizar con rapidez grandes inversiones en medidas de adaptación.»

Algunas acciones, como la construcción de presas de gran tamaño, suponen un alivio rápido, pero no garantizan del todo la sostenibilidad a largo plazo. A pesar de su capacidad para controlar inundaciones y mejorar la productividad agrícola, tales presas generan problemas de índole social y medioambiental. El IWMI explica que los cambios en los cursos de los ríos han obligado a hasta 80 millones de personas a desplazarse de sus hogares y afectan a cerca de 470 millones que viven río abajo de presas.

En lugar de centrarse en acciones de este tipo es necesario emplear un método integrado que combine opciones de almacenado de agua a pequeña y gran escala. Por ejemplo, el agua subterránea, almacenada en el subsuelo, y el agua recogida en estanques, embalses y tanques podría utilizarse para solucionar los problemas que pudieran surgir.

«Al igual que los consumidores modernos diversifican sus posesiones para reducir riesgos, los pequeños agricultores precisan una gama amplia de "reservas de agua" para amortiguar los impactos del cambio climático», indicó Matthew McCartney del IWMI, primer firmante del informe. «De esta forma si se seca una fuente de agua podrán utilizar las demás», añadió.

«Para los millones de personas que dependen de la agricultura de secano, el acceso estable al agua puede marcar la diferencia entre el hambre crónica y un progreso constante hacia la seguridad alimentaria. Incluso pequeñas cantidades de agua almacenada pueden propiciar grandes aumentos de la productividad agrícola y del bienestar de las comunidades rurales al permitir que tanto cultivos como ganado sobrevivan a periodos secos.»

Según el IWMI, una mejor gestión agrícola del agua podría mejorar enormemente la situación de casi 500 millones de personas en África e India. La agricultura de secano supone el 94% del total de la superficie de cultivo en el África subsahariana y el 66% en Asia, según datos del IWMI. El problema reside en que las infraestructuras de almacenaje de agua son prácticamente inexistentes en estas zonas.

«Si no reducimos la incertidumbre en la agricultura de secano mediante la mejora de los medios para almacenar agua, muchos agricultores de países en desarrollo se enfrentarán indefensos a un clima mucho más hostil e impredecible», señala el IWMI.

Es necesario meditar en profundidad y adoptar medidas seguras como el desarrollo y la creación de más opciones de almacenado a pequeña escala, pues beneficiarían enormemente a la seguridad alimentaria y la economía local. En resumen, la solución radica en la eficacia en la planificación y la gestión.

El Dr. McCartney advierte que «ninguna de las opciones propuestas es una panacea». «Todas entrañan beneficios y desventajas en función de sus características inherentes, la forma en la que se planifican y gestionan y las condiciones que se pueden dar en emplazamientos concretos.»

En declaraciones realizadas el 30 de agosto durante el Foro Estratégico 2010 en Bled (Eslovenia), que llevó por título «El reto del agua», el Comisario europeo de Medio Ambiente Janez Potocnik indicó que la «aceleración rápida» del siglo XX permitió la cuadruplicación de la población mundial y la multiplicación por cuarenta de la producción económica. No obstante, también multiplicamos por dieciséis y por nueve el empleo de combustibles fósiles y agua respectivamente.

El Comisario Potocnik indicó que la correcta gestión del agua es uno de los principales retos a los que nos enfrentamos. «No hay más que dirigir la vista a cualquiera de los millones de paquistaníes en peligro de muerte debido a las inundaciones y enfermedades derivadas de ellas», subrayó. «Agentes de todo el mundo son conscientes de la importancia de abordar de frente este reto.»

Los Objetivos de Desarrollo del Milenio (ODM) y la Cumbre Mundial sobre Desarrollo Sostenible (CMDS) trabajan para reducir a la mitad la proporción de personas que no poseen un acceso sostenible a agua potable y alcantarillado básico.

Por su parte, la Comisión Europea ha creado la Iniciativa de la Unión Europea sobre el Agua, que pretende implantar la gestión integrada de recursos hídricos abarcando cada cuenca hidrográfica en su totalidad. Con cerca de 1.500 millones de euros de financiación para proyectos relacionados con el agua, esta iniciativa reúne a grupos y personas procedentes de una enorme variedad de sectores con el fin de asegurar una mejor gobernanza en el sector hídrico y atraer una mayor cantidad de inversiones regionales. Con ella se espera fortalecer la cooperación regional y aumentar la eficacia de los mecanismos financieros para la financiación de programas de desarrollo.

martes, 7 de septiembre de 2010

Energía y medio ambiente: la búsqueda del planeta que necesitamos

Dentro del contexto actual de energía y medio ambiente, la Universidad Rey Juan Carlos (URJC) propone un conjunto de actividades para su Campus de Móstoles que en un ambiente lúdico y placentero llame la atención sobre las soluciones y la complementariedad que pueden aportar la pareja energía/medio ambiente en la futura sostenibilidad del planeta, de forma que se incentive entre los jóvenes el interés por la investigación y el desarrollo tecnológico en estos ámbitos.
FUENTE URJC - mi+d
07/09/2010
Ahora que las sociedades más avanzadas han comprendido por fin que los recursos energéticos clásicos no son ilimitados y que el aprovechamiento de la energía no puede comprometer el futuro del planeta y de las próximas generaciones, el imparable desarrollo en el siglo XXI de los nuevos países emergentes, que conlleva un aumento exponencial del consumo de recursos energéticos, plantea dos grandes retos científicos y tecnológicos a los que debemos enfrentarnos: la generación sostenible de nuevas fuentes de energía y el aprovechamiento medioambientalmente respetuoso de las mismas. En este sentido, las actividades planteadas tratarán de poner de manifiesto todas las anteriores premisas, intentando llamar la atención de forma didáctica y al mismo tiempo lúdica.

Para ello se realizará un recorrido científico-tecnológico por el parque de energías renovables de forma que se pueda valorar la aportación de la energía solar, la energía eólica, etc., como fuentes de energía adicionales a las convencionales. También se plantea dentro de este recorrido una visita a la planta depuradora de aguas residuales con la que cuenta el campus de Móstoles de la Universidad Rey Juan Carlos, así como visitas a las instalaciones de biorremediación y conservación, todo ello enfocado a una correcta gestión medioambiental. Además, teniendo en cuenta el desarrollo tecnológico que se está produciendo en los países desarrollados y las necesidades que van a requerir los países emergentes la biodiversidad se puede ver afectada, y en ese sentido se plantean dos actividades relacionadas con esta problemática: la valoración de la fotosíntesis y respiración del césped del campus de Móstoles, y la biodiversidad de las mariposas nocturnas en el campus de Móstoles.
La proyección de documentales y recreaciones 3D, utilizando medios de realidad virtual, electrónicos, informáticos y audiovisuales, para dar a conocer los problemas actuales en el planeta, y por supuesto, las diferentes tecnologías energéticas y de conservación del medio ambiente para solucionarlos será otra de las propuestas. De igual forma, el intercambio de experiencias mediante la impartición de charlas y mesas redondas abiertas con la presencia de investigadores relevantes del Campus de Móstoles de la URJC, serán otras de las actividades propuestas, finalizando con algo que está entre la ciencia y los pasatiempos: una serie de 25 partidas simultáneas de ajedrez con la presencia de un Gran Maestro Internacional que permita hacerse una idea de la "energía del ajedrez".
--------------------------------------------------------------------------------
ENERGÍA Y MEDIO AMBIENTE: LA BÚSQUEDA DEL PLANETA QUE NECESITAMOS
24 de septiembre de 2010 de 18:00 a 24:00
Campus de Móstoles de la Universidad Rey Juan Carlos
C/ Tulipán, s/n.
Móstoles

viernes, 30 de julio de 2010

¿Y si nunca hubiera habido un Big Bang?

La teoría del Big Bang está tan extendida como el fenómeno al que hace referencia, pero puede existir una alternativa. El investigador Wun-Yi Shu, de la Universidad Nacional Tsing Hua en Taiwán, sugiere un nuevo modelo para explicar el Universo en el que no hay ni un origen ni un final. Según esta teoría del infinito, que sugiere que la masa, el espacio y el tiempo se relacionan de forma diferente a como ahora consideran los científicos, la gran explosión que, según el consenso científico, originó todas las cosas, nunca llegó a producirse.

FUENTE | ABC Periódico Electrónico S.A. 30/07/2010

En un estudio publicado en arXiv.org, Shu explica que el nuevo modelo responde a una nueva perspectiva sobre algunos de los conceptos básicos que se utilizan en astrofísica, como son el tiempo, el espacio, la masa y la longitud. En su propuesta, bastante difícil de entender para la gran mayoría de los mortales que no tenemos un título en Física o en Astronomía, el tiempo y el espacio se pueden convertir el uno en el otro, y la velocidad de la luz es el factor de conversión entre ambas. Como el Universo se expande, el tiempo se transforma en el espacio, y la masa, en longitud. A medida que el Universo se contrae, ocurre lo contrario.

En resumen, la propuesta de Shu tiene cuatro características distintivas. La primera es que la velocidad de la luz y la gravitación no son constantes, sino que varían con la evolución del Universo. En segundo lugar, el tiempo no tiene principio ni fin, es decir, que ni estalló el Big Bang ni se producirá nunca un Big Crunch (el Gran Colapso, una teoría que predice que el Universo irá frenándose poco a poco comprimiéndose hasta que todos sus elementos vuelvan al punto original, destruyendo toda la materia en un único punto de energía). Punto tercero: la sección espacial del Universo es de tres dimensiones curvadas en una cuarta, lo que descarta una geometría plana o hiperboloide, y por último, existen fases de aceleración y desaceleración.

La idea, además de complicada puede parecer arriesgada, pero Shu asegura que sus datos encajan perfectamente con las observaciones realizadas por los astrónomos en la Tierra. Para entender el funcionamiento del Cosmos, su teoría no necesita de la energía oscura, una misteriosa fuerza que, según los científicos, componen el 74% del Universo y cuya existencia es discutida por algunos investigadores. Sin embargo, tiene un punto flaco, y es que sus ideas no pueden explicar la existencia de fondo cósmico de microondas, que se supone la evidencia más sólida de los restos del Big Bang.

sábado, 15 de mayo de 2010

Toda la vida procede de un único ancestro común

Hace más de 150 años, Charles Darwin propuso una teoría que entonces pareció descabellada: todos los seres vivos comparten la herencia genética de un único y remoto antepasado común (UCA, por sus siglas en inglés). Una idea que constituye uno de los pilares sobre los que el genial científico edificó su teoría de la evolución.

FUENTE | ABC Periódico Electrónico S.A. 14/05/2010

A partir de ese único organismo ancestral, la vida se diversificó después en la multitud de formas que hoy pueblan nuestro mundo. Ahora, un bioquímico de la Universidad de Brandeis en Boston, Massachusetts, ha publicado en Nature el primer estudio estadístico a gran escala que se realiza para poner a prueba la verosimilitud de la teoría.

Y los resultados del estudio confirman que Darwin tenía razón. En su «Origen de las especies», el naturalista británico proponía que «todos los seres orgánicos que alguna vez han vivido en la Tierra han descendido de una forma primordial». Desde entonces, las evidencias que confirman la teoría se han multiplicado, bajo la forma de un número creciente de criaturas «de transición» entre unas y otras especies en el registro fósil, pero también de una abrumadora cantidad de similitudes biológicas a nivel molecular.

Sin embargo, muchos biólogos se preguntan en la actualidad si las relaciones evolutivas entre los organismos vivientes se describen mejor con un único «árbol familiar» o, por el contrario, con una red de múltiples árboles evolutivos conectados entre sí, como en una telaraña. En cuyo caso, la vida habría podido expandirse de forma independiente a partir de un número indeterminado de ancestros, y no de uno solo.

Sin embargo, según el bioquímico Douglas Theobald, autor principal del estudio, eso es algo que en realidad no tiene demasiada importancia. «Déjeles decir que la vida surgió de forma independiente en múltiples ocasiones. Es algo que la idea de UCA permite. Y si fue así, la teoría sostiene que se produjo un cuello de botella en la evolución, en el que sólo sobrevivieron hasta el presente los descendientes de uno de los organismos independientes originales.

También es posible que efectivamente emergieran poblaciones separadas, pero por medio del intercambio de genes a lo largo del tiempo se habrían convertido en una única especie que fue el ancestro de todos nosotros. En ambos casos, todo lo que está vivo sigue estando relacionado genéticamente».

Por medio de potentes ordenadores y aplicando rigurosas fórmulas estadísticas, Theobald estudió los varios modelos diferentes de ancestros que existen. Y sus resultados inclinan abrumadoramente la balanza en favor de la hipótesis de UCA, un único antepasado común. De hecho, UCA es por lo menos 102.860 veces más probable que tener múltiples ancestros.

UNA ESPECIE DE ESPUMA

Para realizar su análisis, Theobald seleccionó 23 proteínas comunes a todo el espectro taxonómico, pero cuyas estructuras difieren de unas especies a otras. Buscó esas proteínas en doce especies diferentes, cuatro por cada uno de los tres diferentes dominios de la vida (Bacteria Archaea y Eucaryota). El paso siguiente fue preparar simulaciones informáticas para valorar las probabilidades de los diferentes escenarios evolutivos para producir ese rango de proteínas.

Y fue ahí donde Theobald se dio cuenta de que los escenarios evolutivos que partían de un único antepasado común superaban con mucho a los que se basaban en ancestros múltiples. «Simplemente -explica el científico- los modelos con un único antepasado común explicaban mejor los datos, y además eran los más simples, por lo que ganaban en todos los recuentos». Ahora bien, ¿qué aspecto debe tener ese antepasado común y dónde vivió? El estudio de Theobald no puede responder esas preguntas, aunque el científico sí que se permite especular: «para nosotros, debió parecerse a una especie de espuma, viviendo quizá en los bordes del océano, o quizá en las profundidades, al abrigo de chimeneas geotermales. Aunque a nivel molecular, estoy seguro de que debió tener un aspecto tan complejo y bello como el de la vida moderna».

Autor: José Manuel Nieves

martes, 11 de mayo de 2010

Frenazo al biocarburante

Los biocarburantes se perfilaban como la gran promesa de las energías limpias y como solución a la dependencia del petróleo. A principios de esta década Europa se fijó ambiciosos objetivos y España prometió situarse en la vanguardia.

FUENTE | El País Digital 11/05/2010

La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?

La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE.UU., y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.

La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.

Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".

Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.

Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.

José María López, subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.

La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.

"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".

La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".

Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.

Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.

CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.

El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.

En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.

En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañía Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.

La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.

Autor: Elena Hidalgo

miércoles, 28 de abril de 2010

La Antártida y su biodiversidad

37 minutos de tu vida que merece la pena emplearse en ver este video.



Descubierta una nueva y enorme corriente oceánica

Una nueva "autopista oceánica" de cuya existencia nadie sabía hasta ahora acaba de ser descubierta por un equipo de científicos japoneses y australianos. Tiene un caudal cuarenta veces superior al del río Amazonas y fluye bajo el Océano Índico, a más de tres mil metros de profundidad. El hallazgo, que ayudará a comprender mejor el clima de la Tierra, acaba de ser publicado en Nature Geoscience.

FUENTE ABC Periódico Electrónico S.A. 28/04/2010

La corriente transporta aguas muy densas y ricas en oxígeno que se hunden cerca de la Antártida a grandes profundidades y se dirigen hacia el lejano norte", explica Steve Rintoul, uno de los autores del estudio. "De hecho, sin esta aportación de agua antártica, las capas más profundas del océano tendrían muy poco oxígeno".

El papel y la influencia de las corrientes oceánicas en el clima son bien conocidas. En efecto, se encargan de almacenar y transportar una enorme cantidad de calor y dióxido de carbono, que de esta forma no se libera a la atmósfera y frena el proceso de calentamiento global. "La profunda corriente de la meseta submarina de Kerguelen forma parte de un sistema global de corrientes oceánicas que resultan determinantes a la hora de conocer cuánto calor y carbono puede almacenar el océano", añade el investigador.

Otras expediciones habían detectado antes evidencias de este complejo sistema de corrientes, pero ninguna de ellas había sido capaz de determinar la cantidad de agua que transportaban. El equipo australiano-japonés utilizó para sus experimentos distintos medidores de corriente anclados al fondo oceánico, a profundidades superiores a los 4.500 metros. Durante un periodo de dos años, los detectores enganchados al fondo flotaron a una profundidad de cerca de tres mil metros, midiendo sistemáticamente la velocidad de la corriente, su temperatura y salinidad.

DESDE LA ANTÁRTIDA

"Las mediciones continuas nos permitieron, por primera vez, determinar cuánta agua estaba transportando hacia el norte esta profunda corriente", afirma Rintoul. Y resulta que lleva más de doce millones de metros cúbicos por segundo de agua procedente de la Antártida, a menos de cero grados de temperatura y sin llegar a congelarse, ya que está mezclada con sales y minerales. "Fue una auténtica sorpresa comprobar lo fuerte que es esta corriente", dice el investigador. "Con una velocidad media durante dos años de 20 cm por segundo, se trata de la corriente más fuerte jamás medida a profundidades de tres km bajo la superficie marina".

Para Rintoul, "Disponer de un mapa de estos sistemas de corrientes profundas es un paso muy importante hacia la comprensión de la red global de corrientes que influye sobre el clima, tanto presente como futuro. Y nuestros resultados muestran que las corrientes de la Meseta Kerguelen realizan una gran contribución a esta circulación oceánica global".

Autor: José Manuel Nieves

martes, 13 de abril de 2010

El impacto de la actividad humana sobre la desertificación

El Análisis de Ciclo de Vida (ACV) es una metodología científica que analiza de manera objetiva los impactos ambientales de una actividad o proceso abarcando todo su ciclo, esto es, desde la extracción de las materias primas hasta la gestión de los residuos generados al final de su vida útil.

Montserrat Núñez
Instituto de Investigación y Tecnologías Agroalimentarias
IRTA

En ACV, el impacto ambiental del sistema estudiado se expresa en categorías de impacto ambiental (calentamiento global, destrucción de la capa de ozono, acidificación, etc.). En los últimos años se han realizado importantes avances metodológicos en el ACV, por ejemplo, definiendo unas normas estándares de aplicación en las ISO 14040 y 14044.

Pese a la evolución del ACV, una de las principales debilidades metodológicas actuales es la ausencia de categorías que midan los impactos que las actividades humanas, como el cultivo de tierras o el pastoreo, ejercen sobre el uso del suelo.

El uso insostenible del suelo puede llevar a su degradación. Si esta degradación se produce en zonas áridas, semi-áridas y sub-húmedas secas[1] , como España, la degradación se denomina desertificación y los efectos pueden ser irreversibles, dando lugar a áreas totalmente improductivas. A pesar de la importancia de la desertificación a nivel mundial, que afecta especialmente a los países áridos en desarrollo, hasta la fecha no se habían desarrollado propuestas encaminadas a incluir este importante impacto ambiental en el ACV. A raíz de esta situación, un grupo de investigadores del IRTA de Cabrils (Barcelona), de la Universidad Autónoma de Barcelona y de la Universidad Tecnológica Nacional de Mendoza (Argentina) han realizado una propuesta metodológica con el fin de que el ACV cuente con una categoría de impacto ambiental que mida el potencial de desertificación de cualquier actividad humana sobre el territorio. La propuesta ha sido publicada recientemente en una revista científica de ámbito internacional.

Para poder calcular el impacto de desertificación que tiene una actividad humana en una región concreta, la metodología precisa información de cuatro importantes indicadores biofísicos de desertificación: aridez, erosión, sobreexplotación de acuíferos y riesgo de incendios. Estos indicadores abarcan los principales factores que causan desertificación.

Una vez medido el impacto de desertificación de la actividad, éste se pone en relación con la calidad del suelo que se está degradando, ya que el efecto puede ser muy distinto dependiendo del estado de degradación del suelo sobre el que se actúa. De este modo, mediante el uso de sistemas de información geográfica (GIS, en sus siglas en inglés), se clasificaron 15 áreas naturales según su riesgo de desertificación. Según los resultados obtenidos, el 38% de la superficie de la Tierra, correspondiente a la superficie de ocho regiones naturales, tienen un clima árido y por tanto pueden sufrir desertificación. En la Figura 1 se muestra un mapa de estas regiones con riesgo de desertificación, que son: desierto tropical o subtropical, estepa tropical o subtropical, Mediterránea, sabana, desierto templado, estepa templada, praderas y zonas marinas, ordenadas de mayor a menor riesgo.

El método permite evaluar satisfactoriamente el impacto de desertificación de una actividad humana, comparar el impacto de una misma actividad en lugares distintos o entre actividades distintas que se desarrollen en el mismo lugar. La metodología publicada se está poniendo actualmente en práctica en varios casos de estudio en España y Argentina, cuyos resultados serán publicados una vez finalizada la investigación.



Cuestiones:

1.- Investiga qué es ISO 14040 y 14044.
2.- ¿Qué es desertificación?
3.- Cita dos actividades humanas que lleven a desertificación.
4.- ¿En qué se basa el ACV para determinar el poder de desertificación de una actividad humana?
5.- Investiga qué es un SIG, qué información nos da y cita algunos ejemplos

lunes, 12 de abril de 2010

Evolución humana

Un grupo de científicos cree haber encontrado la piedra rosetta de la evolución humana. Se trata una nueva especie de homínido hallado en Suráfrica cuya anatomía, mitad mono y mitad hombre, le convierte en el mejor candidato a ser el precursor de los primeros humanos.

FUENTE | Público 09/04/2010

Vivió hace unos dos millones de años en un momento muy desconocido de la evolución en el que se piensa que algún miembro del género Australopithecus engendró el género humano, del que el Homo sapiens es el único superviviente actual.

La nueva especie, Australopithecus sediba, se ha descrito basada en dos individuos, un joven y una mujer adulta, cuyos restos quedaron encerrados en un ataúd de rocas donde se han conservado hasta la actualidad. Yacían en la cueva de Malapa, cerca de la Cuna de la Humanidad, una región a 50 kilómetros de Johannesburgo donde se han encontrado cientos de fósiles claves para dibujar los orígenes del hombre.

"El sediba es una piedra rosetta para definir qué es el género humano", dijo el paleoantropólogo Lee Berger, de la Universidad de Witwatersrand (Suráfrica), durante una videoconferencia para presentar sus hallazgos. Es el autor principal de la descripción de la nueva especie, que publica Science. Presenta una mezcla de rasgos primitivos y modernos nunca vista.

El ejemplar modelo ha sido el del joven, pues incluye su cráneo casi completo. Tenía unos 13 años y medía 1,3 metros. Su pelvis era casi como la de los primeros humanos e indica que era capaz de andar erguido. Su nariz se proyecta hacia adelante como la de los humanos, y sus piernas son más largas que las de los otros australopitecos que pasaban la mayor parte del tiempo en los árboles. Sin embargo, su cráneo es mucho menor que el de los humanos. Tiene unos brazos tan largos como los de un orangután y sus pies y manos son aún "primitivos", explicó Berger. Esta coctelera hace del sediba un ejemplar único para explicar quiénes fueron los australopitecos que bajaron de los árboles para siempre.

Hace entre tres y dos millones de años, Suráfrica era un hervidero de homínidos que incluía ejemplares de rasgos agigantados como los Paranthropus, otros más avanzados, entre los que estarían el Australopithecus africanus y el sediba, y los Homo habilis, primeros miembros del género humano, explica Antonio Rosas, investigador del CSIC. "Los bosques tropicales comenzaban a dejar paso a las sabanas y aparecía su característica fauna tal como la conocemos hoy", añade.

Los fósiles fueron hallados entre restos de antílopes y tigres de dientes de sable. Los responsables de la excavación creen que el joven sediba y su acompañante adulta cayeron en una "trampa mortal". Era una grieta del terreno que daba a un foso desde el que fueron luego arrastrados por corrientes de agua junto a los otros animales a un depósito más profundo.

Los expertos comenzaron a desenterrar los primeros fósiles en 2008, pero el yacimiento seguirá dando frutos. Ya hay al menos otros dos ejemplares que se están desenterrando en estos momentos, anunció Berger. "Pronto seremos capaces de ofrecer una reconstrucción detallada de cómo eran el rostro, el cuerpo y el estilo de vida de esta especie", dijo Berger.

ANCESTRO DEL ERECTUS

Los responsables del hallazgo creen que el sediba es descendiente del A. africanus, que vivió en el continente hasta hace unos 2,9 millones de años. Sus rasgos humanos indican que puede ser el ancestro directo del Homo habilis, primer miembro del género Homo, o incluso del Homo erectus, que salió de África hacia Asia hace 1,8 millones de años.

"El erectus es aceptado por todos los expertos como la primera especie genuinamente humana", explica Carles Lalueza, paleoantropólogo de la Universidad Pompeu Fabra de Barcelona. "Lo más importante de este estudio es que presenta el mejor candidato hasta la fecha para enlazar a australopitecos y humanos", añade.

Hay una tercera hipótesis. El sediba pudo ser una rama evolutiva independiente que "imitaba" a los primeros humanos, pero que no los originó. Los expertos apuntan que el trabajo dará que hablar durante meses y "desplazará el centro de estudio de la disciplina hacia los australopitecos", explica Rosas. "Se trata de uno de los capítulos más oscuros de la evolución", añade.

Algunos medios se han apresurado a decir que el sediba es el eslabón perdido, algo que los propios autores han negado rotundamente. "No me gusta aplicar el término porque es algo de la época victoriana y la evolución no es una cadena, sino un árbol", señaló Berger. Rosas elabora: "Cada especie era como un ensayo que respondía al cambio ambiental con un determinado modo de locomoción, dentición y tamaño cerebral". "Como salido de una caja negra, alguno de esos ensayos consolidó el género humano en la forma del Homo erectus", concluye.

Autor: Nuño Domínguez

sábado, 10 de abril de 2010

Declaración de Río de Janeiro sobre medio ambiente y desarrollo

REPORT OF THE UNITED NATIONS CONFERENCE ON
ENVIRONMENT AND DEVELOPMENT*

(Rio de Janeiro, 3-14 June 1992)


Annex I

RIO DECLARATION ON ENVIRONMENT AND DEVELOPMENT


The United Nations Conference on Environment and Development,

Having met at Rio de Janeiro from 3 to 14 June 1992,

Reaffirming the Declaration of the United Nations Conference on the Human
Environment, adopted at Stockholm on 16 June 1972, a/ and seeking to build upon
it,

With the goal of establishing a new and equitable global partnership
through the creation of new levels of cooperation among States, key sectors of
societies and people,

Working towards international agreements which respect the interests of
all and protect the integrity of the global environmental and developmental
system,

Recognizing the integral and interdependent nature of the Earth, our
home,

Proclaims that:

Principle 1

Human beings are at the centre of concerns for sustainable development.
They are entitled to a healthy and productive life in harmony with nature.


Principle 2

States have, in accordance with the Charter of the United Nations and the
principles of international law, the sovereign right to exploit their own
resources pursuant to their own environmental and developmental policies, and
the responsibility to ensure that activities within their jurisdiction or
control do not cause damage to the environment of other States or of areas
beyond the limits of national jurisdiction.


Principle 3

The right to development must be fulfilled so as to equitably meet
developmental and environmental needs of present and future generations.

Principle 4

In order to achieve sustainable development, environmental protection
shall constitute an integral part of the development process and cannot be
considered in isolation from it.


Principle 5

All States and all people shall cooperate in the essential task of
eradicating poverty as an indispensable requirement for sustainable
development, in order to decrease the disparities in standards of living and
better meet the needs of the majority of the people of the world.


Principle 6

The special situation and needs of developing countries, particularly the
least developed and those most environmentally vulnerable, shall be given
special priority. International actions in the field of environment and
development should also address the interests and needs of all countries.


Principle 7

States shall cooperate in a spirit of global partnership to conserve,
protect and restore the health and integrity of the Earth's ecosystem. In view
of the different contributions to global environmental degradation, States have
common but differentiated responsibilities. The developed countries
acknowledge the responsibility that they bear in the international pursuit of
sustainable development in view of the pressures their societies place on the
global environment and of the technologies and financial resources they
command.


Principle 8

To achieve sustainable development and a higher quality of life for all
people, States should reduce and eliminate unsustainable patterns of production
and consumption and promote appropriate demographic policies.


Principle 9

States should cooperate to strengthen endogenous capacity-building for
sustainable development by improving scientific understanding through exchanges
of scientific and technological knowledge, and by enhancing the development,
adaptation, diffusion and transfer of technologies, including new and
innovative technologies.


Principle 10

Environmental issues are best handled with the participation of all
concerned citizens, at the relevant level. At the national level, each
individual shall have appropriate access to information concerning the
environment that is held by public authorities, including information on
hazardous materials and activities in their communities, and the opportunity
to participate in decision-making processes. States shall facilitate and
encourage public awareness and participation by making information widely
available. Effective access to judicial and administrative proceedings,
including redress and remedy, shall be provided.


Principle 11

States shall enact effective environmental legislation. Environmental
standards, management objectives and priorities should reflect the
environmental and developmental context to which they apply. Standards applied
by some countries may be inappropriate and of unwarranted economic and social
cost to other countries, in particular developing countries.


Principle 12

States should cooperate to promote a supportive and open international
economic system that would lead to economic growth and sustainable development
in all countries, to better address the problems of environmental degradation.
Trade policy measures for environmental purposes should not constitute a means
of arbitrary or unjustifiable discrimination or a disguised restriction on
international trade. Unilateral actions to deal with environmental challenges
outside the jurisdiction of the importing country should be avoided.
Environmental measures addressing transboundary or global environmental
problems should, as far as possible, be based on an international consensus.


Principle 13

States shall develop national law regarding liability and compensation
for the victims of pollution and other environmental damage. States shall also
cooperate in an expeditious and more determined manner to develop further
international law regarding liability and compensation for adverse effects of
environmental damage caused by activities within their jurisdiction or control
to areas beyond their jurisdiction.


Principle 14

States should effectively cooperate to discourage or prevent the
relocation and transfer to other States of any activities and substances that
cause severe environmental degradation or are found to be harmful to human
health.


Principle 15

In order to protect the environment, the precautionary approach shall be
widely applied by States according to their capabilities. Where there are
threats of serious or irreversible damage, lack of full scientific certainty
shall not be used as a reason for postponing cost-effective measures to prevent
environmental degradation.


Principle 16

National authorities should endeavour to promote the internalization of
environmental costs and the use of economic instruments, taking into account
the approach that the polluter should, in principle, bear the cost of
pollution, with due regard to the public interest and without distorting
international trade and investment.


Principle 17

Environmental impact assessment, as a national instrument, shall be
undertaken for proposed activities that are likely to have a significant
adverse impact on the environment and are subject to a decision of a competent
national authority.


Principle 18

States shall immediately notify other States of any natural disasters or
other emergencies that are likely to produce sudden harmful effects on the
environment of those States. Every effort shall be made by the international
community to help States so afflicted.

Principle 19

States shall provide prior and timely notification and relevant
information to potentially affected States on activities that may have a
significant adverse transboundary environmental effect and shall consult with
those States at an early stage and in good faith.


Principle 20

Women have a vital role in environmental management and development.
Their full participation is therefore essential to achieve sustainable
development.


Principle 21

The creativity, ideals and courage of the youth of the world should be
mobilized to forge a global partnership in order to achieve sustainable
development and ensure a better future for all.


Principle 22

Indigenous people and their communities and other local communities have
a vital role in environmental management and development because of their
knowledge and traditional practices. States should recognize and duly support
their identity, culture and interests and enable their effective participation
in the achievement of sustainable development.


Principle 23

The environment and natural resources of people under oppression,
domination and occupation shall be protected.


Principle 24

Warfare is inherently destructive of sustainable development. States
shall therefore respect international law providing protection for the
environment in times of armed conflict and cooperate in its further
development, as necessary.


Principle 25

Peace, development and environmental protection are interdependent and
indivisible.


Principle 26

States shall resolve all their environmental disputes peacefully and by
appropriate means in accordance with the Charter of the United Nations.


Principle 27

States and people shall cooperate in good faith and in a spirit of
partnership in the fulfilment of the principles embodied in this Declaration
and in the further development of international law in the field of sustainable
development.


* * * * *
a/ Report of the United Nations Conference on the Human Environment,
Stockholm, 5-16 June 1972 (United Nations publication, Sales No. E.73.II.A.14
and corrigendum), chap. I.


--------------------------------------------------------------------------------

This document has been posted online by the United Nations Department of Economic and Social Affairs (DESA). Reproduction and dissemination of the document - in electronic and/or printed format - is encouraged, provided acknowledgement is made of the role of the United Nations in making it available.

Date last updated: 12 January, 2000 by DESA/DSD
Copyright © 1999 United Nations

lunes, 29 de marzo de 2010

Predecir el terremoto no, prevenirlo sí

Los recientes terremotos ocurridos en Haití (12 de enero, magnitud 7,0) y Chile (27 de febrero, magnitud 8,8) y sus trágicos efectos han dado lugar a las lógicas preguntas: ¿cómo se originan? ¿Es posible predecirlos? ¿Se puede hacer algo para evitarlos?

FUENTE El País Digital
17/03/2010

En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.

La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.

Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.

La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.

Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.

Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.

El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.

Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?

La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.

La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.

A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.

El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.

La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.

Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)

Responde las siguientes preguntas:

1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.

El mapa de terremotos de España no es fiable

España esconde decenas de fallas activas, capaces de provocar terremotos destructores, pero los organismos públicos responsables de prevenir sus efectos no tienen ni idea de dónde están. El Instituto Geográfico Nacional (IGN), encargado de elaborar el mapa de peligrosidad sísmica, dispone de datos obtenidos con sismógrafos en los últimos 100 años, en el mejor de los casos.

FUENTE Público 18/03/2010

También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.

Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.

DOS MANCHAS ROJAS

La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.

Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).

En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.

TRABAJOS EN SECRETO

Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.

Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.

DERROCHE DE DINERO

Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.

Autor: Manuel Ansede

sábado, 27 de marzo de 2010

Los mares de la UE

Los océanos se encuentran cada vez más amenazados por varios factores, entre ellos la contaminación, la sobreexplotación y el cambio climático.

FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010

Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.

Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.

La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.

Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.

En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.

Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.

Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.

Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.

La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.

lunes, 1 de marzo de 2010

¿Qué es un tsunami?

Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.

FUENTE | El Mundo Digital 01/03/2010

El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.

Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).

La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.

Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.

Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).

Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.

Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.

domingo, 14 de febrero de 2010

Consecuencias estres hídrico en España

El estrés del agua quiere decir sequía y desertificación. Significa que en el futuro, a nuestra lista de preocupaciones, se añadirá la falta de agua. Pero también el exceso: inundaciones y crecidas de ríos. Es la expresión que utiliza la Agencia Europea de Medio Ambiente (EEA) para calificar lo que va a sufrir en las próximas décadas España y todos los países de la cuenca del Mediterráneo.
FUENTE El País 29/09/2008

La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.

VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR

- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas

Autor: Maruxa Ruiz del Árbol