REPORT OF THE UNITED NATIONS CONFERENCE ON
ENVIRONMENT AND DEVELOPMENT*
(Rio de Janeiro, 3-14 June 1992)
Annex I
RIO DECLARATION ON ENVIRONMENT AND DEVELOPMENT
The United Nations Conference on Environment and Development,
Having met at Rio de Janeiro from 3 to 14 June 1992,
Reaffirming the Declaration of the United Nations Conference on the Human
Environment, adopted at Stockholm on 16 June 1972, a/ and seeking to build upon
it,
With the goal of establishing a new and equitable global partnership
through the creation of new levels of cooperation among States, key sectors of
societies and people,
Working towards international agreements which respect the interests of
all and protect the integrity of the global environmental and developmental
system,
Recognizing the integral and interdependent nature of the Earth, our
home,
Proclaims that:
Principle 1
Human beings are at the centre of concerns for sustainable development.
They are entitled to a healthy and productive life in harmony with nature.
Principle 2
States have, in accordance with the Charter of the United Nations and the
principles of international law, the sovereign right to exploit their own
resources pursuant to their own environmental and developmental policies, and
the responsibility to ensure that activities within their jurisdiction or
control do not cause damage to the environment of other States or of areas
beyond the limits of national jurisdiction.
Principle 3
The right to development must be fulfilled so as to equitably meet
developmental and environmental needs of present and future generations.
Principle 4
In order to achieve sustainable development, environmental protection
shall constitute an integral part of the development process and cannot be
considered in isolation from it.
Principle 5
All States and all people shall cooperate in the essential task of
eradicating poverty as an indispensable requirement for sustainable
development, in order to decrease the disparities in standards of living and
better meet the needs of the majority of the people of the world.
Principle 6
The special situation and needs of developing countries, particularly the
least developed and those most environmentally vulnerable, shall be given
special priority. International actions in the field of environment and
development should also address the interests and needs of all countries.
Principle 7
States shall cooperate in a spirit of global partnership to conserve,
protect and restore the health and integrity of the Earth's ecosystem. In view
of the different contributions to global environmental degradation, States have
common but differentiated responsibilities. The developed countries
acknowledge the responsibility that they bear in the international pursuit of
sustainable development in view of the pressures their societies place on the
global environment and of the technologies and financial resources they
command.
Principle 8
To achieve sustainable development and a higher quality of life for all
people, States should reduce and eliminate unsustainable patterns of production
and consumption and promote appropriate demographic policies.
Principle 9
States should cooperate to strengthen endogenous capacity-building for
sustainable development by improving scientific understanding through exchanges
of scientific and technological knowledge, and by enhancing the development,
adaptation, diffusion and transfer of technologies, including new and
innovative technologies.
Principle 10
Environmental issues are best handled with the participation of all
concerned citizens, at the relevant level. At the national level, each
individual shall have appropriate access to information concerning the
environment that is held by public authorities, including information on
hazardous materials and activities in their communities, and the opportunity
to participate in decision-making processes. States shall facilitate and
encourage public awareness and participation by making information widely
available. Effective access to judicial and administrative proceedings,
including redress and remedy, shall be provided.
Principle 11
States shall enact effective environmental legislation. Environmental
standards, management objectives and priorities should reflect the
environmental and developmental context to which they apply. Standards applied
by some countries may be inappropriate and of unwarranted economic and social
cost to other countries, in particular developing countries.
Principle 12
States should cooperate to promote a supportive and open international
economic system that would lead to economic growth and sustainable development
in all countries, to better address the problems of environmental degradation.
Trade policy measures for environmental purposes should not constitute a means
of arbitrary or unjustifiable discrimination or a disguised restriction on
international trade. Unilateral actions to deal with environmental challenges
outside the jurisdiction of the importing country should be avoided.
Environmental measures addressing transboundary or global environmental
problems should, as far as possible, be based on an international consensus.
Principle 13
States shall develop national law regarding liability and compensation
for the victims of pollution and other environmental damage. States shall also
cooperate in an expeditious and more determined manner to develop further
international law regarding liability and compensation for adverse effects of
environmental damage caused by activities within their jurisdiction or control
to areas beyond their jurisdiction.
Principle 14
States should effectively cooperate to discourage or prevent the
relocation and transfer to other States of any activities and substances that
cause severe environmental degradation or are found to be harmful to human
health.
Principle 15
In order to protect the environment, the precautionary approach shall be
widely applied by States according to their capabilities. Where there are
threats of serious or irreversible damage, lack of full scientific certainty
shall not be used as a reason for postponing cost-effective measures to prevent
environmental degradation.
Principle 16
National authorities should endeavour to promote the internalization of
environmental costs and the use of economic instruments, taking into account
the approach that the polluter should, in principle, bear the cost of
pollution, with due regard to the public interest and without distorting
international trade and investment.
Principle 17
Environmental impact assessment, as a national instrument, shall be
undertaken for proposed activities that are likely to have a significant
adverse impact on the environment and are subject to a decision of a competent
national authority.
Principle 18
States shall immediately notify other States of any natural disasters or
other emergencies that are likely to produce sudden harmful effects on the
environment of those States. Every effort shall be made by the international
community to help States so afflicted.
Principle 19
States shall provide prior and timely notification and relevant
information to potentially affected States on activities that may have a
significant adverse transboundary environmental effect and shall consult with
those States at an early stage and in good faith.
Principle 20
Women have a vital role in environmental management and development.
Their full participation is therefore essential to achieve sustainable
development.
Principle 21
The creativity, ideals and courage of the youth of the world should be
mobilized to forge a global partnership in order to achieve sustainable
development and ensure a better future for all.
Principle 22
Indigenous people and their communities and other local communities have
a vital role in environmental management and development because of their
knowledge and traditional practices. States should recognize and duly support
their identity, culture and interests and enable their effective participation
in the achievement of sustainable development.
Principle 23
The environment and natural resources of people under oppression,
domination and occupation shall be protected.
Principle 24
Warfare is inherently destructive of sustainable development. States
shall therefore respect international law providing protection for the
environment in times of armed conflict and cooperate in its further
development, as necessary.
Principle 25
Peace, development and environmental protection are interdependent and
indivisible.
Principle 26
States shall resolve all their environmental disputes peacefully and by
appropriate means in accordance with the Charter of the United Nations.
Principle 27
States and people shall cooperate in good faith and in a spirit of
partnership in the fulfilment of the principles embodied in this Declaration
and in the further development of international law in the field of sustainable
development.
* * * * *
a/ Report of the United Nations Conference on the Human Environment,
Stockholm, 5-16 June 1972 (United Nations publication, Sales No. E.73.II.A.14
and corrigendum), chap. I.
--------------------------------------------------------------------------------
This document has been posted online by the United Nations Department of Economic and Social Affairs (DESA). Reproduction and dissemination of the document - in electronic and/or printed format - is encouraged, provided acknowledgement is made of the role of the United Nations in making it available.
Date last updated: 12 January, 2000 by DESA/DSD
Copyright © 1999 United Nations
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
sábado, 10 de abril de 2010
lunes, 29 de marzo de 2010
Predecir el terremoto no, prevenirlo sí
Los recientes terremotos ocurridos en Haití (12 de enero, magnitud 7,0) y Chile (27 de febrero, magnitud 8,8) y sus trágicos efectos han dado lugar a las lógicas preguntas: ¿cómo se originan? ¿Es posible predecirlos? ¿Se puede hacer algo para evitarlos?
FUENTE El País Digital
17/03/2010
En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.
La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.
Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.
La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.
Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.
Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.
El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.
Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?
La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.
La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.
A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.
El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.
La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.
Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)
Responde las siguientes preguntas:
1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.
FUENTE El País Digital
17/03/2010
En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.
La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.
Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.
La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.
Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.
Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.
El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.
Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?
La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.
La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.
A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.
El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.
La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.
Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)
Responde las siguientes preguntas:
1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.
El mapa de terremotos de España no es fiable
España esconde decenas de fallas activas, capaces de provocar terremotos destructores, pero los organismos públicos responsables de prevenir sus efectos no tienen ni idea de dónde están. El Instituto Geográfico Nacional (IGN), encargado de elaborar el mapa de peligrosidad sísmica, dispone de datos obtenidos con sismógrafos en los últimos 100 años, en el mejor de los casos.
FUENTE Público 18/03/2010
También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.
Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.
DOS MANCHAS ROJAS
La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.
Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).
En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.
TRABAJOS EN SECRETO
Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.
Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.
DERROCHE DE DINERO
Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.
Autor: Manuel Ansede
FUENTE Público 18/03/2010
También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.
Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.
DOS MANCHAS ROJAS
La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.
Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).
En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.
TRABAJOS EN SECRETO
Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.
Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.
DERROCHE DE DINERO
Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.
Autor: Manuel Ansede
sábado, 27 de marzo de 2010
Los mares de la UE
Los océanos se encuentran cada vez más amenazados por varios factores, entre ellos la contaminación, la sobreexplotación y el cambio climático.
FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010
Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.
Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.
La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.
Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.
En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.
Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.
Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.
Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.
La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.
FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010
Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.
Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.
La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.
Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.
En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.
Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.
Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.
Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.
La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.
lunes, 1 de marzo de 2010
¿Qué es un tsunami?
Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
domingo, 14 de febrero de 2010
Consecuencias estres hídrico en España
El estrés del agua quiere decir sequía y desertificación. Significa que en el futuro, a nuestra lista de preocupaciones, se añadirá la falta de agua. Pero también el exceso: inundaciones y crecidas de ríos. Es la expresión que utiliza la Agencia Europea de Medio Ambiente (EEA) para calificar lo que va a sufrir en las próximas décadas España y todos los países de la cuenca del Mediterráneo.
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
lunes, 8 de febrero de 2010
Efectos del desarrollo urbano sobre el agua
El desarrollo urbano de los humanos se solapa con el hábitat de animales y plantas silvestres, y crea entornos que degradan los paisajes naturales. Entre las consecuencias destacan la proliferación de mosquitos, y la reducción de la cantidad de alimento para los peces. En relación a la gestión de las aguas urbanas, ecólogos estadounidenses han presentado, durante la Reunión Anual de la Sociedad Ecológica de Norteamérica, los resultados de sus investigaciones que pretenden equilibrar a una sociedad urbanizada con la protección de los ecosistemas acuáticos. Los ‘tejados verdes’ serían una solución.
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
jueves, 4 de febrero de 2010
España aumenta emisiones de CO2 un 40% desde 1990 y disminuye un 7,7% respecto a 1990
Las emisiones de gases de efecto invernadero del año 2008 se sitúan en 405.048 kilotoneladas de CO2 equivalentes, lo que supone una reducción del 7,7% respecto a 2007 y se sitúan en un 39,8% por encima de las del año base del Protocolo de Kioto (1990).
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
miércoles, 3 de febrero de 2010
Tratamiento de aguas residuales mediante reactores biológicos de membranas
Los reactores biológicos de membranas son una variante de los sistemas de fangos activos en los que la separación, biomasa/agua tratada, se efectúa por filtración en vez de por decantación. Estos sistemas son aplicables a efluentes procedentes de diferentes industrias como la láctea, textil, agroalimentaria, vitivinícola, conservera, cosmética, oleica, para tratar aguas del procesado de pasta y papel así como para tratar purines.
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)
Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
Antibióticos y genes de resistencia
La mayor parte de los antibióticos utilizados por la medicina para el tratamiento de las infecciones, y de los genes de resistencia a los propios antibióticos adquiridos por los patógenos que afectan al hombre, tienen su origen en el entorno natural. Allí se han desarrollado durante millones de años siguiendo las reglas darwinianas de la evolución. Pero la situación está cambiando sigilosamente desde hace medio siglo. Es el tiempo que lleva el hombre vertiendo antibióticos, en un volumen que aumenta de forma exponencial, al medio ambiente a través sobre todo de las aguas.
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
La crisis de los humedales españoles
FUENTE | El Mundo Digital 02/02/2010
Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.
"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.
España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.
La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.
En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.
La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.
En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.
Autor: Miguel G. Corral
Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.
"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.
España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.
La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.
En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.
La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.
En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.
Autor: Miguel G. Corral
Medicamentos y/o metabolitos en el agua de los ríos de la Comunidad de Madrid
Yolanda Valcárcel Rivera
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
martes, 19 de enero de 2010
Riesgo volcánico en Gran Canaria
El noreste de Gran Canaria, una de las zonas más poblada de la isla, es precisamente el área que más probabilidades tiene de que se produzca una erupción volcánica. La Universidad de las Palmas de Gran Canaria acaba de presentar el primer mapa de peligrosidad volcánica de la isla, que describe escenarios de riesgo y que ha sido elaborado por investigadores españoles y franceses.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
lunes, 18 de enero de 2010
Asturias era el auténtico centro del mundo hace 305 millones de años
El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron lugar a los depósitos de carbón de la región y era el centro del «supercontinente Pangea» -que configuraba la estructura terrestre- hace 305 millones de años.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
Terremoto en Haití originado por una falla que estudian investigadores españoles
Un equipo científico liderado por la Universidad Complutense (UCM) y especializado en la geología del noreste del Caribe, estudia la tectónica de la Falla de Enriquillo, cuyo movimiento acaba de producir un terremoto de magnitud 7 en Haití.
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
jueves, 14 de enero de 2010
El genoma de la soja puede revolucionar los cultivos y el biodiésel
Un equipo multidisciplinar de científicos ha conseguido descifrar el genoma de la soja, uno de los principales alimentos del Tercer Mundo y una de las fuentes mundiales más importantes de proteína y aceite. La investigación, que aparece publicada en la revista Nature, resulta especialmente destacable, ya que permitirá buscar fórmulas para hacer plantaciones más resistentes a las plagas y las sequías y dar un impulso a los cultivos de biodiésel.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
El primer animal que «funciona» como una planta
La capacidad de realizar la fotosíntesis estaba hasta ahora reservada a las plantas y las algas, pero los científicos han encontrado el primer animal que la practica y «funciona» como si fuera un vegetal.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
domingo, 20 de diciembre de 2009
Tabaco, sol y mutaciones
Las huellas del tabaco y de la luz ultravioleta, en forma de miles de mutaciones, se han encontrado claramente en los primeros genomas completos del cáncer de pulmón y del cáncer de piel, respectivamente, que se acaban de presentar. El número de mutaciones encontradas en el cáncer de pulmón indica que el fumador adquiere una mutación cada 15 cigarrillos fumados, aproximadamente.
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
viernes, 11 de diciembre de 2009
Los monos hablan un lenguaje ancestral
Los gritos de los monos Campbell (Cercopithecus campbelli campbelli) en los bosques de Costa de Marfil esconden la forma de lenguaje vocal no humano más compleja que se conoce, según un estudio publicado en PNAS
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
jueves, 10 de diciembre de 2009
El Mediterráneo se llenó en menos de dos años

Hace 5,3 millones de años se produjo la mayor inundación conocida nunca en la Tierra sobre un Mediterráneo desecado. La descarga de agua fue 1.000 veces superior a la del río Amazonas, con una subida de 10 m diarios del nivel del mar.
FUENTE CSIC 10/12/2009
El mar Mediterráneo llegó casi a secarse hace unos seis millones de años, al quedar aislado de los océanos durante un largo periodo de tiempo, debido el actual levantamiento tectónico del Estrecho de Gibraltar. Cuando las aguas del Atlántico encontraron de nuevo un camino a través del Estrecho, llenaron el Mediterráneo con la mayor y más brusca inundación que ha conocido nunca la Tierra. La cuenca mediterránea, entonces un enorme desierto a 1.500 metros de profundidad, tardó en llenarse de unos meses a dos años, según explican investigadores del Consejo Superior de Investigaciones Científicas (CSIC). Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse de 10 a 10.000 años.
Reproducción de cómo se produjo la mayor inundación conocida en la Tierra que llenó el mar Mediterráneo hace 5,3 millones de años./ Ilustración: Roger Pibernat
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
Uno de los responsables de la investigación, el investigador del CSIC Daniel García- Castellanos, que trabaja en el Instituto de Ciencias de la Tierra Jaume Almera, en Barcelona, detalla: "La inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de 'megarrápido' por donde el agua circuló a cientos de kilómetros por hora. Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el Golfo de Cádiz y el Mar de Alborán".
Cuando hace unos años los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del Estrecho de Gibraltar se encontraron con este problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos en los años 90 pensaron que esta norme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo.
"Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta García-Castellanos.
GARGANTAS Y SAL
"Durante el periodo de desecación [la llamada crisis salina del Mesiniense, debido a la precipitación masiva de sal en todo el Mediterráneo con acumulaciones de varios kilómetros en algunos lugares de sus zonas más profundas], los principales ríos que desembocaban en el mar estudiado excavaron profundas e impresionantes gargantas en los márgenes del fondo marino, que quedaron expuestos. Los ríos desembocaban entonces en lagos salinos situados en las partes más profundas de la cuenca", explica el investigador del CSIC.
No obstante, a partir del estudio de los perfiles sísmicos realizados en el Mar de Alborán [secciones verticales a través de los sedimentos] y de los cálculos basados en modelos de erosión de los ríos de montaña, los investigadores demostraron que la erosión no fue producida por un río durante la desecación del Mediterráneo, sino por un enorme flujo de agua procedente del Atlántico.
García-Castellanos avanza las implicaciones que pueda tener el estudio: "Un cambio tan enorme y abrupto en el paisaje terrestre como el que hemos deducido pudo tener un impacto notable en el clima de aquel periodo, algo que no se ha estudiado aún con suficiente detalle y a lo que podría ayudar este trabajo. La técnica usada, además, nos puede servir también para estudiar otras inundaciones de las que se desconocen su intensidad o duración".
--------------------------------------------------------------------------------
García-Castellanos, D., F. Estrada, I. Jiménez-Munt, C. Gorini, M. Fernàndez, J. Vergés, R. De Vicente. Catastrophic flood of the Mediterranean after the Messinian Crisis. Nature, 10 de diciembre de 2009. doi:10.1038/nature08555
domingo, 6 de diciembre de 2009
lunes, 30 de noviembre de 2009
Los virus pueden usurpar la maquinaria de las bacterias para replicarse

Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente.
FUENTE | CSIC - mi+d 30/11/2009
Localización subcelular de la maquinaria replicativa del virus pi29 (rojo) y de la proteína MreB del citoesqueleto bacteriano (verde). CSIC
Un equipo, dirigido por la investigadora del Consejo Superior de Investigaciones Científicas (CSIC) Margarita Salas, ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente. Esta capacidad sólo era conocida, hasta el momento, en células eucariotas, la base de los organismos complejos como el ser humano. El hallazgo, publicado en Proceedings de la Academia Nacional de Ciencias de EE.UU. (PNAS), permitiría crear estirpes bacterianas modificadas genéticamente para minimizar sus posibilidades de infección por virus. Este descubrimiento podría evitar pérdidas económicas en industrias que emplean bacterias en sus procesos de producción, como la de los detergentes o fertilizantes.
Además de Salas, el trabajo ha contado con la participación de los investigadores del CSIC Daniel Muñoz Espín y Wilfried Meijer, del Centro de Biología Molecular Severo Ochoa (centro mixto del CSIC y la Universidad Autónoma de Madrid), en colaboración con científicos de la Universidad de Newcastle (Reino Unido).
Como explica la investigadora del CSIC, los virus han coevolucionado con sus células hospedadoras a lo largo de la historia y, por ello, "no resulta sorprendente que hayan aprendido a explotar diferentes mecanismos de ellas". La comunidad científica conoce desde hace años que, en las células eucariotas, los virus aprovechan las características del citoesqueleto para enriquecer su sitio natural de replicación en el interior de la célula o para establecer una autopista sobre la que la nueva progenie de virus pueda circular para abandonar la célula infectada.
El citoesqueleto es una red tridimensional de filamentos proteicos que desempeña un papel clave en la estructura y función de las células. Se trata de una estructura dinámica que, además de proporcionar soporte y forma a la célula, realiza otras muchas funciones como facilitar la movilidad y el transporte intercelular o intervenir en la división celular.
Anteriormente, se consideraba que el citoesqueleto era una estructura única de las células eucariotas pero, en los últimos años, se han detectado homólogos procariotas, en concreto, en bacterias: las proteínas MreB, homólogas de las proteínas actinas que conforman los microfilamentos del citoesqueleto eucariótico.
A partir de este hallazgo, Salas y su equipo han demostrado ahora que las proteínas MreB también pueden ser explotadas por los virus para aumentar la replicación de su material genético, de la misma forma que lo hacen los virus eucarióticos con el citoesqueleto de las células eucariotas. El equipo ha probado este fenómeno en diferentes especies bacterianas, entre ellas, Bacillus subtilis. Esta bacteria, de interés biotecnológico, se utiliza en aplicaciones industriales como la producción de enzimas proteasas o amilasas. Las proteasas, por ejemplo, se emplean en los detergentes y en la elaboración de fertilizantes. Estas bacterias pueden ser infectadas por el virus pi29, uno de los principales objetos de investigación de la científica del CSIC.
Según explica Salas, los virus utilizan las proteínas MreB como andamios sobre los que organizar sus maquinarias replicativas, lo que les permite obtener una gran progenie viral cuando las células son infectadas y extender, así, la infección a otras células procariotas. En el caso de Bacillus subtilis, el trabajo de Salas y su equipo permitiría el desarrollo de estirpes con mutaciones en la familia de proteínas MreB que, por tanto, serían menos sensibles a la infección por fagos (virus que infectan a las bacterias), algo que genera grandes pérdidas económicas.
--------------------------------------------------------------------------------
Daniel Muñoz-Espín, Richard Daniel, Yoshikazu Kawai, Rut Carballido-López, Virginia Castilla-Llorente, Jeff Errington, Wilfried J.J. Meijer y Margarita Salas The actin-like MreB cytoskeleton organizes viral DNA replication in bacteria PNAS
La biomasa: el fracaso del Plan de Energías Renovables
«Biomasa: la energía que nos da la naturaleza con lo que a ella le sobra». Sin embargo, atendiendo a las cifras que prevé el Plan de Energías Renovables (PER) 2005-2010 para esta tecnología -que produce electricidad y calor mediante la quema de restos agrícolas o forestales- y a su estado de desarrollo actual, parece que la campaña llega un poco tarde. Según el documento elaborado por el Gobierno, la Biomasa debería producir en España el 47,78% de la energía renovable en 2010. Y, a un año de la finalización del PER, apenas alcanza una cuarta parte de ese objetivo.
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
'Pseudomona aeruginosa' segrega una sustancia tóxica que acaba con las células defensivas
Muchos autores hablan de ella como una bacteria ubicua. 'Pseudomona aeruginosa' está presente en casi todos los ambientes de la naturaleza, incluido el organismo de los seres humanos. Normalmente, su presencia no supone un problema salvo en aquellas personas con pocas defensas. En el ambiente hospitalario, son muy frecuentes las infecciones causadas por este bacilo gram negativo, sobre todo en pacientes oncológicos, quemados y enfermos de fibrosis quística.
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
Suscribirse a:
Entradas (Atom)