HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

martes, 11 de mayo de 2010

Frenazo al biocarburante

Los biocarburantes se perfilaban como la gran promesa de las energías limpias y como solución a la dependencia del petróleo. A principios de esta década Europa se fijó ambiciosos objetivos y España prometió situarse en la vanguardia.

FUENTE | El País Digital 11/05/2010

La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?

La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE.UU., y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.

La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.

Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".

Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.

Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.

José María López, subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.

La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.

"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".

La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".

Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.

Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.

CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.

El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.

En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.

En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañía Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.

La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.

Autor: Elena Hidalgo

miércoles, 28 de abril de 2010

La Antártida y su biodiversidad

37 minutos de tu vida que merece la pena emplearse en ver este video.



Descubierta una nueva y enorme corriente oceánica

Una nueva "autopista oceánica" de cuya existencia nadie sabía hasta ahora acaba de ser descubierta por un equipo de científicos japoneses y australianos. Tiene un caudal cuarenta veces superior al del río Amazonas y fluye bajo el Océano Índico, a más de tres mil metros de profundidad. El hallazgo, que ayudará a comprender mejor el clima de la Tierra, acaba de ser publicado en Nature Geoscience.

FUENTE ABC Periódico Electrónico S.A. 28/04/2010

La corriente transporta aguas muy densas y ricas en oxígeno que se hunden cerca de la Antártida a grandes profundidades y se dirigen hacia el lejano norte", explica Steve Rintoul, uno de los autores del estudio. "De hecho, sin esta aportación de agua antártica, las capas más profundas del océano tendrían muy poco oxígeno".

El papel y la influencia de las corrientes oceánicas en el clima son bien conocidas. En efecto, se encargan de almacenar y transportar una enorme cantidad de calor y dióxido de carbono, que de esta forma no se libera a la atmósfera y frena el proceso de calentamiento global. "La profunda corriente de la meseta submarina de Kerguelen forma parte de un sistema global de corrientes oceánicas que resultan determinantes a la hora de conocer cuánto calor y carbono puede almacenar el océano", añade el investigador.

Otras expediciones habían detectado antes evidencias de este complejo sistema de corrientes, pero ninguna de ellas había sido capaz de determinar la cantidad de agua que transportaban. El equipo australiano-japonés utilizó para sus experimentos distintos medidores de corriente anclados al fondo oceánico, a profundidades superiores a los 4.500 metros. Durante un periodo de dos años, los detectores enganchados al fondo flotaron a una profundidad de cerca de tres mil metros, midiendo sistemáticamente la velocidad de la corriente, su temperatura y salinidad.

DESDE LA ANTÁRTIDA

"Las mediciones continuas nos permitieron, por primera vez, determinar cuánta agua estaba transportando hacia el norte esta profunda corriente", afirma Rintoul. Y resulta que lleva más de doce millones de metros cúbicos por segundo de agua procedente de la Antártida, a menos de cero grados de temperatura y sin llegar a congelarse, ya que está mezclada con sales y minerales. "Fue una auténtica sorpresa comprobar lo fuerte que es esta corriente", dice el investigador. "Con una velocidad media durante dos años de 20 cm por segundo, se trata de la corriente más fuerte jamás medida a profundidades de tres km bajo la superficie marina".

Para Rintoul, "Disponer de un mapa de estos sistemas de corrientes profundas es un paso muy importante hacia la comprensión de la red global de corrientes que influye sobre el clima, tanto presente como futuro. Y nuestros resultados muestran que las corrientes de la Meseta Kerguelen realizan una gran contribución a esta circulación oceánica global".

Autor: José Manuel Nieves

martes, 13 de abril de 2010

El impacto de la actividad humana sobre la desertificación

El Análisis de Ciclo de Vida (ACV) es una metodología científica que analiza de manera objetiva los impactos ambientales de una actividad o proceso abarcando todo su ciclo, esto es, desde la extracción de las materias primas hasta la gestión de los residuos generados al final de su vida útil.

Montserrat Núñez
Instituto de Investigación y Tecnologías Agroalimentarias
IRTA

En ACV, el impacto ambiental del sistema estudiado se expresa en categorías de impacto ambiental (calentamiento global, destrucción de la capa de ozono, acidificación, etc.). En los últimos años se han realizado importantes avances metodológicos en el ACV, por ejemplo, definiendo unas normas estándares de aplicación en las ISO 14040 y 14044.

Pese a la evolución del ACV, una de las principales debilidades metodológicas actuales es la ausencia de categorías que midan los impactos que las actividades humanas, como el cultivo de tierras o el pastoreo, ejercen sobre el uso del suelo.

El uso insostenible del suelo puede llevar a su degradación. Si esta degradación se produce en zonas áridas, semi-áridas y sub-húmedas secas[1] , como España, la degradación se denomina desertificación y los efectos pueden ser irreversibles, dando lugar a áreas totalmente improductivas. A pesar de la importancia de la desertificación a nivel mundial, que afecta especialmente a los países áridos en desarrollo, hasta la fecha no se habían desarrollado propuestas encaminadas a incluir este importante impacto ambiental en el ACV. A raíz de esta situación, un grupo de investigadores del IRTA de Cabrils (Barcelona), de la Universidad Autónoma de Barcelona y de la Universidad Tecnológica Nacional de Mendoza (Argentina) han realizado una propuesta metodológica con el fin de que el ACV cuente con una categoría de impacto ambiental que mida el potencial de desertificación de cualquier actividad humana sobre el territorio. La propuesta ha sido publicada recientemente en una revista científica de ámbito internacional.

Para poder calcular el impacto de desertificación que tiene una actividad humana en una región concreta, la metodología precisa información de cuatro importantes indicadores biofísicos de desertificación: aridez, erosión, sobreexplotación de acuíferos y riesgo de incendios. Estos indicadores abarcan los principales factores que causan desertificación.

Una vez medido el impacto de desertificación de la actividad, éste se pone en relación con la calidad del suelo que se está degradando, ya que el efecto puede ser muy distinto dependiendo del estado de degradación del suelo sobre el que se actúa. De este modo, mediante el uso de sistemas de información geográfica (GIS, en sus siglas en inglés), se clasificaron 15 áreas naturales según su riesgo de desertificación. Según los resultados obtenidos, el 38% de la superficie de la Tierra, correspondiente a la superficie de ocho regiones naturales, tienen un clima árido y por tanto pueden sufrir desertificación. En la Figura 1 se muestra un mapa de estas regiones con riesgo de desertificación, que son: desierto tropical o subtropical, estepa tropical o subtropical, Mediterránea, sabana, desierto templado, estepa templada, praderas y zonas marinas, ordenadas de mayor a menor riesgo.

El método permite evaluar satisfactoriamente el impacto de desertificación de una actividad humana, comparar el impacto de una misma actividad en lugares distintos o entre actividades distintas que se desarrollen en el mismo lugar. La metodología publicada se está poniendo actualmente en práctica en varios casos de estudio en España y Argentina, cuyos resultados serán publicados una vez finalizada la investigación.



Cuestiones:

1.- Investiga qué es ISO 14040 y 14044.
2.- ¿Qué es desertificación?
3.- Cita dos actividades humanas que lleven a desertificación.
4.- ¿En qué se basa el ACV para determinar el poder de desertificación de una actividad humana?
5.- Investiga qué es un SIG, qué información nos da y cita algunos ejemplos

lunes, 12 de abril de 2010

Evolución humana

Un grupo de científicos cree haber encontrado la piedra rosetta de la evolución humana. Se trata una nueva especie de homínido hallado en Suráfrica cuya anatomía, mitad mono y mitad hombre, le convierte en el mejor candidato a ser el precursor de los primeros humanos.

FUENTE | Público 09/04/2010

Vivió hace unos dos millones de años en un momento muy desconocido de la evolución en el que se piensa que algún miembro del género Australopithecus engendró el género humano, del que el Homo sapiens es el único superviviente actual.

La nueva especie, Australopithecus sediba, se ha descrito basada en dos individuos, un joven y una mujer adulta, cuyos restos quedaron encerrados en un ataúd de rocas donde se han conservado hasta la actualidad. Yacían en la cueva de Malapa, cerca de la Cuna de la Humanidad, una región a 50 kilómetros de Johannesburgo donde se han encontrado cientos de fósiles claves para dibujar los orígenes del hombre.

"El sediba es una piedra rosetta para definir qué es el género humano", dijo el paleoantropólogo Lee Berger, de la Universidad de Witwatersrand (Suráfrica), durante una videoconferencia para presentar sus hallazgos. Es el autor principal de la descripción de la nueva especie, que publica Science. Presenta una mezcla de rasgos primitivos y modernos nunca vista.

El ejemplar modelo ha sido el del joven, pues incluye su cráneo casi completo. Tenía unos 13 años y medía 1,3 metros. Su pelvis era casi como la de los primeros humanos e indica que era capaz de andar erguido. Su nariz se proyecta hacia adelante como la de los humanos, y sus piernas son más largas que las de los otros australopitecos que pasaban la mayor parte del tiempo en los árboles. Sin embargo, su cráneo es mucho menor que el de los humanos. Tiene unos brazos tan largos como los de un orangután y sus pies y manos son aún "primitivos", explicó Berger. Esta coctelera hace del sediba un ejemplar único para explicar quiénes fueron los australopitecos que bajaron de los árboles para siempre.

Hace entre tres y dos millones de años, Suráfrica era un hervidero de homínidos que incluía ejemplares de rasgos agigantados como los Paranthropus, otros más avanzados, entre los que estarían el Australopithecus africanus y el sediba, y los Homo habilis, primeros miembros del género humano, explica Antonio Rosas, investigador del CSIC. "Los bosques tropicales comenzaban a dejar paso a las sabanas y aparecía su característica fauna tal como la conocemos hoy", añade.

Los fósiles fueron hallados entre restos de antílopes y tigres de dientes de sable. Los responsables de la excavación creen que el joven sediba y su acompañante adulta cayeron en una "trampa mortal". Era una grieta del terreno que daba a un foso desde el que fueron luego arrastrados por corrientes de agua junto a los otros animales a un depósito más profundo.

Los expertos comenzaron a desenterrar los primeros fósiles en 2008, pero el yacimiento seguirá dando frutos. Ya hay al menos otros dos ejemplares que se están desenterrando en estos momentos, anunció Berger. "Pronto seremos capaces de ofrecer una reconstrucción detallada de cómo eran el rostro, el cuerpo y el estilo de vida de esta especie", dijo Berger.

ANCESTRO DEL ERECTUS

Los responsables del hallazgo creen que el sediba es descendiente del A. africanus, que vivió en el continente hasta hace unos 2,9 millones de años. Sus rasgos humanos indican que puede ser el ancestro directo del Homo habilis, primer miembro del género Homo, o incluso del Homo erectus, que salió de África hacia Asia hace 1,8 millones de años.

"El erectus es aceptado por todos los expertos como la primera especie genuinamente humana", explica Carles Lalueza, paleoantropólogo de la Universidad Pompeu Fabra de Barcelona. "Lo más importante de este estudio es que presenta el mejor candidato hasta la fecha para enlazar a australopitecos y humanos", añade.

Hay una tercera hipótesis. El sediba pudo ser una rama evolutiva independiente que "imitaba" a los primeros humanos, pero que no los originó. Los expertos apuntan que el trabajo dará que hablar durante meses y "desplazará el centro de estudio de la disciplina hacia los australopitecos", explica Rosas. "Se trata de uno de los capítulos más oscuros de la evolución", añade.

Algunos medios se han apresurado a decir que el sediba es el eslabón perdido, algo que los propios autores han negado rotundamente. "No me gusta aplicar el término porque es algo de la época victoriana y la evolución no es una cadena, sino un árbol", señaló Berger. Rosas elabora: "Cada especie era como un ensayo que respondía al cambio ambiental con un determinado modo de locomoción, dentición y tamaño cerebral". "Como salido de una caja negra, alguno de esos ensayos consolidó el género humano en la forma del Homo erectus", concluye.

Autor: Nuño Domínguez

sábado, 10 de abril de 2010

Declaración de Río de Janeiro sobre medio ambiente y desarrollo

REPORT OF THE UNITED NATIONS CONFERENCE ON
ENVIRONMENT AND DEVELOPMENT*

(Rio de Janeiro, 3-14 June 1992)


Annex I

RIO DECLARATION ON ENVIRONMENT AND DEVELOPMENT


The United Nations Conference on Environment and Development,

Having met at Rio de Janeiro from 3 to 14 June 1992,

Reaffirming the Declaration of the United Nations Conference on the Human
Environment, adopted at Stockholm on 16 June 1972, a/ and seeking to build upon
it,

With the goal of establishing a new and equitable global partnership
through the creation of new levels of cooperation among States, key sectors of
societies and people,

Working towards international agreements which respect the interests of
all and protect the integrity of the global environmental and developmental
system,

Recognizing the integral and interdependent nature of the Earth, our
home,

Proclaims that:

Principle 1

Human beings are at the centre of concerns for sustainable development.
They are entitled to a healthy and productive life in harmony with nature.


Principle 2

States have, in accordance with the Charter of the United Nations and the
principles of international law, the sovereign right to exploit their own
resources pursuant to their own environmental and developmental policies, and
the responsibility to ensure that activities within their jurisdiction or
control do not cause damage to the environment of other States or of areas
beyond the limits of national jurisdiction.


Principle 3

The right to development must be fulfilled so as to equitably meet
developmental and environmental needs of present and future generations.

Principle 4

In order to achieve sustainable development, environmental protection
shall constitute an integral part of the development process and cannot be
considered in isolation from it.


Principle 5

All States and all people shall cooperate in the essential task of
eradicating poverty as an indispensable requirement for sustainable
development, in order to decrease the disparities in standards of living and
better meet the needs of the majority of the people of the world.


Principle 6

The special situation and needs of developing countries, particularly the
least developed and those most environmentally vulnerable, shall be given
special priority. International actions in the field of environment and
development should also address the interests and needs of all countries.


Principle 7

States shall cooperate in a spirit of global partnership to conserve,
protect and restore the health and integrity of the Earth's ecosystem. In view
of the different contributions to global environmental degradation, States have
common but differentiated responsibilities. The developed countries
acknowledge the responsibility that they bear in the international pursuit of
sustainable development in view of the pressures their societies place on the
global environment and of the technologies and financial resources they
command.


Principle 8

To achieve sustainable development and a higher quality of life for all
people, States should reduce and eliminate unsustainable patterns of production
and consumption and promote appropriate demographic policies.


Principle 9

States should cooperate to strengthen endogenous capacity-building for
sustainable development by improving scientific understanding through exchanges
of scientific and technological knowledge, and by enhancing the development,
adaptation, diffusion and transfer of technologies, including new and
innovative technologies.


Principle 10

Environmental issues are best handled with the participation of all
concerned citizens, at the relevant level. At the national level, each
individual shall have appropriate access to information concerning the
environment that is held by public authorities, including information on
hazardous materials and activities in their communities, and the opportunity
to participate in decision-making processes. States shall facilitate and
encourage public awareness and participation by making information widely
available. Effective access to judicial and administrative proceedings,
including redress and remedy, shall be provided.


Principle 11

States shall enact effective environmental legislation. Environmental
standards, management objectives and priorities should reflect the
environmental and developmental context to which they apply. Standards applied
by some countries may be inappropriate and of unwarranted economic and social
cost to other countries, in particular developing countries.


Principle 12

States should cooperate to promote a supportive and open international
economic system that would lead to economic growth and sustainable development
in all countries, to better address the problems of environmental degradation.
Trade policy measures for environmental purposes should not constitute a means
of arbitrary or unjustifiable discrimination or a disguised restriction on
international trade. Unilateral actions to deal with environmental challenges
outside the jurisdiction of the importing country should be avoided.
Environmental measures addressing transboundary or global environmental
problems should, as far as possible, be based on an international consensus.


Principle 13

States shall develop national law regarding liability and compensation
for the victims of pollution and other environmental damage. States shall also
cooperate in an expeditious and more determined manner to develop further
international law regarding liability and compensation for adverse effects of
environmental damage caused by activities within their jurisdiction or control
to areas beyond their jurisdiction.


Principle 14

States should effectively cooperate to discourage or prevent the
relocation and transfer to other States of any activities and substances that
cause severe environmental degradation or are found to be harmful to human
health.


Principle 15

In order to protect the environment, the precautionary approach shall be
widely applied by States according to their capabilities. Where there are
threats of serious or irreversible damage, lack of full scientific certainty
shall not be used as a reason for postponing cost-effective measures to prevent
environmental degradation.


Principle 16

National authorities should endeavour to promote the internalization of
environmental costs and the use of economic instruments, taking into account
the approach that the polluter should, in principle, bear the cost of
pollution, with due regard to the public interest and without distorting
international trade and investment.


Principle 17

Environmental impact assessment, as a national instrument, shall be
undertaken for proposed activities that are likely to have a significant
adverse impact on the environment and are subject to a decision of a competent
national authority.


Principle 18

States shall immediately notify other States of any natural disasters or
other emergencies that are likely to produce sudden harmful effects on the
environment of those States. Every effort shall be made by the international
community to help States so afflicted.

Principle 19

States shall provide prior and timely notification and relevant
information to potentially affected States on activities that may have a
significant adverse transboundary environmental effect and shall consult with
those States at an early stage and in good faith.


Principle 20

Women have a vital role in environmental management and development.
Their full participation is therefore essential to achieve sustainable
development.


Principle 21

The creativity, ideals and courage of the youth of the world should be
mobilized to forge a global partnership in order to achieve sustainable
development and ensure a better future for all.


Principle 22

Indigenous people and their communities and other local communities have
a vital role in environmental management and development because of their
knowledge and traditional practices. States should recognize and duly support
their identity, culture and interests and enable their effective participation
in the achievement of sustainable development.


Principle 23

The environment and natural resources of people under oppression,
domination and occupation shall be protected.


Principle 24

Warfare is inherently destructive of sustainable development. States
shall therefore respect international law providing protection for the
environment in times of armed conflict and cooperate in its further
development, as necessary.


Principle 25

Peace, development and environmental protection are interdependent and
indivisible.


Principle 26

States shall resolve all their environmental disputes peacefully and by
appropriate means in accordance with the Charter of the United Nations.


Principle 27

States and people shall cooperate in good faith and in a spirit of
partnership in the fulfilment of the principles embodied in this Declaration
and in the further development of international law in the field of sustainable
development.


* * * * *
a/ Report of the United Nations Conference on the Human Environment,
Stockholm, 5-16 June 1972 (United Nations publication, Sales No. E.73.II.A.14
and corrigendum), chap. I.


--------------------------------------------------------------------------------

This document has been posted online by the United Nations Department of Economic and Social Affairs (DESA). Reproduction and dissemination of the document - in electronic and/or printed format - is encouraged, provided acknowledgement is made of the role of the United Nations in making it available.

Date last updated: 12 January, 2000 by DESA/DSD
Copyright © 1999 United Nations

lunes, 29 de marzo de 2010

Predecir el terremoto no, prevenirlo sí

Los recientes terremotos ocurridos en Haití (12 de enero, magnitud 7,0) y Chile (27 de febrero, magnitud 8,8) y sus trágicos efectos han dado lugar a las lógicas preguntas: ¿cómo se originan? ¿Es posible predecirlos? ¿Se puede hacer algo para evitarlos?

FUENTE El País Digital
17/03/2010

En este caso, además, la proximidad temporal de estos dos terremotos ha suscitado un nuevo interrogante: ¿tienen algo que ver entre sí ambos sucesos? Para responder a estas cuestiones, vamos a situarnos en el marco de la dinámica global de nuestro planeta, en lo que se entiende como tectónica de placas.

La litosfera terrestre, es decir, la parte rígida y fría que abarca la corteza y la zona más superficial del manto, está fragmentada en grandes placas que se mueven horizontalmente, con independencia entre ellas y con velocidades de pocos centímetros al año. El arrastre de estas placas es producido por la parte superior del manto (astenosfera) sobre la que flotan que, a su vez, se mueve por las corrientes convectivas del manto.

Las interacciones de unas placas con otras han originado a lo largo de millones de años los grandes rasgos geológicos (montañas, trincheras y dorsales oceánicas, fallas y pliegues) y son actualmente la causa de los volcanes y los terremotos. Estos últimos se originan cuando la tensión producida en el encuentro de las placas y acumulada con el paso de los años supera la resistencia de las rocas en una zona de fragilidad (falla) y se libera súbitamente. Cerca del 95% de la energía sísmica se produce en los bordes de placas, y un 5% en su interior. Este último es el caso de los terremotos que ocurren en el interior de China y que están originados por el empuje de la placa de la India sobre la placa asiática. El mismo fenómeno ha generado la cordillera del Himalaya.

La mayor parte de la energía sísmica que se origina en los bordes de las placas se debe a un proceso de subducción por el cual una placa se desliza por debajo de otra. La subducción más frecuente tiene lugar cuando una placa oceánica choca con una continental. Esto es lo que sucede en el océano Pacífico, frente a la costa de Chile, donde la placa de Nazca (oceánica) se introduce por debajo de la placa suramericana (continental) con una velocidad próxima a 67 milímetros / año, produciendo terremotos gigantescos como el ocurrido ahora o como el del 22 de mayo de 1960 que, con su magnitud de 9,5, constituye el mayor fenómeno sísmico registrado instrumentalmente. La formación de los Andes y el volcanismo del área suramericana son también resultados de este choque de placas.

Por su parte, en el terremoto de Haití las placas que actuaron fueron la del Caribe y la de Norteamérica. El encuentro de ambas no fue de subducción sino de desplazamiento horizontal relativo con una velocidad aproximada de 20 milímetros/año. La rotura se produjo a lo largo del sistema de fallas Enriquillo-Plantain Garden, a una profundidad de 13 kilómetros, notablemente más pequeña que en Chile donde el hipocentro se localizó a 35 kilómetros.

Se trata, por tanto, de dos terremotos originados no sólo muy lejos uno del otro sino en marcos tectónicos muy diferentes, lo que permite afirmar que no guardan relación entre sí. Su coincidencia en el tiempo ha sido producto de la casualidad. Como también lo han sido otros dos terremotos de magnitud 7,0 que han ocurrido en el mismo periodo (18 y 26 de febrero) al sur de Japón y en la frontera de Rusia y Corea y han pasado desapercibidos para los medios de comunicación, y el más reciente de Turquía (8 de marzo) que, a pesar de su moderada magnitud (5,9), ha causado más de 50 muertos.

El marco de la tectónica de placas permite aproximarnos con más perspectiva al tema de la predicción de los terremotos ya que nos proporciona una explicación general sobre su origen. Es fácil aceptar que, mientras las placas sigan moviéndose y las fallas continúen existiendo, seguirán produciéndose terremotos. Es decir, podemos afirmar que donde ha habido sacudidas sísmicas volverá a haberlas, y su magnitud será similar a la de los terremotos anteriores. Pero esto no es en absoluto una predicción si entendemos el término predicción como una indicación, con sus márgenes de incertidumbre, de dónde y cuándo ocurrirá un terremoto individual, de cuánto será su magnitud y de cuál es la probabilidad de acierto de esta predicción.

Esto, hoy por hoy, no es posible con el grado de desarrollo de la sismología. ¿Por qué? ¿Qué es lo que hace que la predicción no sea posible para el caso de terremotos individuales mientras que sí lo es para otros fenómenos naturales como los huracanes o las erupciones volcánicas?

La respuesta es compleja y afecta tanto a la física del fenómeno como a sus observaciones. Por una parte, la corteza terrestre es extremadamente heterogénea y la distribución real de los esfuerzos actuantes y de la energía acumulada no es suficientemente conocida. Además, no existe una comprensión clara del proceso en la fuente sísmica y no se sabe bien cómo se produce la rotura ni cómo una falla concreta interactúa con los sistemas próximos y éstos entre sí. A pesar de los grandes progresos en los últimos años, todavía hay más preguntas que respuestas.

La falta de comprensión del proceso explica que no exista un fenómeno observable que pueda ser considerado sin ambigüedades como un precursor sísmico. Ello marca una diferencia muy clara respecto a los otros fenómenos naturales. Por ejemplo, aunque cada volcán es diferente, se puede predecir una erupción analizando la evolución de distintos fenómenos como las emisiones de gases, las deformaciones del edificio volcánico o la sismicidad asociada. En el caso de los terremotos, ninguno de los fenómenos considerados como precursores (variación del nivel de gas radón en los pozos, cambios en la razón de velocidades de las ondas P y S, modificaciones en la sismicidad de la zona, etcétera) parece ser realmente fiable. Es necesario por tanto profundizar en la comprensión del proceso sísmico y buscar nuevos fenómenos que sean observables y guarden una relación directa y estadísticamente probada con los terremotos.

A las dificultades inherentes al proceso sísmico se añade el problema de la observación de los fenómenos relacionados con él. En la investigación sismológica no ha habido, hasta los últimos años, un sistema de observación similar al de los satélites en el caso de la meteorología. Esta situación ha mejorado notablemente en la última década con la interferometría desde satélite y la creación de redes de GPS que permiten estudiar la evolución espacial y temporal de los campos de esfuerzos. Pero todavía hay que avanzar mucho en la captación de datos de interés sismológico.

El reconocimiento de estas limitaciones no debe llevarnos al pesimismo. Actualmente la sismología puede estimar con una alta fiabilidad el peligro sísmico de cualquier zona del planeta. Al hacerlo, permite señalar, con tiempo suficiente, en qué lugares es más urgente tomar medidas de prevención que permitan disminuir las pérdidas humanas y materiales. El trabajo en esta línea incluye el diseño de escenarios sísmicos en los que se evalúen los posibles daños y se planifique la respuesta necesaria, la educación de la población, el desarrollo de normativas de construcción sismorresistente y la exigencia de su cumplimiento. En algunos casos es posible también establecer sistemas de alerta sísmica temprana, como el de la Ciudad de México, o proteger instalaciones y servicios críticos como conducciones de gas y electricidad o trenes de alta velocidad.

La eficacia de las medidas de prevención explica la diferencia en el número de víctimas mortales producidas por los terremotos de Haití y Chile. En el primer caso, la mala construcción generalizada, la ausencia de una conciencia colectiva de amenaza sísmica y la falta de una estructura social sólida han contribuido a multiplicar el número de víctimas hasta alcanzar la pavorosa cifra de 230.000 muertos. En el segundo, el número de víctimas mortales no supera las 500, muchas de ellas debido a un inexplicable fallo humano en un sistema de alerta de tsunamis bien diseñado. Está claro, por tanto, que se pueden tomar medidas para disminuir el impacto de los terremotos. Y que es urgente hacerlo.

Autor: Miguel Herraiz Sarachaga (director del Departamento de Geofísica y Meteorología Universidad Complutense)

Responde las siguientes preguntas:

1.- ¿Qué es magnitud de un terremoto?
2.- Dibuja de forma esquemática las capas implicadas en la tectónica de placas.
3.- ¿Cual es el origen de los terremoto?
4.- ¿Qué es la subducción? ¿Cual es la más frecuente? Pon un ejemplo y cita una cordillera que se forma como consecuencia.
5.- ¿Cual es la causa del terremoto de Haití?
6.- ¿Qué es predicción de un terremoto?
7.- ¿Cuales son los presursores sísmicos?
8.- Cita las medidas de prevención sísmica que se citan en el texto.

El mapa de terremotos de España no es fiable

España esconde decenas de fallas activas, capaces de provocar terremotos destructores, pero los organismos públicos responsables de prevenir sus efectos no tienen ni idea de dónde están. El Instituto Geográfico Nacional (IGN), encargado de elaborar el mapa de peligrosidad sísmica, dispone de datos obtenidos con sismógrafos en los últimos 100 años, en el mejor de los casos.

FUENTE Público 18/03/2010

También emplea el testimonio subjetivo de los historiadores en los últimos siglos, pero este registro es muy incompleto debido a la destrucción de bibliotecas en la época de la Reconquista.

Si una falla estalla de manera más o menos regular cada 1.000 años, queda fuera del conocimiento actual. Las fallas, según un ejemplo utilizado por los geólogos, son como una parada de autobús. Y el bus es el terremoto. Si los sismógrafos no han visto nunca el autobús, no pueden saber cada cuánto pasa. Para averiguarlo, es necesario agujerear la tierra para desvelar cuándo hubo terremotos en la prehistoria y en la historia antigua.

DOS MANCHAS ROJAS

La escasez de datos hace que en el mapa español de peligrosidad sísmica sólo aparezcan dos manchas rojas: alrededor de Torrevieja (Alicante), donde un terremoto de magnitud 6,6 tumbó la ciudad en 1829 y mató a unas 400 personas, y en torno a Arenas del Rey (Granada), donde un seísmo de magnitud 6,5 acabó con la vida de 800 ciudadanos y destruyó 4.400 edificios en 1884, según datos del IGN.

Las dos Castillas, Aragón, Madrid y la cornisa cantábrica aparecen fuera de peligro. "Si en época romana hubo un gran terremoto y su periodo de recurrencia es de 2.000 años, podría volver mañana y no lo sabemos", advierte el investigador Miguel Ángel Rodríguez Pascua, del Instituto Geológico y Minero de España (IGME).

En España, hay fallas activas alejadas de la costa meridional, donde chocan la Placa Euroasiática y la Africana, pero, si no han temblado en la historia reciente, se desconoce su existencia.Rodríguez Pascua, junto a otros 50 geólogos de una decena de universidades, ha comenzado a estudiar las entrañas de la tierra para elaborar una base de datos de fallas activas. Su intención es disponer de una versión preliminar de este mapa de terremotos prehistóricos a finales de 2010. Ya han encontrado fallas desconocidas en la cordillera Bética, en las costero catalanas (cerca de Olot) y en zonas más tranquilas históricamente, como el límite de Murcia y Albacete. El 27 de octubre se reunirán todos, por primera vez, en Sigüenza (Guadalajara), para coordinar sus trabajos.

TRABAJOS EN SECRETO

Los investigadores están cavando zanjas en puntos de España cuya apariencia sugiere que hubo terremotos en el pasado. El estudio de los sedimentos y del escalón creado por el temblor, la llamada paleosismología, les permite saber cuándo ocurrió el terremoto y qué magnitud tuvo, aunque sucediera hace decenas de miles de años. El Servicio Geológico de Estados Unidos comenzó estos trabajos en la década de 1970 y sus mapas de peligrosidad sísmica ya incluyen los datos de las fallas que tiemblan tras miles de años en silencio. España está empezando ahora.

Como es habitual en la ciencia española, no hay dinero. Los geólogos que trabajan en este campo se lamentan de que el Ministerio de Ciencia e Innovación apenas financia proyectos de paleosismología.
Hasta hace muy poco, cuenta, el único organismo que apoyaba estos trabajos en España era la Empresa Nacional de Residuos Radiactivos, que empezó hace dos décadas, casi en secreto, a horadar la tierra tras plantearse la construcción de un cementerio nuclear subterráneo, con el fin de descartar terremoto.

DERROCHE DE DINERO

Martínez Díaz cree que la imprecisión del mapa de peligrosidad sísmica español "sale cara". Estos mapas sirven para elaborar la normativa de construcción sismorresistente, que obliga a los constructores a levantar los edificios con materiales resistentes a terremotos. Pero el mapa actual es tan conservador que las manchas rojas que indican alto riesgo son redondeadas. Si se estudiara la falla, serían lineales. "Se gasta mucho dinero en hormigón sismorresistente en zonas en las que no hace falta", explica Martínez-Díaz. Y en las fallas activas desconocidas, los edificios se erigen sin protección.El director de la Red Sísmica Nacional en el IGN, Emilio Carreño, reconoce que su mapa está incompleto. "Es importantísimo que haya más dinero para estudiar fallas activas y paleosismología", plantea. El mapa de peligrosidad sísmica español no coincide con el francés, donde sí se han hecho estudios de este tipo. O las placas tectónicas conocen las fronteras políticas o el mapa español está mal hecho. "A medida que se vayan descubriendo fallas, las iremos incluyendo", promete.

Autor: Manuel Ansede

sábado, 27 de marzo de 2010

Los mares de la UE

Los océanos se encuentran cada vez más amenazados por varios factores, entre ellos la contaminación, la sobreexplotación y el cambio climático.

FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010

Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.

Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.

La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.

Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.

En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.

Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.

Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.

Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.

La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.

lunes, 1 de marzo de 2010

¿Qué es un tsunami?

Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.

FUENTE | El Mundo Digital 01/03/2010

El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.

Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).

La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.

Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.

Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).

Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.

Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.

domingo, 14 de febrero de 2010

Consecuencias estres hídrico en España

El estrés del agua quiere decir sequía y desertificación. Significa que en el futuro, a nuestra lista de preocupaciones, se añadirá la falta de agua. Pero también el exceso: inundaciones y crecidas de ríos. Es la expresión que utiliza la Agencia Europea de Medio Ambiente (EEA) para calificar lo que va a sufrir en las próximas décadas España y todos los países de la cuenca del Mediterráneo.
FUENTE El País 29/09/2008

La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.

VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR

- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas

Autor: Maruxa Ruiz del Árbol

lunes, 8 de febrero de 2010

Efectos del desarrollo urbano sobre el agua

El desarrollo urbano de los humanos se solapa con el hábitat de animales y plantas silvestres, y crea entornos que degradan los paisajes naturales. Entre las consecuencias destacan la proliferación de mosquitos, y la reducción de la cantidad de alimento para los peces. En relación a la gestión de las aguas urbanas, ecólogos estadounidenses han presentado, durante la Reunión Anual de la Sociedad Ecológica de Norteamérica, los resultados de sus investigaciones que pretenden equilibrar a una sociedad urbanizada con la protección de los ecosistemas acuáticos. Los ‘tejados verdes’ serían una solución.

Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.

Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.

“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.

No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.

A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.

Menos alimentos para los peces

Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.

En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.

Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.

“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.

Reducir la escorrentía de las tormentas en ciudades

Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.

Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.

Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.

Fuente: SINC

jueves, 4 de febrero de 2010

España aumenta emisiones de CO2 un 40% desde 1990 y disminuye un 7,7% respecto a 1990

Las emisiones de gases de efecto invernadero del año 2008 se sitúan en 405.048 kilotoneladas de CO2 equivalentes, lo que supone una reducción del 7,7% respecto a 2007 y se sitúan en un 39,8% por encima de las del año base del Protocolo de Kioto (1990).

FUENTE | Agencia EFE 04/02/2010

Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.

El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.

Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.

El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.

Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.

Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.

Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.

miércoles, 3 de febrero de 2010

Tratamiento de aguas residuales mediante reactores biológicos de membranas

Los reactores biológicos de membranas son una variante de los sistemas de fangos activos en los que la separación, biomasa/agua tratada, se efectúa por filtración en vez de por decantación. Estos sistemas son aplicables a efluentes procedentes de diferentes industrias como la láctea, textil, agroalimentaria, vitivinícola, conservera, cosmética, oleica, para tratar aguas del procesado de pasta y papel así como para tratar purines.

FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008

Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.

Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.

Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.

Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.

Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario. Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)

Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.

Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza

Antibióticos y genes de resistencia

La mayor parte de los antibióticos utilizados por la medicina para el tratamiento de las infecciones, y de los genes de resistencia a los propios antibióticos adquiridos por los patógenos que afectan al hombre, tienen su origen en el entorno natural. Allí se han desarrollado durante millones de años siguiendo las reglas darwinianas de la evolución. Pero la situación está cambiando sigilosamente desde hace medio siglo. Es el tiempo que lleva el hombre vertiendo antibióticos, en un volumen que aumenta de forma exponencial, al medio ambiente a través sobre todo de las aguas.

FUENTE | ABC Periódico Electrónico S.A. 20/07/2008

El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:

PATÓGENOS RESISTENTES

Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».

El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».

La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.

«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».

Autor: S. Basco

La crisis de los humedales españoles

FUENTE | El Mundo Digital 02/02/2010

Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.

"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.

España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.

La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.

En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.

La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.

En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.

Autor: Miguel G. Corral

Medicamentos y/o metabolitos en el agua de los ríos de la Comunidad de Madrid

Yolanda Valcárcel Rivera
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos


En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.

Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.

Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).

España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.

Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.

En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).


Mapa 1. Distribución de los puntos de muestreo

Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.

Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).

Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).


Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico

En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.

A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.

El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.

Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.

Cuestiones:

1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?

martes, 19 de enero de 2010

Riesgo volcánico en Gran Canaria

El noreste de Gran Canaria, una de las zonas más poblada de la isla, es precisamente el área que más probabilidades tiene de que se produzca una erupción volcánica. La Universidad de las Palmas de Gran Canaria acaba de presentar el primer mapa de peligrosidad volcánica de la isla, que describe escenarios de riesgo y que ha sido elaborado por investigadores españoles y franceses.

FUENTE | El Mundo Digital 19/01/2010

Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".

Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.

HISTORIA VOLCÁNICA DE LA ISLA

Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.

De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.

La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).

La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.

lunes, 18 de enero de 2010

Asturias era el auténtico centro del mundo hace 305 millones de años

El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron lugar a los depósitos de carbón de la región y era el centro del «supercontinente Pangea» -que configuraba la estructura terrestre- hace 305 millones de años.

FUENTE | Agencia EFE 15/01/2010

Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.

Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.

EL ORIGEN DEL CARBÓN

La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.

En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.

El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.

La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.

Terremoto en Haití originado por una falla que estudian investigadores españoles

Un equipo científico liderado por la Universidad Complutense (UCM) y especializado en la geología del noreste del Caribe, estudia la tectónica de la Falla de Enriquillo, cuyo movimiento acaba de producir un terremoto de magnitud 7 en Haití.

FUENTE | UCM - mi+d 18/01/2010

Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.

El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".

La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".

Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.

Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.


Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense

jueves, 14 de enero de 2010

El genoma de la soja puede revolucionar los cultivos y el biodiésel

Un equipo multidisciplinar de científicos ha conseguido descifrar el genoma de la soja, uno de los principales alimentos del Tercer Mundo y una de las fuentes mundiales más importantes de proteína y aceite. La investigación, que aparece publicada en la revista Nature, resulta especialmente destacable, ya que permitirá buscar fórmulas para hacer plantaciones más resistentes a las plagas y las sequías y dar un impulso a los cultivos de biodiésel.

FUENTE | ABC Periódico Electrónico S.A. 14/01/2010

«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».

46.430 GENES

La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.

Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.

En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.

El primer animal que «funciona» como una planta

La capacidad de realizar la fotosíntesis estaba hasta ahora reservada a las plantas y las algas, pero los científicos han encontrado el primer animal que la practica y «funciona» como si fuera un vegetal.

FUENTE | ABC Periódico Electrónico S.A. 13/01/2010

Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.

La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.

La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.

Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.

FELIZ 2010 A TOD@S

domingo, 20 de diciembre de 2009

Tabaco, sol y mutaciones

Las huellas del tabaco y de la luz ultravioleta, en forma de miles de mutaciones, se han encontrado claramente en los primeros genomas completos del cáncer de pulmón y del cáncer de piel, respectivamente, que se acaban de presentar. El número de mutaciones encontradas en el cáncer de pulmón indica que el fumador adquiere una mutación cada 15 cigarrillos fumados, aproximadamente.

FUENTE | El País Digital 17/12/2009

Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.

En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.

"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".

"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".

La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".

"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.

Autor: Malen Ruiz de Elvira