Los océanos se encuentran cada vez más amenazados por varios factores, entre ellos la contaminación, la sobreexplotación y el cambio climático.
FUENTE CORDIS: Servicio de Información en I+D Comunitario 22/03/2010
Dado que las actividades oceánicas tienen lugar bajo el agua, tendemos a olvidarnos de que la degradación oceánica es una realidad que está en marcha desde hace ya muchas décadas. Los océanos cubren más de la mitad del territorio total de los Estados miembros de la UE, pero en dicho territorio sólo cuenta con protección un porcentaje de las aguas marinas pequeño y muy inferior al de la cantidad de tierra protegida.
Los océanos son esenciales para la vida humana; sus profundidades rebosan de especies marinas, de las que miles siguen siendo desconocidas para el ser humano. Los océanos funcionan en un complejo equilibrio con la atmósfera, el suelo y el cielo, regulando el clima, produciendo oxígeno y eliminando carbono de la atmósfera, lo que genera condiciones favorables para la vida en la Tierra. Sin embargo, el agravamiento de la contaminación y del cambio climático provoca la acidificación de los océanos, lo cual induce cambios en la distribución geográfica de las especies y, en última instancia, acaba desequilibrando sus ecosistemas.
La AEMA (Agencia Europea del Medio Ambiente)especifica una serie de factores que ponen en peligro actualmente los océanos, entre ellos la sobreexplotación de las poblaciones pesqueras y la introducción de especies invasoras. La mayor parte de estos factores tienen su origen en actividades humanas.
Para alertar de la existencia de esta amenaza, la AEMA ha publicado el cuarto de sus «10 mensajes para el 2010». Cada uno de los mensajes versa sobre un aspecto de los ecosistemas y la biodiversidad de la UE. Este cuarto mensaje, recién publicado en la página web de AEMA, detalla las consecuencias de las actividades humanas en los océanos y explica el motivo de que se deba intervenir con carácter urgente.
En él se subraya la escasez de datos integrados que permitan la conservación de los ecosistemas marinos, lo que hace que las variables desconocidas que influyen en la conservación de los ambientes marinos sean mucho más numerosas que las referidas a la conservación del medio terrestre.
Actualmente la biodiversidad marina se encuentra protegida por el establecimiento de reservas de conformidad con las Directivas sobre hábitats y sobre aves de Natura 2000, una red de ámbito europeo dedicada a la protección del medio ambiente, pero ha habido tanto dificultades a la hora de identificar los lugares más adecuados como retrasos en la evaluación de su estado.
Existen pruebas de que el establecimiento de zonas marinas protegidas permite a los ecosistemas marinos recuperarse de los daños sufridos. El grado de recuperación viene determinado por la extensión de dicha zona y por su antigüedad.
Los gobiernos de la UE coinciden en que un enfoque basado en los ecosistemas es la mejor forma de acometer toda intervención relacionada con el medio ambiente marino. Éste será el enfoque que se aplicará para alcanzar las metas de la estrategia intersectorial integrada para el aprovechamiento sostenible de medio ambiente marino, la cual viene siendo aplicada en virtud de la Directiva marco sobre la estrategia marina y de la política marítima integrada de la UE.
La AEMA recomienda también que las sinergias entre el marco de la política marina y marítima y las políticas marinas ya establecidas contribuyan a preservar la biodiversidad marina en la UE.
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
sábado, 27 de marzo de 2010
lunes, 1 de marzo de 2010
¿Qué es un tsunami?
Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
FUENTE | El Mundo Digital 01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).
La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
domingo, 14 de febrero de 2010
Consecuencias estres hídrico en España
El estrés del agua quiere decir sequía y desertificación. Significa que en el futuro, a nuestra lista de preocupaciones, se añadirá la falta de agua. Pero también el exceso: inundaciones y crecidas de ríos. Es la expresión que utiliza la Agencia Europea de Medio Ambiente (EEA) para calificar lo que va a sufrir en las próximas décadas España y todos los países de la cuenca del Mediterráneo.
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
FUENTE El País 29/09/2008
La Unión Europea ha publicado un informe llamado Impactos del cambio climático en Europa que especifica las convulsiones que vivirá el viejo continente por el calentamiento global. El estudio analiza la cantidad del agua que el hombre ha necesitado entre 1975 y 2006 y, por otro lado, muestra la evidencia de que las lluvias serán muy intermitentes en Europa. Lloverá poco y se necesitará más agua. "En el mismo período ha habido un significativo incremento en la demanda de agua en España (entre el 50% y el 70%) y en las áreas mediterráneas", asevera el informe. Y las predicciones de futuro van en línea ascendente. "La demanda crecerá cada vez más, especialmente en el sur donde la necesidad de agua para la agricultura es mayor. Con ella, se desarrollará una competición por este bien entre los distintos sectores (turismo, agricultura, energía) y usos".En promedio, la exigencia de agua en todos los países de Europa ha crecido al rededor de 50 milímetros cúbicos por hectárea al año pero, en algunos casos como en el centro de España, Italia, Grecia, el Magreb, el sur de Francia y Alemania la cifra oscila entre 150 y 200 metros cúbicos por hectárea al año. Y, como se prevé que las lluvias, se reducirán se necesitará regar más. Por eso la falta de agua causará un impacto negativo tanto en términos económicos como en ecológicos. Además, en el Mediterráneo se ha observado un creciente déficit del agua en los últimos 32 años.Aunque el informe vaticina desertización para España, el estudio tampoco nos libra de los desbordamientos de los ríos. Habrá un incremento porque la alternancia entre períodos de sequía y precipitaciones torrenciales hace a España más propensa a estas inundaciones. Para 2080 pronostica que entre 2000 y 4000 personas se verán afectadas por las inundaciones en las zonas costeras por la subida del nivel del mar en Andalucía, Galicia, las Islas Baleares y Asturias. La región más afectada será el País Vasco: entre 4000 y 8000 personas podrán ser víctimas de la subida del mar. Países como Reino Unido, Sicilia o Grecia podrán ver afectada a gran parte de su población (entre 8000 y 50.000 personas). El planeta ya está experimentando una subida de las temperaturas de 0,8 grados centígrados por encima de los niveles preindustriales y el nivel del mar ha crecido 3,1 milímetros al año en los últimos 15 años.Para mitigar todos estos problemas el informe apuesta tanto por la reducción del CO2 como por la adaptación a las consecuencias del cambio que ya no se pueden remediar. "El 90% de todos los desastres que han sucedido en Europa desde 1980 están directa o indirectamente relacionados con el clima y representan el 95% de las pérdidas económicas causadas por catástrofes", señala el informe.Para evitar estas pérdidas se pone tres metas: la primera, una mayor vigilancia, monitorización y estudio de los cambios a nivel internacional; la segunda, estabilizar el clima para 2020 por debajo de los dos grados centígrados con respecto a los niveles pre industriales "para evitar consecuencias irreversibles en la sociedad y en los ecosistemas". Por último, hace hincapié en la adaptación.Afirma que uno de los grandes retos de España de todo el Mediterráneo en adaptación es la diversificación del turismo en otros sectores. El estudio asegura que la subida de la temperatura hará marcharse a los turistas más al norte, en busca del mismo clima que antes se gozaba en España. Por eso, para no perder dinero, será imprescindible invertir en otros sectores.
VENTAJAS PARA EL NORTE, CATÁSTROFES PARA EL SUR
- Región mediterránea
- Disminuirán las lluvias
- Descenderá el cauce de los ríos y aumentará al mismo tiempo el riesgo de incendios forestales
- Menos producción de cultivos
- Se incrementará la demanda de agua para la agricultura
- Aumentará el riesgo de desertificación
- Habrá menos energía hidroeléctrica
- Se producirán más muertes por olas de calor
- Mayor transmisión de enfermedades infecciosas
- Una parte de los turistas modificará sus hábitos y pasará el verano en otros lugares
- Se registrará una mayor pérdida de la biodiversidad
- Áreas de montaña
- Subirán las temperaturas
- Habrá menor masa glaciar
- Disminuirá la capa subterránea de hielo
- Más riesgo de desprendimientos de rocas
- Las plantas y animales cambiarán sus hábitat a las zonas más altas.
- Descenderá el turismo de nieve
- Mayor riesgo de erosión del suelo
- Aumentará la amenaza para las especies que están ya en peligro de extinción
- Europa central y del Este
- Más temperaturas extremas
- Menos precipitaciones en invierno
- Aumenta el peligro de desbordamientos de los ríos durante el invierno
- Subirá la temperatura del agua
- Se registrará una mayor inestabilidad en la producción de cultivos
- Incremento de los incendios forestales
- Norte de Europa
- Menos nieve y menos lagos y ríos cubiertos de hielo
- Se prevén más desbordamientos de los ríos en esta zona
- Las especies emigrarán aún más al Norte en busca del frío para el que están adaptadas
- Habrá más y mejores cosechas
- Mayor producción de energía hidroeléctrica
- Más afluencia de turistas
Autor: Maruxa Ruiz del Árbol
lunes, 8 de febrero de 2010
Efectos del desarrollo urbano sobre el agua
El desarrollo urbano de los humanos se solapa con el hábitat de animales y plantas silvestres, y crea entornos que degradan los paisajes naturales. Entre las consecuencias destacan la proliferación de mosquitos, y la reducción de la cantidad de alimento para los peces. En relación a la gestión de las aguas urbanas, ecólogos estadounidenses han presentado, durante la Reunión Anual de la Sociedad Ecológica de Norteamérica, los resultados de sus investigaciones que pretenden equilibrar a una sociedad urbanizada con la protección de los ecosistemas acuáticos. Los ‘tejados verdes’ serían una solución.
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
Las personas, los animales y las plantas tienen en común la necesidad de ecosistemas de agua dulce saludables y sostenibles. Sin embargo, el ser humano contamina los hábitats de animales y plantas con el desbordamiento de aguas residuales, que entran en las corrientes y lagos a través del agua de escorrentía. A pesar de ser perjudicial para la mayoría de los organismos, hay un grupo de insectos que prosperan en él: los mosquitos.
Un equipo de investigación, liderado por Luis Fernando Chaves, investigador en la Universidad de Emory (EE UU), descubrió mosquitos en abundancia en un arroyo contaminado por aguas residuales en Atlanta, pero no los había en un arroyo cercano que permanecía limpio. Según los científicos, los mosquitos eran más grandes en los arroyos con altos niveles de minerales orgánicos (en este caso, el nitrógeno y el fósforo) procedentes de plantas de tratamiento de aguas residuales. Los experimentos en laboratorio confirmaron el descubrimiento.
“En esta red alimenticia, los mosquitos se alimentan de microorganismos que necesitan nitrógeno y fósforo para crecer”, ha comentado Chaves. “Esto se traduce en un aporte de alimentos para los mosquitos”, ha añadido el investigador. Para el científico, cuando hay más materia orgánica, los microorganismos prosperan y las larvas de mosquitos comen “como reyes”.
No obstante, los insectos acuáticos, que se alimentan de larvas de mosquitos, pueden intoxicarse cuando hay desbordamientos de aguas residuales por el exceso de nitrógeno y fósforo. “La combinación del aumento de alimento y la posible disminución de los depredadores puede ser la clave de la proliferación de estos mosquitos”, ha asegurado Chaves.
A esto se añade el que los mosquitos más grandes, que tienen un ciclo de vida más largo, pueden convertirse en portadores de agentes patógenos que causan enfermedades a los humanos. “Las ciudades deberían separar las aguas residuales que se desbordan de las aguas de escorrentía para evitar la creación de un hábitat ideal para los mosquitos”, ha aconsejado Chaves.
Menos alimentos para los peces
Otro tema debatido en la Reunión Anual de la Sociedad Ecológica de Norteamérica es la fuente de alimentos de las orillas para el sustento de los peces lacustres. Tessa Francis, investigadora en la Administración Nacional Oceanográfica y Atmosférica (NOAA, en sus siglas en inglés), estudió la relación entre la urbanización de las orillas de un lago y la cantidad de insectos terrestres disponibles para alimento de los peces que viven en él. Para ello, analizó el contenido estomacal de peces durante un año en cuatro lagos de la región Pacífico Noroeste, estudió ejemplares de 28 lagos de esta región, y reunió los datos publicados sobre poblaciones de peces de los lagos de toda América del Norte.
En los lagos no urbanizados, los brotes de insectos suelen producirse en oleadas, en las que los insectos emergen en un corto período de tiempo, pero Francis y su equipo no encontraron signos de estos fenómenos en las zonas muy urbanizadas. Esta disparidad se manifestó en la disponibilidad de alimentos para los peces: en los cuatro lagos, los insectos terrestres constituían hasta el 100% de la dieta de los peces en los lagos no urbanizados, en comparación con el 2% como máximo de los lagos urbanizados, un patrón que también se observaba a escala regional y nacional.
Francis también mostró que la trucha en los lagos urbanizados recibía una ingesta diaria de energía un 50% menor. “La menor ingesta de energía puede ralentizar el crecimiento y poner en peligro la reproducción de los peces, dando lugar en última instancia a que la población disminuya”, ha explicado la investigadora. Pero incluso una cantidad mínima de vegetación en las orillas puede servir como hábitat a los insectos.
“Las orillas de nuestros lagos tienen que seguir tan intactas como sea posible, con una mezcla de árboles y arbustos”, ha añadido la científica. “Pero es posible que no se necesite un denso bosque nativo. Existen diseños similares que son compatibles tanto con el desarrollo urbanístico de las orillas de los lagos como con el mantenimiento de las cadenas tróficas del lago”, ha manifestado Francis.
Reducir la escorrentía de las tormentas en ciudades
Para compensar el calor, aumentar la biodiversidad de la ciudad, y disminuir la escorrentía producida por las tormentas, muchas ciudades estadounidenses están empezando a incorporar tejados verdes (greenroofs) en sus planes de ordenación. La escorrentía puede ser problemática en las ciudades donde se canaliza el agua de lluvia por las calles y aparcamientos directamente hacia los arroyos, llevando consigo los productos químicos y los desechos y aumentando el riesgo de inundaciones repentinas.
Sin embargo, instalar jardines en los tejados permite absorber parte de esta agua “como una esponja que se satura”, ha explicado Olyssa Starry, estudiante graduada en la Universidad de Maryland en Baltimore (EE UU). Starry ha estudiado un tejado verde situado en la azotea de un edificio de Baltimore, y lo ha comparado con el mismo edificio sin tejado verde para determinar en qué grado éste absorbe el agua de las tormentas frecuentes. Los resultados demostraron que el tejado verde retenía entre el 30 y el 75% del agua de lluvia, comparado con la cantidad insignificante que se retenía en el edificio sin tejado verde.
Aunque sus resultados son preliminares, las ciudades pueden obtener beneficios, al incluir en sus ordenanzas de construcción la colocación de jardines en las azoteas, ya que ciudades como Toronto y Berlín lo han hecho recientemente. A través de imágenes por satélite SIG, Starry estimó el número y la superficie de los edificios que podrían albergar tejados verdes dentro de la cuenca del área de Baltimore, y manifestó que “si todos estos tejados se ajardinan, la ciudad podría ahorrar a la cuenca más de 30 millones de litros de agua por año, o alrededor del 10% de su pérdida de agua anual.
Fuente: SINC
jueves, 4 de febrero de 2010
España aumenta emisiones de CO2 un 40% desde 1990 y disminuye un 7,7% respecto a 1990
Las emisiones de gases de efecto invernadero del año 2008 se sitúan en 405.048 kilotoneladas de CO2 equivalentes, lo que supone una reducción del 7,7% respecto a 2007 y se sitúan en un 39,8% por encima de las del año base del Protocolo de Kioto (1990).
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
FUENTE | Agencia EFE 04/02/2010
Así se refleja en el 'Inventario Nacional de Emisiones de Contaminantes Atmosféricos', correspondiente a la serie temporal 1990-2008, que la Secretaría de Estado de Cambio Climático del Ministerio de Medio Ambiente y Medio Rural y Marino ha remitido a Bruselas.
El descenso de las emisiones se ha producido en un entorno de crecimiento económico del PIB del 0,9% y se ha debido principalmente a una mejora de la intensidad energética y a un cambio en el 'mix' de producción de energía, ha informado el Ministerio de Medio Ambiente en un comunicado.
Ese cambio en el 'mix' energético supone un "claro" incremento de las renovables y una disminución del uso del carbón como consecuencia de los precios relativos de los combustibles fósiles y del precio de la tonelada de CO2 en los mercados internacionales.
El descenso de las emisiones se debe también al menor uso de combustibles en el sector transporte y en determinadas actividades industriales como la fabricación de cemento.
Además se han producido mejoras metodológicas en el cálculo de factores de emisión del sector transporte, motores estacionarios y uso de colas en el cálculo de emisiones, señala el comunicado.
Junto al Inventario, el Ministerio ha remitido a la Comisión Europea las Proyecciones de Emisiones con horizonte 2020 de los inventarios correspondientes a la serie 1990-2007.
Esas proyecciones, elaboradas considerando la más reciente actualización de las planificaciones sectoriales y del escenario macroeconómico asociado a las mismas, apuntan a que España se situaría en 34,45% por encima del año base en la media del quinquenio 2008-2012.
miércoles, 3 de febrero de 2010
Tratamiento de aguas residuales mediante reactores biológicos de membranas
Los reactores biológicos de membranas son una variante de los sistemas de fangos activos en los que la separación, biomasa/agua tratada, se efectúa por filtración en vez de por decantación. Estos sistemas son aplicables a efluentes procedentes de diferentes industrias como la láctea, textil, agroalimentaria, vitivinícola, conservera, cosmética, oleica, para tratar aguas del procesado de pasta y papel así como para tratar purines.
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)
Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
FUENTE Círculo de Innovación en Tecnologías Medioambientales y Energía mi+d (CITME-UAH) 10/07/2008
Sus aplicaciones son variadas: permiten tratar aguas residuales urbanas obteniéndose agua de alta calidad para reutilización; permiten mejorar la calidad de las instalaciones existentes al igual que mejorar su capacidad y son aplicables al tratamiento de aguas residuales de alta carga.
Entre las ventajas que presenta están la mayor capacidad de tratamiento de agua para el mismo tamaño de instalación; bajas necesidades de espacio, por lo que es muy fácil su implementación en procesos de fabricación ya existentes; menor cantidad de fango producido por metro cúbico de agua tratada; mayor calidad del agua depurada, siendo posible su utilización directa como agua de riego o para recarga de acuíferos; rápida depuración de aguas biodegradables, pudiendo incorporar la eliminación de nitrógeno y fósforo de las mismas de forma sencilla; son sistemas muy robustos que una vez optimizados pueden incorporarse al proceso productivo en muy poco tiempo y sin grandes necesidades de obra para su implantación; alta estabilidad del sistema durante su funcionamiento, siendo fácilmente automatizable el seguimiento del proceso y su control.
Las ventajas de los reactores biológicos de membrana para tratar aguas residuales urbanas son evidentes, pero es en efluentes industriales donde sus posibilidades se refuerzan pues a veces sería muy difícil alcanzar los valores de depuración requeridos sin estas tecnologías, de ahí su importancia.
Estos sistemas también presentan desventajas, entre ellas destaca su elevada inversión inicial; consumos energéticos altos si se compara con la tecnología convencional; mayores requerimientos en los trabajos de operación y mantenimiento; aumento del control y complejidad de operación y dependencia tecnológica del proveedor.
Los avances en las tecnologías de membranas en los últimos años han sido significativos (membranas de baja presión para agua salobre, membranas antifouling, desarrollo industrial de sistemas avanzados de pretratamiento, desarrollo de nuevos productos antiincrustantes más eficientes), pero todavía hay aspectos sobre los que trabajar para mejorarlas como: desarrollar membranas resistentes a oxidantes; optimizar los sistemas de membrana para pretratamiento; mejorar o desarrollar los sistemas de recuperación de energía, mayor tratamiento de los sistemas de tratamiento secundario y terciario.
Figura: Cartucho de membrana (Fuente. Rodríguez et al., 2006)Esta tecnología se expuso durante la jornada "Agua: ciencia, tecnología y empresa", organizada por la Fundación IMDEA Agua, la Fundación madri+d para el Conocimiento y la colaboración de CEIM Confederación Empresarial de Madrid-CEOE. El objetivo de esta Jornada era facilitar contactos entre el mundo empresarial y el académico, mejorando así las sinergias y ventajas competitivas que resulten de esa asociación, algo fundamental para aumentar la producción tecnológica en materia agua en nuestro país. La investigación de excelencia es un factor importante si se pretende dar solución a las demandas relacionadas con el agua, algo imposible de alcanzar sin la interacción entre la ciencia, la tecnología y la empresa.
Fuente: conferencias presentadas por Antonio Aznar de la Universidad Carlos III de Madrid y Domingo Zarzo de Valoriza Agua, en la jornada Agua: ciencia, tecnología y empresa celebrada en la Expo de Zaragoza
Antibióticos y genes de resistencia
La mayor parte de los antibióticos utilizados por la medicina para el tratamiento de las infecciones, y de los genes de resistencia a los propios antibióticos adquiridos por los patógenos que afectan al hombre, tienen su origen en el entorno natural. Allí se han desarrollado durante millones de años siguiendo las reglas darwinianas de la evolución. Pero la situación está cambiando sigilosamente desde hace medio siglo. Es el tiempo que lleva el hombre vertiendo antibióticos, en un volumen que aumenta de forma exponencial, al medio ambiente a través sobre todo de las aguas.
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
FUENTE | ABC Periódico Electrónico S.A. 20/07/2008
El investigador del Centro Nacional de Biotecnología (CSIC) José Luis Martínez en el artículo de fondo que acompaña a la portada de la revista «Science», dedicada a la contaminación por antibióticos,así lo expone:
PATÓGENOS RESISTENTES
Bajo el título «Antibióticos y genes de resistencia a los antibióticos en el entorno natural», Martínez argumenta que «la comunidad científica debe analizar si los cambios producidos por la acción humana en el medio ambiente pueden incrementar la población de bacterias resistentes a los antibióticos y, al mismo tiempo, facilitar que dichas bacterias transfieran esa resistencia a patógenos humanos».
El investigador explicó a ABC que los microorganismos «desarrollan resistencia por un doble mecanismo: por mutación según las reglas darwinianas, o por adquisición de un gen de resistencia».
La resistencia a los antibióticos se halla codificada en el ADN de los microorganismos, y las bacterias pueden intercambiar su ADN a través de plásmidos -fragmentos autorreplicantes de ADN capaces de pasar de una bacteria a otra-. Basta que «la forma en que actúan los genes de resistencia cambie a causa de los antibióticos presentes en el entorno, para que determinados patógenos dejen de ser controlables por esos mismos antibióticos», afirma Martínez.
«Los patógenos profesionales no están en el suelo, ni va a surgir una bacteria multirresistente en una charca. Esos patógenos surgen en los hospitales», asegura el investigador. «Pero es prioritario para la ciencia conocer los mecanismos que desarrollan esa resistencia -afirma-, con el fin de prevenir la acción de futuras bacterias resistentes».
Autor: S. Basco
La crisis de los humedales españoles
FUENTE | El Mundo Digital 02/02/2010
Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.
"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.
España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.
La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.
En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.
La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.
En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.
Autor: Miguel G. Corral
Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.
"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.
España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.
La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.
En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.
La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.
En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.
Autor: Miguel G. Corral
Medicamentos y/o metabolitos en el agua de los ríos de la Comunidad de Madrid
Yolanda Valcárcel Rivera
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
martes, 19 de enero de 2010
Riesgo volcánico en Gran Canaria
El noreste de Gran Canaria, una de las zonas más poblada de la isla, es precisamente el área que más probabilidades tiene de que se produzca una erupción volcánica. La Universidad de las Palmas de Gran Canaria acaba de presentar el primer mapa de peligrosidad volcánica de la isla, que describe escenarios de riesgo y que ha sido elaborado por investigadores españoles y franceses.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
lunes, 18 de enero de 2010
Asturias era el auténtico centro del mundo hace 305 millones de años
El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron lugar a los depósitos de carbón de la región y era el centro del «supercontinente Pangea» -que configuraba la estructura terrestre- hace 305 millones de años.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
Terremoto en Haití originado por una falla que estudian investigadores españoles
Un equipo científico liderado por la Universidad Complutense (UCM) y especializado en la geología del noreste del Caribe, estudia la tectónica de la Falla de Enriquillo, cuyo movimiento acaba de producir un terremoto de magnitud 7 en Haití.
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
jueves, 14 de enero de 2010
El genoma de la soja puede revolucionar los cultivos y el biodiésel
Un equipo multidisciplinar de científicos ha conseguido descifrar el genoma de la soja, uno de los principales alimentos del Tercer Mundo y una de las fuentes mundiales más importantes de proteína y aceite. La investigación, que aparece publicada en la revista Nature, resulta especialmente destacable, ya que permitirá buscar fórmulas para hacer plantaciones más resistentes a las plagas y las sequías y dar un impulso a los cultivos de biodiésel.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
El primer animal que «funciona» como una planta
La capacidad de realizar la fotosíntesis estaba hasta ahora reservada a las plantas y las algas, pero los científicos han encontrado el primer animal que la practica y «funciona» como si fuera un vegetal.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
domingo, 20 de diciembre de 2009
Tabaco, sol y mutaciones
Las huellas del tabaco y de la luz ultravioleta, en forma de miles de mutaciones, se han encontrado claramente en los primeros genomas completos del cáncer de pulmón y del cáncer de piel, respectivamente, que se acaban de presentar. El número de mutaciones encontradas en el cáncer de pulmón indica que el fumador adquiere una mutación cada 15 cigarrillos fumados, aproximadamente.
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
viernes, 11 de diciembre de 2009
Los monos hablan un lenguaje ancestral
Los gritos de los monos Campbell (Cercopithecus campbelli campbelli) en los bosques de Costa de Marfil esconden la forma de lenguaje vocal no humano más compleja que se conoce, según un estudio publicado en PNAS
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
jueves, 10 de diciembre de 2009
El Mediterráneo se llenó en menos de dos años

Hace 5,3 millones de años se produjo la mayor inundación conocida nunca en la Tierra sobre un Mediterráneo desecado. La descarga de agua fue 1.000 veces superior a la del río Amazonas, con una subida de 10 m diarios del nivel del mar.
FUENTE CSIC 10/12/2009
El mar Mediterráneo llegó casi a secarse hace unos seis millones de años, al quedar aislado de los océanos durante un largo periodo de tiempo, debido el actual levantamiento tectónico del Estrecho de Gibraltar. Cuando las aguas del Atlántico encontraron de nuevo un camino a través del Estrecho, llenaron el Mediterráneo con la mayor y más brusca inundación que ha conocido nunca la Tierra. La cuenca mediterránea, entonces un enorme desierto a 1.500 metros de profundidad, tardó en llenarse de unos meses a dos años, según explican investigadores del Consejo Superior de Investigaciones Científicas (CSIC). Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse de 10 a 10.000 años.
Reproducción de cómo se produjo la mayor inundación conocida en la Tierra que llenó el mar Mediterráneo hace 5,3 millones de años./ Ilustración: Roger Pibernat
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
Uno de los responsables de la investigación, el investigador del CSIC Daniel García- Castellanos, que trabaja en el Instituto de Ciencias de la Tierra Jaume Almera, en Barcelona, detalla: "La inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de 'megarrápido' por donde el agua circuló a cientos de kilómetros por hora. Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el Golfo de Cádiz y el Mar de Alborán".
Cuando hace unos años los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del Estrecho de Gibraltar se encontraron con este problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos en los años 90 pensaron que esta norme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo.
"Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta García-Castellanos.
GARGANTAS Y SAL
"Durante el periodo de desecación [la llamada crisis salina del Mesiniense, debido a la precipitación masiva de sal en todo el Mediterráneo con acumulaciones de varios kilómetros en algunos lugares de sus zonas más profundas], los principales ríos que desembocaban en el mar estudiado excavaron profundas e impresionantes gargantas en los márgenes del fondo marino, que quedaron expuestos. Los ríos desembocaban entonces en lagos salinos situados en las partes más profundas de la cuenca", explica el investigador del CSIC.
No obstante, a partir del estudio de los perfiles sísmicos realizados en el Mar de Alborán [secciones verticales a través de los sedimentos] y de los cálculos basados en modelos de erosión de los ríos de montaña, los investigadores demostraron que la erosión no fue producida por un río durante la desecación del Mediterráneo, sino por un enorme flujo de agua procedente del Atlántico.
García-Castellanos avanza las implicaciones que pueda tener el estudio: "Un cambio tan enorme y abrupto en el paisaje terrestre como el que hemos deducido pudo tener un impacto notable en el clima de aquel periodo, algo que no se ha estudiado aún con suficiente detalle y a lo que podría ayudar este trabajo. La técnica usada, además, nos puede servir también para estudiar otras inundaciones de las que se desconocen su intensidad o duración".
--------------------------------------------------------------------------------
García-Castellanos, D., F. Estrada, I. Jiménez-Munt, C. Gorini, M. Fernàndez, J. Vergés, R. De Vicente. Catastrophic flood of the Mediterranean after the Messinian Crisis. Nature, 10 de diciembre de 2009. doi:10.1038/nature08555
domingo, 6 de diciembre de 2009
lunes, 30 de noviembre de 2009
Los virus pueden usurpar la maquinaria de las bacterias para replicarse

Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente.
FUENTE | CSIC - mi+d 30/11/2009
Localización subcelular de la maquinaria replicativa del virus pi29 (rojo) y de la proteína MreB del citoesqueleto bacteriano (verde). CSIC
Un equipo, dirigido por la investigadora del Consejo Superior de Investigaciones Científicas (CSIC) Margarita Salas, ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente. Esta capacidad sólo era conocida, hasta el momento, en células eucariotas, la base de los organismos complejos como el ser humano. El hallazgo, publicado en Proceedings de la Academia Nacional de Ciencias de EE.UU. (PNAS), permitiría crear estirpes bacterianas modificadas genéticamente para minimizar sus posibilidades de infección por virus. Este descubrimiento podría evitar pérdidas económicas en industrias que emplean bacterias en sus procesos de producción, como la de los detergentes o fertilizantes.
Además de Salas, el trabajo ha contado con la participación de los investigadores del CSIC Daniel Muñoz Espín y Wilfried Meijer, del Centro de Biología Molecular Severo Ochoa (centro mixto del CSIC y la Universidad Autónoma de Madrid), en colaboración con científicos de la Universidad de Newcastle (Reino Unido).
Como explica la investigadora del CSIC, los virus han coevolucionado con sus células hospedadoras a lo largo de la historia y, por ello, "no resulta sorprendente que hayan aprendido a explotar diferentes mecanismos de ellas". La comunidad científica conoce desde hace años que, en las células eucariotas, los virus aprovechan las características del citoesqueleto para enriquecer su sitio natural de replicación en el interior de la célula o para establecer una autopista sobre la que la nueva progenie de virus pueda circular para abandonar la célula infectada.
El citoesqueleto es una red tridimensional de filamentos proteicos que desempeña un papel clave en la estructura y función de las células. Se trata de una estructura dinámica que, además de proporcionar soporte y forma a la célula, realiza otras muchas funciones como facilitar la movilidad y el transporte intercelular o intervenir en la división celular.
Anteriormente, se consideraba que el citoesqueleto era una estructura única de las células eucariotas pero, en los últimos años, se han detectado homólogos procariotas, en concreto, en bacterias: las proteínas MreB, homólogas de las proteínas actinas que conforman los microfilamentos del citoesqueleto eucariótico.
A partir de este hallazgo, Salas y su equipo han demostrado ahora que las proteínas MreB también pueden ser explotadas por los virus para aumentar la replicación de su material genético, de la misma forma que lo hacen los virus eucarióticos con el citoesqueleto de las células eucariotas. El equipo ha probado este fenómeno en diferentes especies bacterianas, entre ellas, Bacillus subtilis. Esta bacteria, de interés biotecnológico, se utiliza en aplicaciones industriales como la producción de enzimas proteasas o amilasas. Las proteasas, por ejemplo, se emplean en los detergentes y en la elaboración de fertilizantes. Estas bacterias pueden ser infectadas por el virus pi29, uno de los principales objetos de investigación de la científica del CSIC.
Según explica Salas, los virus utilizan las proteínas MreB como andamios sobre los que organizar sus maquinarias replicativas, lo que les permite obtener una gran progenie viral cuando las células son infectadas y extender, así, la infección a otras células procariotas. En el caso de Bacillus subtilis, el trabajo de Salas y su equipo permitiría el desarrollo de estirpes con mutaciones en la familia de proteínas MreB que, por tanto, serían menos sensibles a la infección por fagos (virus que infectan a las bacterias), algo que genera grandes pérdidas económicas.
--------------------------------------------------------------------------------
Daniel Muñoz-Espín, Richard Daniel, Yoshikazu Kawai, Rut Carballido-López, Virginia Castilla-Llorente, Jeff Errington, Wilfried J.J. Meijer y Margarita Salas The actin-like MreB cytoskeleton organizes viral DNA replication in bacteria PNAS
La biomasa: el fracaso del Plan de Energías Renovables
«Biomasa: la energía que nos da la naturaleza con lo que a ella le sobra». Sin embargo, atendiendo a las cifras que prevé el Plan de Energías Renovables (PER) 2005-2010 para esta tecnología -que produce electricidad y calor mediante la quema de restos agrícolas o forestales- y a su estado de desarrollo actual, parece que la campaña llega un poco tarde. Según el documento elaborado por el Gobierno, la Biomasa debería producir en España el 47,78% de la energía renovable en 2010. Y, a un año de la finalización del PER, apenas alcanza una cuarta parte de ese objetivo.
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
'Pseudomona aeruginosa' segrega una sustancia tóxica que acaba con las células defensivas
Muchos autores hablan de ella como una bacteria ubicua. 'Pseudomona aeruginosa' está presente en casi todos los ambientes de la naturaleza, incluido el organismo de los seres humanos. Normalmente, su presencia no supone un problema salvo en aquellas personas con pocas defensas. En el ambiente hospitalario, son muy frecuentes las infecciones causadas por este bacilo gram negativo, sobre todo en pacientes oncológicos, quemados y enfermos de fibrosis quística.
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
jueves, 26 de noviembre de 2009
El uso del suelo para combatir las emisiones de gases de efecto invernadero
Una nueva investigación sugiere que las emisiones de metano procedentes del ganado y las de óxido nitroso de las explotaciones agrícolas en Europa son equilibradas por la absorción de dióxido de carbono realizada por los sumideros que componen los bosques, praderas y turberas del continente. Sin embargo, la tendencia ascendente de la agricultura intensiva y la tala de bosques es probable que convierta el suelo europeo en una fuente importante de gases de efecto invernadero, según se advierte en un artículo de la revista Nature Geoscience. Para remediar esta situación, el desarrollo de políticas de gestión del suelo encaminadas a reducir las emisiones de gases de efecto invernadero debe establecerse como prioridad.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 26/11/2009
Estas conclusiones proceden del proyecto financiado con fondos comunitarios CARBOEUROPE («Evaluación del balance de carbono terrestre europeo»), cuyo objetivo es comprender, calcular y predecir el balance del carbono terrestre en Europa. CARBOEUROPE recibió una financiación de 16,3 millones de euros mediante el área temática «Desarrollo sostenible» del Sexto Programa Marco (6PM) de la UE y cerca de 30 millones de euros de fuentes nacionales.
Dirigidos por Detlef Schulze, del Instituto Max Planck de Biogeoquímica (Alemania), los investigadores del proyecto reunieron estimaciones de los flujos europeos de dióxido de carbono, metano y óxido nitroso producidos entre 2000 y 2005 para generar el balance de gases de efecto invernadero correspondiente a Europa. Sus análisis desvelaron la existencia de un sumidero de carbono en los bosques y praderas del continente que almacena 305 millones de toneladas de carbono cada año. Un sumidero de esta magnitud podría neutralizar una quinta parte de las emisiones procedentes del consumo de combustibles fósiles. Sin embargo, los terrenos agrícolas y los drenajes practicados en turberas emiten CO2, anulando parte del efecto de este sumidero.
Además, se liberan otros gases de efecto invernadero debido al uso del suelo, inutilizando casi por completo el efecto del sumidero de carbono. Esto significa que el suelo europeo sólo elimina alrededor del 2% de las emisiones de gases de efecto invernadero producidas por los hogares, el transporte y la industria.
Para realizar sus cálculos, el proyecto CARBOEUROPE desarrolló un programa de observación y modelización que ofrece una mayor resolución espacial y temporal. El proyecto también investiga los mecanismos básicos de control del ciclo del carbono en los ecosistemas europeos.
Para realizar su trabajo, los investigadores calcularon los flujos biológicos de gases de efecto invernadero de dos formas. En primer lugar separaron los flujos industriales y geológicos de los atmosféricos. En segundo lugar, midieron la absorción y emisión de CO2 en bosques, praderas, tierras de cultivo y turberas y los extrapolaron a toda Europa teniendo en cuenta cambios en el uso de suelo, el comercio de madera y alimentos, el transporte fluvial, la oxidación del metano y la extracción de turba. Parte de los investigadores dedicados al proyecto utilizaron una metodología novedosa que incluyó inventarios de bosques rusos, nuevos modelos de tierras de cultivo y estimaciones actualizadas de la transpiración de los bosques, así como las pérdidas y ganancias de carbono en el suelo tras un cambio en el uso del mismo.
«Estos descubrimientos muestran que si pretendemos que el suelo europeo contribuya a mitigar el calentamiento global, es necesario cambiar la gestión actual del suelo», admitió el profesor Schulze. «El metano y el óxido nitroso son dos gases de efecto invernadero realmente potentes y hemos de gestionar el suelo para reducir su emisión.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 26/11/2009
Estas conclusiones proceden del proyecto financiado con fondos comunitarios CARBOEUROPE («Evaluación del balance de carbono terrestre europeo»), cuyo objetivo es comprender, calcular y predecir el balance del carbono terrestre en Europa. CARBOEUROPE recibió una financiación de 16,3 millones de euros mediante el área temática «Desarrollo sostenible» del Sexto Programa Marco (6PM) de la UE y cerca de 30 millones de euros de fuentes nacionales.
Dirigidos por Detlef Schulze, del Instituto Max Planck de Biogeoquímica (Alemania), los investigadores del proyecto reunieron estimaciones de los flujos europeos de dióxido de carbono, metano y óxido nitroso producidos entre 2000 y 2005 para generar el balance de gases de efecto invernadero correspondiente a Europa. Sus análisis desvelaron la existencia de un sumidero de carbono en los bosques y praderas del continente que almacena 305 millones de toneladas de carbono cada año. Un sumidero de esta magnitud podría neutralizar una quinta parte de las emisiones procedentes del consumo de combustibles fósiles. Sin embargo, los terrenos agrícolas y los drenajes practicados en turberas emiten CO2, anulando parte del efecto de este sumidero.
Además, se liberan otros gases de efecto invernadero debido al uso del suelo, inutilizando casi por completo el efecto del sumidero de carbono. Esto significa que el suelo europeo sólo elimina alrededor del 2% de las emisiones de gases de efecto invernadero producidas por los hogares, el transporte y la industria.
Para realizar sus cálculos, el proyecto CARBOEUROPE desarrolló un programa de observación y modelización que ofrece una mayor resolución espacial y temporal. El proyecto también investiga los mecanismos básicos de control del ciclo del carbono en los ecosistemas europeos.
Para realizar su trabajo, los investigadores calcularon los flujos biológicos de gases de efecto invernadero de dos formas. En primer lugar separaron los flujos industriales y geológicos de los atmosféricos. En segundo lugar, midieron la absorción y emisión de CO2 en bosques, praderas, tierras de cultivo y turberas y los extrapolaron a toda Europa teniendo en cuenta cambios en el uso de suelo, el comercio de madera y alimentos, el transporte fluvial, la oxidación del metano y la extracción de turba. Parte de los investigadores dedicados al proyecto utilizaron una metodología novedosa que incluyó inventarios de bosques rusos, nuevos modelos de tierras de cultivo y estimaciones actualizadas de la transpiración de los bosques, así como las pérdidas y ganancias de carbono en el suelo tras un cambio en el uso del mismo.
«Estos descubrimientos muestran que si pretendemos que el suelo europeo contribuya a mitigar el calentamiento global, es necesario cambiar la gestión actual del suelo», admitió el profesor Schulze. «El metano y el óxido nitroso son dos gases de efecto invernadero realmente potentes y hemos de gestionar el suelo para reducir su emisión.»
Desarrollan un método para producir plásticos ecológicos
La posibilidad de fabricar un plástico 'verde' está hoy un poco más cerca. Un equipo de científicos de la Universidad KAIST en Seúl ha logrado producir polímeros a través de la bioingeniería, en lugar de utilizar combustibles fósiles.
FUENTE | El Mundo Digital 24/11/2009
Los polímeros son macrocélulas orgánicas a partir de las que se fabrican los plásticos de uso común, como botellas o bolsas de supermercado. Según afirman sus creadores, esta nueva técnica permitirá la producción de plásticos biodegradables y de baja toxicidad.
La investigación, publicada en la revista 'Biotechnology and Bioengineering' y recogida por CNN.com, se ha centrado en el Ácido Poliláctico, o PLA, un polímero constituido por moléculas de ácido láctico que se degrada fácilmente en agua y óxido de carbono.
"El poliéster y otros polímeros que utilizamos todos los días derivan en su mayoría de combustibles fósiles producidos en una refinería a través de procesos químicos", explica el profesor Sang Yup Lee, responsable de la investigación. "La idea de producir polímeros a partir de biomasa renovable ha atraído gran atención por las crecientes preocupaciones sobre el clima".
Según sus creadores el PLA, que es biodegradable y de baja toxicidad supone una buena alternativa a plásticos basados en petróleo. Hasta ahora se venía produciendo en un costoso proceso de fermentación y polimerización química. Sin embargo, los científicos coreanos lo han conseguido con la modificación metabólica de la bacteria Escherichia coli. "El calentamiento global y otros problemas medioambientales demandan que desarrollemos procesos sostenibles basados en energías renovables", asegura Sang Yup Lee.
FUENTE | El Mundo Digital 24/11/2009
Los polímeros son macrocélulas orgánicas a partir de las que se fabrican los plásticos de uso común, como botellas o bolsas de supermercado. Según afirman sus creadores, esta nueva técnica permitirá la producción de plásticos biodegradables y de baja toxicidad.
La investigación, publicada en la revista 'Biotechnology and Bioengineering' y recogida por CNN.com, se ha centrado en el Ácido Poliláctico, o PLA, un polímero constituido por moléculas de ácido láctico que se degrada fácilmente en agua y óxido de carbono.
"El poliéster y otros polímeros que utilizamos todos los días derivan en su mayoría de combustibles fósiles producidos en una refinería a través de procesos químicos", explica el profesor Sang Yup Lee, responsable de la investigación. "La idea de producir polímeros a partir de biomasa renovable ha atraído gran atención por las crecientes preocupaciones sobre el clima".
Según sus creadores el PLA, que es biodegradable y de baja toxicidad supone una buena alternativa a plásticos basados en petróleo. Hasta ahora se venía produciendo en un costoso proceso de fermentación y polimerización química. Sin embargo, los científicos coreanos lo han conseguido con la modificación metabólica de la bacteria Escherichia coli. "El calentamiento global y otros problemas medioambientales demandan que desarrollemos procesos sostenibles basados en energías renovables", asegura Sang Yup Lee.
Nueva proteína implicada en el control génico
Un equipo internacional de científicos ha identificado una nueva proteína denominada BAHD1 que puede cambiar la estructura de un cromosoma y es responsable de la silenciación de la expresión génica.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 24/11/2009
El estudio, que ayuda a ampliar conocimientos sobre la regulación génica, se ha publicado en la revista Proceedings of the National Academy of Sciences (PNAS). La investigación formó parte de PATHOGENOMICS («Cooperación y coordinación transgenómica de secuenciación del genoma y genómica funcional de microorganismos patogénicos humanos»), un proyecto comunitario de ocho años de duración perteneciente a ERA-NET que estará en marcha hasta 2012 y recibirá 3 millones de euros de financiación a través del Sexto Programa Marco (FP6).
En la investigación colaboran quince socios, entre los que se encuentra el Instituto Pasteur de París (Francia), el Centro Nacional de Investigación Científica de Francia (CNRS), el Instituto Nacional de Investigación Agronómica (INRA, Francia) y el Instituto de Investigación de Jülich (Alemania).
Una célula tumoral se origina por un cambio en los genes y por lo tanto en la composición química de una célula. Una de estas vías cancerígenas ha sido descubierta gracias a la investigación sobre el desarrollo embrionario. Una vez alcanzada la madurez, las células deben renovarse para que órganos y tejidos se mantengan sanos. Sin embargo, en el caso del embrión, sus órganos deben desarrollarse desde cero. Según parece, la activación de genes que sólo están activos en el embrión puede ser la clave del crecimiento de un cáncer.
La expresión génica es la forma en la que los genes expresan su código genético particular. Todas las células poseen los mismos genes, pero normalmente cada una de ellas sólo es capaz de usar aquellos directamente relacionados con su función. Sin embargo, algunas veces el sistema no funciona como es debido y se expresan variantes patológicas de genes que pueden provocar enfermedades genéticas o cáncer.
Todas las células de cualquier organismo (el cuerpo humano, una planta o un animal) poseen la misma información genética, pero la expresan de formas muy distintas. Por ejemplo, la piel, el pelo y los dientes humanos se componen de distintos tipos de tejidos, pero los genes que produjeron el código para crearlos realizan la misma función. El motivo de que sean capaces de producir elementos tan distintos a partir del mismo código genético es que cada tipo de célula activa sólo un pequeño grupo de genes, de tal forma que cada uno es único.
Las células «eligen» qué genes deben activarse mediante la regulación de la estructura de una sustancia denominada cromatina, material genético que consiste de cadenas de proteínas y ADN que forman nuestros cromosomas. Las cadenas de cromatina pueden aglutinarse en agregados compactos y silenciar así los genes, o bien pueden organizarse de forma más suelta y activar los genes. Por esta razón es básico identificar los factores que regulan la estructura de la cromatina. Si la estructura se altera, puede provocar enfermedades neurológicas, cáncer o anomalías del desarrollo.
El descubrimiento de BAHD1 por parte de este equipo supone un avance para la ciencia, pues su presencia en una célula silencia el gen IGF2 (factor de crecimiento II similar a la insulina), activo normalmente durante el desarrollo embrionario. El IGF2 no se encuentra por lo general activo en adultos sanos, pero sí en muchos casos de cáncer, al provocar la proliferación de células que pueden devenir en tumores.
«El descubrimiento del complejo BAHD1 aumenta el conocimiento que poseemos sobre los mecanismos que regulan los genes de nuestras células», indicó la Dra. Marion Karrasch Bott del Forschungszentrum Jülich, que coordina PATHOGENOMICS. «Este tipo de conocimientos podría desembocar en nuevas terapias contra el cáncer encaminadas a volver a silenciar genes activados a destiempo o dar lugar a nuevos marcadores pronósticos.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 24/11/2009
El estudio, que ayuda a ampliar conocimientos sobre la regulación génica, se ha publicado en la revista Proceedings of the National Academy of Sciences (PNAS). La investigación formó parte de PATHOGENOMICS («Cooperación y coordinación transgenómica de secuenciación del genoma y genómica funcional de microorganismos patogénicos humanos»), un proyecto comunitario de ocho años de duración perteneciente a ERA-NET que estará en marcha hasta 2012 y recibirá 3 millones de euros de financiación a través del Sexto Programa Marco (FP6).
En la investigación colaboran quince socios, entre los que se encuentra el Instituto Pasteur de París (Francia), el Centro Nacional de Investigación Científica de Francia (CNRS), el Instituto Nacional de Investigación Agronómica (INRA, Francia) y el Instituto de Investigación de Jülich (Alemania).
Una célula tumoral se origina por un cambio en los genes y por lo tanto en la composición química de una célula. Una de estas vías cancerígenas ha sido descubierta gracias a la investigación sobre el desarrollo embrionario. Una vez alcanzada la madurez, las células deben renovarse para que órganos y tejidos se mantengan sanos. Sin embargo, en el caso del embrión, sus órganos deben desarrollarse desde cero. Según parece, la activación de genes que sólo están activos en el embrión puede ser la clave del crecimiento de un cáncer.
La expresión génica es la forma en la que los genes expresan su código genético particular. Todas las células poseen los mismos genes, pero normalmente cada una de ellas sólo es capaz de usar aquellos directamente relacionados con su función. Sin embargo, algunas veces el sistema no funciona como es debido y se expresan variantes patológicas de genes que pueden provocar enfermedades genéticas o cáncer.
Todas las células de cualquier organismo (el cuerpo humano, una planta o un animal) poseen la misma información genética, pero la expresan de formas muy distintas. Por ejemplo, la piel, el pelo y los dientes humanos se componen de distintos tipos de tejidos, pero los genes que produjeron el código para crearlos realizan la misma función. El motivo de que sean capaces de producir elementos tan distintos a partir del mismo código genético es que cada tipo de célula activa sólo un pequeño grupo de genes, de tal forma que cada uno es único.
Las células «eligen» qué genes deben activarse mediante la regulación de la estructura de una sustancia denominada cromatina, material genético que consiste de cadenas de proteínas y ADN que forman nuestros cromosomas. Las cadenas de cromatina pueden aglutinarse en agregados compactos y silenciar así los genes, o bien pueden organizarse de forma más suelta y activar los genes. Por esta razón es básico identificar los factores que regulan la estructura de la cromatina. Si la estructura se altera, puede provocar enfermedades neurológicas, cáncer o anomalías del desarrollo.
El descubrimiento de BAHD1 por parte de este equipo supone un avance para la ciencia, pues su presencia en una célula silencia el gen IGF2 (factor de crecimiento II similar a la insulina), activo normalmente durante el desarrollo embrionario. El IGF2 no se encuentra por lo general activo en adultos sanos, pero sí en muchos casos de cáncer, al provocar la proliferación de células que pueden devenir en tumores.
«El descubrimiento del complejo BAHD1 aumenta el conocimiento que poseemos sobre los mecanismos que regulan los genes de nuestras células», indicó la Dra. Marion Karrasch Bott del Forschungszentrum Jülich, que coordina PATHOGENOMICS. «Este tipo de conocimientos podría desembocar en nuevas terapias contra el cáncer encaminadas a volver a silenciar genes activados a destiempo o dar lugar a nuevos marcadores pronósticos.»
viernes, 20 de noviembre de 2009
El sorprendente pasado cálido de la Antártida
La temperatura en la Antártida no está en su pico máximo. Aunque las consecuencias del cambio climático podrían llevar a pensar que atravesamos la época más cálida de los últimos milenios, la temperatura del Polo Sur fue alrededor de seis grados centígrados superior a la actual durante el último periodo cálido, que tuvo lugar hace 125.000 años.
FUENTE | El Mundo Digital 20/11/2009
Una investigación, publicada este jueves en la revista 'Nature', ha analizado testigos de hielo tomados en la Antártida a profundidades de hasta 1.000 metros y ha demostrado que la temperatura durante los periodos interglaciales -épocas cálidas situadas entre las glaciaciones- era más alta de lo que la ciencia pensaba hasta la fecha.
"No sólo hemos demostrado que la temperatura era hasta seis grados superior a la actual, sino que también el nivel del mar era entre cuatro y cinco metros más alto que hoy en día", asegura la investigadora del British Antartic Survey y autora principal del trabajo, Louise Sime, a EL MUNDO.
UN DESCUBRIMIENTO SORPRENDENTE
Tal cantidad de agua procedía de Groenlandia y de la Antártida, lo que hace pensar a los científicos que la cantidad de hielo en ambos lugares era menor que en la actualidad. "No esperábamos encontrar temperaturas tan altas y, de hecho, aún no sabemos en detalle qué las causó", dice Sime.
La autora explica que la temperatura y la concentración de CO2 en la atmósfera han ido de la mano durante los últimos milenios. "En aquella época había entre 280 y 300 partes por millón de CO2 y hoy tenemos casi 400. La pregunta del millón es qué sucederá en los próximos años si sigue aumentando este gas en la atmósfera", se pregunta. "Lo que indica nuestro trabajo es que el clima de la Antártida ha sufrido cambios muy rápidos en los últimos periodos con altos niveles de CO2", añade.
Entonces, ¿estos nuevos datos suponen que ya tenemos un ejemplo de lo que sucederá a consecuencia del cambio climático? "Si llegamos a conocer en detalle cómo de cálidos fueron el Polo Sur y Groenlandia, podremos realizar predicciones sobre la contribución de la fusión de estas masas de hielo al aumento del nivel del mar en el futuro», explica Eric Wolff, coautor y uno de los mayores expertos del mundo en climas pasados.
FUENTE | El Mundo Digital 20/11/2009
Una investigación, publicada este jueves en la revista 'Nature', ha analizado testigos de hielo tomados en la Antártida a profundidades de hasta 1.000 metros y ha demostrado que la temperatura durante los periodos interglaciales -épocas cálidas situadas entre las glaciaciones- era más alta de lo que la ciencia pensaba hasta la fecha.
"No sólo hemos demostrado que la temperatura era hasta seis grados superior a la actual, sino que también el nivel del mar era entre cuatro y cinco metros más alto que hoy en día", asegura la investigadora del British Antartic Survey y autora principal del trabajo, Louise Sime, a EL MUNDO.
UN DESCUBRIMIENTO SORPRENDENTE
Tal cantidad de agua procedía de Groenlandia y de la Antártida, lo que hace pensar a los científicos que la cantidad de hielo en ambos lugares era menor que en la actualidad. "No esperábamos encontrar temperaturas tan altas y, de hecho, aún no sabemos en detalle qué las causó", dice Sime.
La autora explica que la temperatura y la concentración de CO2 en la atmósfera han ido de la mano durante los últimos milenios. "En aquella época había entre 280 y 300 partes por millón de CO2 y hoy tenemos casi 400. La pregunta del millón es qué sucederá en los próximos años si sigue aumentando este gas en la atmósfera", se pregunta. "Lo que indica nuestro trabajo es que el clima de la Antártida ha sufrido cambios muy rápidos en los últimos periodos con altos niveles de CO2", añade.
Entonces, ¿estos nuevos datos suponen que ya tenemos un ejemplo de lo que sucederá a consecuencia del cambio climático? "Si llegamos a conocer en detalle cómo de cálidos fueron el Polo Sur y Groenlandia, podremos realizar predicciones sobre la contribución de la fusión de estas masas de hielo al aumento del nivel del mar en el futuro», explica Eric Wolff, coautor y uno de los mayores expertos del mundo en climas pasados.
sábado, 14 de noviembre de 2009
Calidad del aire: los líquenes

La gran sensibilidad de los líquenes a la contaminación atmosférica es la clave que los convierte en indicadores biológicos de la calidad del aire en la ciudad. Se trata de un método económico, sencillo y eficaz que los investigadores de la Complutense mostrarán a través de la observación de lo más pequeño, los impactos que sufre el medio.
Las características biológicas de los líquenes, una asociación entre alga y hongo que puede vivir con escasos nutrientes, han convertido a estos organismos en bioindicadores capaces de proporcionar información sobre los niveles de contaminación atmosférica en el entorno.
Su extremada sensibilidad al dióxido de azufre hace que las distintas especies se distribuyan de manera diferente en función de la mayor o menor presencia de este contaminante, así como de la resistencia frente a él que ofrece cada una de ellas.
La monitorización de la presencia de estas especies a lo largo del tiempo consigue trazar un mapa del estado de salud crónico del aire que se respira en las ciudades. Como explica la profesora Ana María Crespo, bióloga evolutiva y experta en liquenología, "esta técnica permite el seguimiento de la evolución de la calidad del aire en territorios muy extensos a través del estudio de una nube de puntos tan densa como se quiera".
La utilización de este método presenta algunas ventajas con respecto a los sistemas de captación de aire para el análisis de su composición química. Por un lado, es mucho más económico, ya que no requiere de la instalación de costosos aparatos. Además, los resultados informan no de la composición del aire en momentos puntuales, sino de su estado de salud a más largo plazo, ya que las diferentes especies de líquenes se instalan o no dependiendo de los valores medios que alcance la concentración de algunos contaminantes.
El estudio de los líquenes como bioindicadores se inició ya en el siglo XIX y, desde entonces, ha sido objeto de más de 1.500 artículos en revistas científicas internacionales. En países como Inglaterra ya están en marcha iniciativas que cuentan con participación ciudadana y escolar para realizar un seguimiento de la calidad del aire en todo el territorio nacional a gran escala. El equipo investigador espera, estimular las relaciones de la universidad con otras esferas sociales y favorecer así la divulgación de la ciencia y la participación de la ciudadanía en la creación de la ciencia misma.
lunes, 9 de noviembre de 2009
Fundación Atapuerca
Aquí os dejo el enlace a la Fundación Atapuerca, que tiene como objeto difundir y promover de forma activa los descubrimientos e investigaciones que se están llevando a cabo en la Sierra de Atapuerca en los últimos años.
Tiene un espacio didáctico que espero utilices y te ayude en el estudio de la evolución humana y amplie tus conocimientos de la prehistoria.
Fundación Atapuerca
Tiene un espacio didáctico que espero utilices y te ayude en el estudio de la evolución humana y amplie tus conocimientos de la prehistoria.
Fundación Atapuerca
Suscribirse a:
Entradas (Atom)