FUENTE | El Mundo Digital 02/02/2010
Hace casi 100 años de la aprobación de la Ley Cambó, un documento impulsado por el entonces ministro de Fomento, Francisco Cambó, que buscaba la desecación de las zonas húmedas en España. En la actualidad, lejos queda la impresión de insalubridad y de foco de infecciones que se tenía de las lagunas y marismas, pero estos ecosistemas aún no han escapado del riesgo de desaparición. Precisamente la celebración del Día Internacional de los Humedales ha servido a grupos ecologistas e investigadores para llamar la atención sobre la conservación de estos espacios naturales.
"Humedales como Doñana o el hondo de Alicante, que podrían ser paraísos para la fauna, están en serio peligro", asegura Santos Cirujano, investigador del Real Jardín Botánico del CSIC y uno de los mayores expertos en humedales de España. "Algunos de ellos se van a perder, no todos se van a poder conservar, así que hay que saber elegir bien con cuáles nos quedamos", dice.
España ha perdido el 60% de sus humedales en tan sólo cuatro décadas, según alerta Ecologistas en Acción con motivo del Día Mundial que se celebra bajo el lema "Proteger los humedales, una respuesta al cambio climático". A nivel mundial, el Programa Hidrológico Internacional que lidera la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) cifra en un 50% los humedales que el planeta ha perdido desde el año 1900.
La propia organización ecologista ha difundido un informe en el que recuerda que en España la subida de temperaturas que se está produciendo es de medio grado por cada década en el periodo 1973-2005, según la Agencia Estatal de Meteorología. Este calentamiento ha reducido la aportación de agua a los cauces un 15% entre 1995 y 2005 en relación con el periodo 1940-1995. La organización advierte de que el problema es doblemente preocupante, ya que estos frágiles ecosistemas contribuyen a mitigar el cambio climático a través del almacenamiento de carbono.
En otro informe, WWF señala al "acuciante problema de los pozos ilegales" como principal amenaza de los acuíferos españoles. Sólo el que alimenta Doñana, advierte la organización, ha rebajado en un 90% su aporte de agua a este humedal, debido a los 1.000 puntos de extracción ilegales que hay en la zona, informa Efe.
La asociación ecologista SEO/BirdLife conmemora el Día Mundial de los Humedales con una veintena de actividades en España y Marruecos con las que pretende concienciar a ciudadanos y administraciones de la importancia de estos ecosistemas en la lucha contra el cambio climático.
En concreto, hasta el 7 de febrero, se realizarán conferencias, itinerarios, mesas informativas, jornadas de anillamiento, talleres infantiles, visitas guiadas, cursos y exposiciones fotográficas en varias comunidades autónomas -como Andalucía, Aragón, Cantabria, Cataluña, Ceuta, Madrid, Comunidad Valenciana, Extremadura y País Vasco- y en Marruecos.
Autor: Miguel G. Corral
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
miércoles, 3 de febrero de 2010
Medicamentos y/o metabolitos en el agua de los ríos de la Comunidad de Madrid
Yolanda Valcárcel Rivera
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
Grupo de Salud Pública y Ecotoxicología de la URJC. Grupo ToxAmb Facultad de Ciencias de la Salud. Universidad Rey Juan Carlos
En los últimos años la calidad del agua ha mejorado, principalmente debido a la creación de diferentes reglamentos de carácter ambiental unido a una mayor conciencia ambiental por parte de los ciudadanos. De esta manera se ha producido una reducción de las concentraciones en el agua de la mayoría de los contaminantes "convencionales" (metales pesados, contaminantes orgánicos, plaguicidas, etc...). Por el contrario, han empezado a aparecer lo que numerosos autores llaman ya como "contaminantes emergentes", entre los que se encuentran los medicamentos y sus metabolitos. Estos contaminantes, son definidos como compuestos que no están incluidos en las regulaciones existentes de calidad de agua, y de las que aún desconocemos sus efectos a corto/largo plazo sobre los ecosistemas acuáticos y sobre la salud humana.
Ha sido a partir de los años 90 cuando el interés por los medicamentos como futuros contaminantes del agua empezó a incrementarse. Desde entonces numerosos estudios evidencian la existencia de contaminación por medicamentos en aguas superficiales, aguas subterráneas, saladores y de consumo humano. Estas investigaciones han sido realizadas en países europeos como Austria, Dinamarca, Inglaterra, España, Reino Unido, Rumanía, Italia, Francia, aunque también fuera de Europa, principalmente en Estados Unidos o Brasil.
Actualmente existen alrededor de 4500 fármacos en el mundo, de los que el 70% se encuentran en desarrollo. España se encuentra en el puesto 29 en cuanto a población pero se sitúa en el séptimo lugar en cuanto a consumo de fármacos (imshealth.com).
España realizó un gasto de cerca de 14 x 109 euros en fármacos en el año 2008, cerca de 300 euros per capita. Los grupos terapéuticos que más se consumen a nivel nacional son los relacionados con patologías cardiovasculares, analgésicos y sistema nervioso central.
Partiendo de todo esto nos preguntamos, pero ¿cómo llegan los medicamentos a nuestros ríos? y peor aún ¿cómo llegan los medicamentos a nuestros grifos? Pues bien, la principal vía de entrada de estos contaminantes al medio ambiente es por una inapropiada eliminación de los fármacos o envases por parte de los usuarios, usando generalmente la basura o el desagüe. También los medicamentos o metabolitos que no son metabolizados totalmente en el organismo son expulsados por heces u orina y de ahí llegan a nuestros desagües. Por tanto nos encontramos con unos "nuevos contaminantes" cuyo vertido es diario y continuo, eso sí, a concentraciones muy bajas. Las estaciones de depuración de agua residual (EDAR) no cuentan con las tecnologías especifícas para eliminar los medicamentos en su totalidad, debido principalmente al elevado poder refractario de estos compuestos, por lo que acaban considerándose contaminantes pseudopersistentes. Finalmente, muchos de ellos son vertidos al medio ambiente acuático a través de los ríos y arroyos.
En nuestro estudio, los puntos de muestreo se seleccionaron atendiendo a los siguientes criterios: ríos con mayor caudal, mayor longitud y alta densidad de población. De esta manera se seleccionaron los ríos: Tajo, Jarama, Manzanares, Henares y Guadarrama (Figura 1).

Mapa 1. Distribución de los puntos de muestreo
Los resultados principales de la investigación muestran la presencia de 55 medicamentos y 3 metabolitos de los principales grupos terapéuticos prescritos en la Comunidad de Madrid.
Las sustancias analizadas se encontraron en la mayoría de los casos en concentraciones muy bajas, del orden de ng/l, excepto para 13 medicamentos cuyas concentraciones superaron la media de 1µg/l, que fueron los analgésicos diclofenaco e ibuprofeno, el antiparasitario metronidazol, el antidepresivo paraxentina, el betabloqueante atenolol, el antilipodemiante bezafibrato y la cafeína. Destacamos especialmente las concentraciones del antiepiléptico carbamazepina que es el que se detectó en concentraciones más altas, en la depuradora de Tres Cantos que recibe aguas del Arroyo del Bodonal (río Jarama).
Por grupos terapéuticos, cardiovascular, analgésicos y broncodilatadores fueron los grupos terapéuticos que se encontraron en mayores cantidades, mientras que antibióticos y antiepilépticos se encontraron en menor cantidad (ver Tabla 1).

Tabla 1. Distribución de las concentraciones (ng/l) de los medicamentos
y/o metabolitos por grupos terapéutico
En relación al agua potable, ésta fue analizada en las principales zonas de abastecimiento de la Comunidad de Madrid (5 en total). Se encontraron únicamente 5 medicamentos y además a bajas concentraciones. Cafeína y cotinina fueron encontradas en el total de las muestras, siendo las concentraciones más altas encontradas de 75 y 34 ng/l respectivamente. Nicotina y el antiepiléptico carbamazepina fueron encontradas en el 60% de las muestras la concentración más alta de nicotina fue de 100 ng/l mientras que carbamazepina fue mucho más baja únicamente de 5 ng/l. El antidepresivo venlafaxina sólo fue encontrado en una muestra y en una concentración muy baja, 9 ng/l.
A pesar de los resultados obtenidos, existe poca información en la literatura acerca de los efectos de estas concentraciones durante exposiciones largas de tiempo. Algunos estudios realizados señalan efectos en el crecimiento, fertilidad, sexualidad y comportamiento reproductivo de los organismos acuáticos expuestos a estos compuestos farmacológicamente activos. La mayoría de estos estudios se han realizado a partir de sustancias individuales y raramente con mezcla de dichas sustancias. Una línea emergente sería conocer el efecto sinérgico de estas sustancias, ya que así es como realmente se presentan en el medio ambiente, de forma combinada.
El siguiente paso en nuestra investigación es conocer el efecto toxicológico que tienen estas sustancias sobre organismos acuáticos, como el pez cebra. De esta manera podríamos determinar el efecto crónico de estas sustancias, que si bien están en el medio acuático y agua potable en cantidades muy pequeñas, muchas de ellas son difícilmente degradables y estamos expuestas a ellas durante muchos años.
Esta línea de investigación está siendo dirigida por la Dra. Yolanda Valcárcel y la Dra. Myriam Catalá que trabaja en el Departamento de Ecología, de la ESCET de la Universidad Rey Juan Carlos.
Cuestiones:
1.- ¿Qué características debe tener un contaminante para considerarse emergente?
2.- ¿Cómo llegan los medicamentos a nuestros ríos?
3.- Indica el número de medicamentos y metabolitos en los ríos y en las aguas potables. Reflexiona.
4.- ¿Qué y/o quién se ve afectado por la presencia de estos medicamentos en el agua?
5.- ¿Sabemos los efectos que estas sustancias pueden tener en el medio natural?
martes, 19 de enero de 2010
Riesgo volcánico en Gran Canaria
El noreste de Gran Canaria, una de las zonas más poblada de la isla, es precisamente el área que más probabilidades tiene de que se produzca una erupción volcánica. La Universidad de las Palmas de Gran Canaria acaba de presentar el primer mapa de peligrosidad volcánica de la isla, que describe escenarios de riesgo y que ha sido elaborado por investigadores españoles y franceses.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
FUENTE | El Mundo Digital 19/01/2010
Alejandro Rodríguez-González, principal autor del estudio, asegura que no hay motivo para generar ninguna alama social: "Si hubiera una erupción sería muy tranquila, no sería explosiva, sino de tipo estromboliana monogenética [que se caracterizan por ser poco violentas y emiten lavas y piroclastos]. Y no sabemos cuándo podría originarse, podrían transcurrir 100 o 200 años".
Y es que, aunque no es posible predecir una erupción, sí se pueden detectar las zonas en las que probablemente se darán: "La investigación nos ha permitido comprender cómo se ha generado el vulcanismo en los últimos 11.000 años y ver dónde se han producido las erupciones más recientes", afirma Rodríguez.
HISTORIA VOLCÁNICA DE LA ISLA
Los autores del estudio, publicado en 'Journal of Quaternary Science', detectaron 24 erupciones volcánicas a lo largo de los últimos 11.000 años. Para elaborar el mapa se combinaron los datos que aportaban anteriores estudios con los análisis de 13 nuevas edades de radiocarbono. "Se ha hecho una cartografía muy detallada de estas erupciones que ha servido para reconstruir cómo era la superficie antes y cómo quedó tras la erupción", explica el investigador.
De este modo, el mapa permite conocer la historia volcánica de la isla y detectar las zonas en las que se producirán futuras erupciones volcánicas, que están marcadas en rojo.
La investigación revela que durante el Holoceno (la época que comprende los últimos 11.000 años) hubo tres grupos de actividad volcánica "separados por cuatro periodos de inactividad". La más reciente se produjo hace entre 1.900 y 3.200 años. La más antigua fue hace más de 10.000 años y tuvo una sola erupción en la zona conocida como 'El Draguillo', en la localidad de Telde (al este de Gran Canaria).
La información facilitada por este estudio permitirá a los científicos mejorar la evaluación de la magnitud y el tipo de erupciones futuras en la isla.
lunes, 18 de enero de 2010
Asturias era el auténtico centro del mundo hace 305 millones de años
El territorio que actualmente conforma el Principado de Asturias soportaba temperaturas tropicales, estaba poblado por grandes bosques que dieron lugar a los depósitos de carbón de la región y era el centro del «supercontinente Pangea» -que configuraba la estructura terrestre- hace 305 millones de años.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
FUENTE | Agencia EFE 15/01/2010
Estos son algunos de los datos que ha desvelado la investigación desarrollada por el científico de la Universidad de Salamanca Gabriel Gutiérrez, en colaboración con Arlo Weil, de la Universidad de Bryn-Mawr (Filadelfia), según ha informado la institución académica salmantina.
Las conclusiones y el estudio serán publicados en el próximo número de la revista científica sobre geología más antigua del mundo, Journal of the Geological Society of London.
El proyecto desgrana los procesos que dieron lugar a los depósitos de carbón y minerales del Principado de Asturias como consecuencia de la formación de Pangea (compuesto por la unión de todos los continentes conocidos hoy en día), lo que originó la creación de las cuencas mineras asturianas a lo largo de un proceso que dio comienzo hace 305 millones de años y se cerró hace 295.
EL ORIGEN DEL CARBÓN
La formación de lo que el científico de la Universidad de Salamanca califica como «supercontinente» está considerada como «uno de los hitos del planeta». Según demuestra Gutiérrez en su estudio, tras la unión de dos continentes se formó un cinturón o sutura localizado en el norte de la Península Ibérica que se doblaría formando una estructura denominada oroclinal, una cadena montañosa en forma de u en cuyo centro se situarían los Picos de Europa.
En la periferia de este sistema montañoso se ubicarían todas las sierras desde la vertiente leonesa hasta las montañas del Cabo Peñas y el Sueve, cerrándose siguiendo el valle del Narcea. Con la formación de esta gran estructura se originaron muchas de las cuencas carboníferas de Asturias junto con rocas más profundas (granitos) y mineralizaciones como la de oro de Boinás, en Belmonte, afirma Gutiérrez.
El trabajo de los investigadores cierra el debate iniciado en el siglo XIX por el geólogo austríaco Suess, con lo que él denominaba como «rodilla astúrica». La tesis dominante hasta la fecha era la de que Asturias había sido un cabo que se empotró en la parte meridional de Pangea.
La investigación de la Universidad de Salamanca se llevó a cabo mediante la utilización de técnicas de paleomagnetismo en diferentes zonas de la comunidad, como en los Picos de Europa, Villaviciosa y Langreo, lo que ha permitido datar cuándo se generó la gran «u» del arco ibero-armoricano que se extiende por Asturias, Galicia, Portugal y Extremadura.
Terremoto en Haití originado por una falla que estudian investigadores españoles
Un equipo científico liderado por la Universidad Complutense (UCM) y especializado en la geología del noreste del Caribe, estudia la tectónica de la Falla de Enriquillo, cuyo movimiento acaba de producir un terremoto de magnitud 7 en Haití.
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
FUENTE | UCM - mi+d 18/01/2010
Los habitantes de Haití se han visto sorprendidos por un devastador terremoto a las 16:53:09 hora local el 12 de Enero del 2010. Un terremoto de gran magnitud, poco profundo y con epicentro a solo 15 km de la capital (Puerto Príncipe), junto con la extrema pobreza del país han sido los ingredientes principales que han desencadenado unas consecuencias catastróficas. Un terremoto de características similares ocurrido en 1994 en Los Ángeles causó 70 muertes. La energía acumulada durante décadas, no solo se liberó en este terremoto, sino también en las numerosas réplicas de magnitud superior a 5 que le siguieron. Además de la devastación de Haití, el seísmo fue sentido en Cuba, Jamaica, y Puerto Rico, países en los cuales se activó en las primeras horas la alerta por tsunami. Esta alerta de tsunami fue desactivada a las pocas horas ya que el terremoto sólo produjo una cresta de ola de 12 cm en Santo Domingo. En la región de Santiago de Cuba y Guantánamo se evacuaron 30000 personas hacia zonas elevadas al conocerse la alerta de tsunami en un primer momento.
El terremoto se produjo en la zona que limita dos placas tectónicas, la placa del Caribe y la placa Norteamericana. La placa del Caribe se mueve aproximadamente 20 mm cada año hacia el este respecto a la placa Norteamericana, movimiento que produce la deformación de la corteza y la generación de grandes fallas sísmicas de desgarre orientadas principalmente este-oeste. La isla de la Española está atravesada por dos grandes fallas de desgarre: la Falla Septentrional al norte, y la Falla de Enriquillo al sur. Entre los años 1943 y 1953 se han producido hasta cuatro terremotos destructivos de magnitud mayor de 7 asociados a la Falla Septentrional. Sin embargo, los resultados preliminares de la localización del epicentro de Haití, su profundidad y su modelo de ruptura, indican que este evento está asociado con un movimiento de la Falla de Enriquillo. En esta otra falla, relativamente más tranquila desde el punto de vista sísmico, no se habían producido terremotos importantes en las últimas décadas, aunque podría haber sido la causante de varios de los grandes terremotos históricos. José Luis Granja Bruña, científico especializado en geología del Caribe, cree que "el terremoto de Haití cuestiona los mapas previos de peligrosidad sísmica de la región, que no la señalaban como extremadamente peligrosa, debido a que no ha producido terremotos destructivos durante los dos últimos siglos".
La Falla de Enriquillo acomoda un desplazamiento de 7 mm/año, de los 20 mm totales del movimiento entre la placa del Caribe y la Norteamericana. Hacia el este de Haití, esta falla desaparece en la República Dominicana, mientras que hacia el oeste continua en el mar. El análisis de la prolongación de esta falla en el mar es uno de los objetivos del grupo de investigadores liderado por Andrés Carbó Gorosabel, de la Universidad Complutense de Madrid. Este equipo, formado por geólogos y físicos, lleva más de una década estudiando la geología del noreste del Caribe y trabajando activamente con varias instituciones de la República Dominicana y con el Servicio Geológico de Estados Unidos. Carbó nos explica: "la tectónica de esta zona del Caribe es extremadamente compleja, pero gracias a los resultados de las investigaciones realizadas en los últimos años, ahora entendemos mucho mejor su geología".
Los proyectos en los que se han enmarcado las investigaciones, han sido financiados por el Ministerio de Ciencia e Innovación Innovación a través del Plan Nacional de Investigación Científica. La compleja organización de los trabajos ha supuesto la coordinación de un buen número de instituciones tanto españolas, Real Observatorio de la Armada e Instituto Español de Oceanografía, como dominicanas, Dirección General de Minería y Marina de Guerra. Los resultados obtenidos, hasta la fecha, se están utilizando para evaluar y asesorar sobre la peligrosidad sísmica y de tsunamis a la República Dominicana.
Las fallas sísmicas pueden permanecer tranquilas durante cientos de años y después liberar la energía elástica acumulada, de forma repentina. La catástrofe de Haití nos recuerda que la predicción de ocurrencia de terremotos y la consecuente prevención de los daños que puedan producirse, sigue siendo uno de los mayores retos geo-científicos de nuestros tiempos. Aunque trágico, casos como este, nos recuerda que la investigación científica, incide directamente en el bienestar de la humanidad.

Mapa de la isla de la Española (Haití y República Dominicana) y de sus fondos marinos. Las líneas rojas marcan los principales límites tectónicos y las fallas citadas en el texto. La estrella amarilla señala la posición del epicentro del terremoto de Haití del 12 de enero de 2010. Los triángulos indican bordes de placas convergentes y las flechas indican los movimientos relativos a lo largo de las fallas. Las áreas grises en el mar indican las zonas investigadas hasta el momento por el grupo Complutense
jueves, 14 de enero de 2010
El genoma de la soja puede revolucionar los cultivos y el biodiésel
Un equipo multidisciplinar de científicos ha conseguido descifrar el genoma de la soja, uno de los principales alimentos del Tercer Mundo y una de las fuentes mundiales más importantes de proteína y aceite. La investigación, que aparece publicada en la revista Nature, resulta especialmente destacable, ya que permitirá buscar fórmulas para hacer plantaciones más resistentes a las plagas y las sequías y dar un impulso a los cultivos de biodiésel.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
FUENTE | ABC Periódico Electrónico S.A. 14/01/2010
«El genoma de la soja nos proporciona una mejor comprensión de la capacidad de la planta para convertir la luz solar, el dióxido de carbono, nitrógeno y agua en energía concentrada, proteínas y nutrientes para uso humano y animal», ha explicado Anna Palmisano, directora asociada del departamento de investigación biológica y ambiental de la Fundación Nacional de Ciencia en EE.UU. La investigación abre la puerta a la producción sostenible de alimentos humanos y animales, la mejora de cultivos para producir biodiésel «y a un equilibrio del medio ambiente en la agricultura mundial».
46.430 GENES
La secuencia genética de la soja, completada por el científico de la Universidad de Purdue (EE.UU.) Scott Jackson y su equipo, está conformada por 46.430 genes, un 70 por ciento más que las arabidopsis -un tipo de plantas herbáceas- y un número de genes similar al del genoma del álamo, que, al igual que la soja, es una especie poliploide, ya que tiene más de dos series de cromosomas.
Con el código genético de la soja, la comunidad científica tendrá acceso a una clave de referencia para más de 20.000 especies de leguminosas. «Es la planta más grande que alguna vez haya sido secuenciada, lo rompimos y montamos como un gran rompecabezas», afirma Jeremy Schmutz, autora principal del estudio. El genoma proporciona una «lista de piezas» que se necesitan para hacer una planta de soja, y permite identificar los genes que son esenciales para conseguir buenos ejemplares. Esto puede ser muy útil la producción de combustible vegetal, una alternativa renovable a los combustibles fósiles.
En la investigación han participado 18 instituciones, entre las que se encuentran los departamentos norteamericanos de energía Joint Genome Institute y de investigación agrícola, las Universidades de Purdue y de Carolina del Norte en Charlotte.
El primer animal que «funciona» como una planta
La capacidad de realizar la fotosíntesis estaba hasta ahora reservada a las plantas y las algas, pero los científicos han encontrado el primer animal que la practica y «funciona» como si fuera un vegetal.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
FUENTE | ABC Periódico Electrónico S.A. 13/01/2010
Se trata de una súper babosa de mar de un llamativo color verde, la Elysia chlorotica, que vive en la costa este de EE.UU. y Canadá, y que ha sido estudiada por científicos de la Universidad de South Florida en Tampa.
La babosa era conocida por «robar» los genes de las algas que come, las Vaucheria litorea. De esta forma, obtenía los cloroplastos -unas estructuras de color verde propias de las células vegetales que permiten a las plantas convertir la luz solar en energía-, y los almacenaba en las células que cubren su intestino. Pero ahora parece que ha desarrollado toda una vía de químicos para la fabricación de su propio pigmento de clorofila, sin necesidad de robárselo a las algas.
La clorofila es un pigmento que captura energía de la luz del sol en la fotosíntesis. Los investigadores utilizaron un sofisticado equipo radioactivo para comprobar que las babosas producían la clorofila por sí mismas y que ésta no estaba originada por las algas que comían. En la babosa, los cloroplastos se extraen y se esconden dentro de las propias células del animal, donde permanecen activas alrededor de un año. Una vez que una babosa joven se ha alimentado de las algas, nunca tendrá que volver a comer si tiene acceso a la luz y los suministros de clorofila y de otros productos químicos que se producen en la fotosíntesis.
Los investigadores han encontrado babosas que no han comido nada en al menos cinco meses. El descubrimiento será publicado en la revista Symbiosis.
domingo, 20 de diciembre de 2009
Tabaco, sol y mutaciones
Las huellas del tabaco y de la luz ultravioleta, en forma de miles de mutaciones, se han encontrado claramente en los primeros genomas completos del cáncer de pulmón y del cáncer de piel, respectivamente, que se acaban de presentar. El número de mutaciones encontradas en el cáncer de pulmón indica que el fumador adquiere una mutación cada 15 cigarrillos fumados, aproximadamente.
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
FUENTE | El País Digital 17/12/2009
Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.
En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.
"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".
"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".
La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".
"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.
Autor: Malen Ruiz de Elvira
viernes, 11 de diciembre de 2009
Los monos hablan un lenguaje ancestral
Los gritos de los monos Campbell (Cercopithecus campbelli campbelli) en los bosques de Costa de Marfil esconden la forma de lenguaje vocal no humano más compleja que se conoce, según un estudio publicado en PNAS
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
FUENTE Público
11/12/2009
Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.
Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.
En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.
CONEXIÓN CON HUMANOS
Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.
También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.
Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.
El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.
Autor: Nuño Domínguez
jueves, 10 de diciembre de 2009
El Mediterráneo se llenó en menos de dos años

Hace 5,3 millones de años se produjo la mayor inundación conocida nunca en la Tierra sobre un Mediterráneo desecado. La descarga de agua fue 1.000 veces superior a la del río Amazonas, con una subida de 10 m diarios del nivel del mar.
FUENTE CSIC 10/12/2009
El mar Mediterráneo llegó casi a secarse hace unos seis millones de años, al quedar aislado de los océanos durante un largo periodo de tiempo, debido el actual levantamiento tectónico del Estrecho de Gibraltar. Cuando las aguas del Atlántico encontraron de nuevo un camino a través del Estrecho, llenaron el Mediterráneo con la mayor y más brusca inundación que ha conocido nunca la Tierra. La cuenca mediterránea, entonces un enorme desierto a 1.500 metros de profundidad, tardó en llenarse de unos meses a dos años, según explican investigadores del Consejo Superior de Investigaciones Científicas (CSIC). Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse de 10 a 10.000 años.
Reproducción de cómo se produjo la mayor inundación conocida en la Tierra que llenó el mar Mediterráneo hace 5,3 millones de años./ Ilustración: Roger Pibernat
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.
La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.
Uno de los responsables de la investigación, el investigador del CSIC Daniel García- Castellanos, que trabaja en el Instituto de Ciencias de la Tierra Jaume Almera, en Barcelona, detalla: "La inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de 'megarrápido' por donde el agua circuló a cientos de kilómetros por hora. Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el Golfo de Cádiz y el Mar de Alborán".
Cuando hace unos años los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del Estrecho de Gibraltar se encontraron con este problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos en los años 90 pensaron que esta norme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo.
"Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta García-Castellanos.
GARGANTAS Y SAL
"Durante el periodo de desecación [la llamada crisis salina del Mesiniense, debido a la precipitación masiva de sal en todo el Mediterráneo con acumulaciones de varios kilómetros en algunos lugares de sus zonas más profundas], los principales ríos que desembocaban en el mar estudiado excavaron profundas e impresionantes gargantas en los márgenes del fondo marino, que quedaron expuestos. Los ríos desembocaban entonces en lagos salinos situados en las partes más profundas de la cuenca", explica el investigador del CSIC.
No obstante, a partir del estudio de los perfiles sísmicos realizados en el Mar de Alborán [secciones verticales a través de los sedimentos] y de los cálculos basados en modelos de erosión de los ríos de montaña, los investigadores demostraron que la erosión no fue producida por un río durante la desecación del Mediterráneo, sino por un enorme flujo de agua procedente del Atlántico.
García-Castellanos avanza las implicaciones que pueda tener el estudio: "Un cambio tan enorme y abrupto en el paisaje terrestre como el que hemos deducido pudo tener un impacto notable en el clima de aquel periodo, algo que no se ha estudiado aún con suficiente detalle y a lo que podría ayudar este trabajo. La técnica usada, además, nos puede servir también para estudiar otras inundaciones de las que se desconocen su intensidad o duración".
--------------------------------------------------------------------------------
García-Castellanos, D., F. Estrada, I. Jiménez-Munt, C. Gorini, M. Fernàndez, J. Vergés, R. De Vicente. Catastrophic flood of the Mediterranean after the Messinian Crisis. Nature, 10 de diciembre de 2009. doi:10.1038/nature08555
domingo, 6 de diciembre de 2009
lunes, 30 de noviembre de 2009
Los virus pueden usurpar la maquinaria de las bacterias para replicarse

Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente.
FUENTE | CSIC - mi+d 30/11/2009
Localización subcelular de la maquinaria replicativa del virus pi29 (rojo) y de la proteína MreB del citoesqueleto bacteriano (verde). CSIC
Un equipo, dirigido por la investigadora del Consejo Superior de Investigaciones Científicas (CSIC) Margarita Salas, ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente. Esta capacidad sólo era conocida, hasta el momento, en células eucariotas, la base de los organismos complejos como el ser humano. El hallazgo, publicado en Proceedings de la Academia Nacional de Ciencias de EE.UU. (PNAS), permitiría crear estirpes bacterianas modificadas genéticamente para minimizar sus posibilidades de infección por virus. Este descubrimiento podría evitar pérdidas económicas en industrias que emplean bacterias en sus procesos de producción, como la de los detergentes o fertilizantes.
Además de Salas, el trabajo ha contado con la participación de los investigadores del CSIC Daniel Muñoz Espín y Wilfried Meijer, del Centro de Biología Molecular Severo Ochoa (centro mixto del CSIC y la Universidad Autónoma de Madrid), en colaboración con científicos de la Universidad de Newcastle (Reino Unido).
Como explica la investigadora del CSIC, los virus han coevolucionado con sus células hospedadoras a lo largo de la historia y, por ello, "no resulta sorprendente que hayan aprendido a explotar diferentes mecanismos de ellas". La comunidad científica conoce desde hace años que, en las células eucariotas, los virus aprovechan las características del citoesqueleto para enriquecer su sitio natural de replicación en el interior de la célula o para establecer una autopista sobre la que la nueva progenie de virus pueda circular para abandonar la célula infectada.
El citoesqueleto es una red tridimensional de filamentos proteicos que desempeña un papel clave en la estructura y función de las células. Se trata de una estructura dinámica que, además de proporcionar soporte y forma a la célula, realiza otras muchas funciones como facilitar la movilidad y el transporte intercelular o intervenir en la división celular.
Anteriormente, se consideraba que el citoesqueleto era una estructura única de las células eucariotas pero, en los últimos años, se han detectado homólogos procariotas, en concreto, en bacterias: las proteínas MreB, homólogas de las proteínas actinas que conforman los microfilamentos del citoesqueleto eucariótico.
A partir de este hallazgo, Salas y su equipo han demostrado ahora que las proteínas MreB también pueden ser explotadas por los virus para aumentar la replicación de su material genético, de la misma forma que lo hacen los virus eucarióticos con el citoesqueleto de las células eucariotas. El equipo ha probado este fenómeno en diferentes especies bacterianas, entre ellas, Bacillus subtilis. Esta bacteria, de interés biotecnológico, se utiliza en aplicaciones industriales como la producción de enzimas proteasas o amilasas. Las proteasas, por ejemplo, se emplean en los detergentes y en la elaboración de fertilizantes. Estas bacterias pueden ser infectadas por el virus pi29, uno de los principales objetos de investigación de la científica del CSIC.
Según explica Salas, los virus utilizan las proteínas MreB como andamios sobre los que organizar sus maquinarias replicativas, lo que les permite obtener una gran progenie viral cuando las células son infectadas y extender, así, la infección a otras células procariotas. En el caso de Bacillus subtilis, el trabajo de Salas y su equipo permitiría el desarrollo de estirpes con mutaciones en la familia de proteínas MreB que, por tanto, serían menos sensibles a la infección por fagos (virus que infectan a las bacterias), algo que genera grandes pérdidas económicas.
--------------------------------------------------------------------------------
Daniel Muñoz-Espín, Richard Daniel, Yoshikazu Kawai, Rut Carballido-López, Virginia Castilla-Llorente, Jeff Errington, Wilfried J.J. Meijer y Margarita Salas The actin-like MreB cytoskeleton organizes viral DNA replication in bacteria PNAS
La biomasa: el fracaso del Plan de Energías Renovables
«Biomasa: la energía que nos da la naturaleza con lo que a ella le sobra». Sin embargo, atendiendo a las cifras que prevé el Plan de Energías Renovables (PER) 2005-2010 para esta tecnología -que produce electricidad y calor mediante la quema de restos agrícolas o forestales- y a su estado de desarrollo actual, parece que la campaña llega un poco tarde. Según el documento elaborado por el Gobierno, la Biomasa debería producir en España el 47,78% de la energía renovable en 2010. Y, a un año de la finalización del PER, apenas alcanza una cuarta parte de ese objetivo.
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.
Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.
DEL 90% A MENOS DEL 1%
A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.
El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.
Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.
La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».
«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.
Autor: Miguel G. Corral
'Pseudomona aeruginosa' segrega una sustancia tóxica que acaba con las células defensivas
Muchos autores hablan de ella como una bacteria ubicua. 'Pseudomona aeruginosa' está presente en casi todos los ambientes de la naturaleza, incluido el organismo de los seres humanos. Normalmente, su presencia no supone un problema salvo en aquellas personas con pocas defensas. En el ambiente hospitalario, son muy frecuentes las infecciones causadas por este bacilo gram negativo, sobre todo en pacientes oncológicos, quemados y enfermos de fibrosis quística.
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.
En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.
Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.
UN ESCUDO PROTECTOR
La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.
Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.
Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.
Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.
"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.
Autor: Cristina de Martos
jueves, 26 de noviembre de 2009
El uso del suelo para combatir las emisiones de gases de efecto invernadero
Una nueva investigación sugiere que las emisiones de metano procedentes del ganado y las de óxido nitroso de las explotaciones agrícolas en Europa son equilibradas por la absorción de dióxido de carbono realizada por los sumideros que componen los bosques, praderas y turberas del continente. Sin embargo, la tendencia ascendente de la agricultura intensiva y la tala de bosques es probable que convierta el suelo europeo en una fuente importante de gases de efecto invernadero, según se advierte en un artículo de la revista Nature Geoscience. Para remediar esta situación, el desarrollo de políticas de gestión del suelo encaminadas a reducir las emisiones de gases de efecto invernadero debe establecerse como prioridad.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 26/11/2009
Estas conclusiones proceden del proyecto financiado con fondos comunitarios CARBOEUROPE («Evaluación del balance de carbono terrestre europeo»), cuyo objetivo es comprender, calcular y predecir el balance del carbono terrestre en Europa. CARBOEUROPE recibió una financiación de 16,3 millones de euros mediante el área temática «Desarrollo sostenible» del Sexto Programa Marco (6PM) de la UE y cerca de 30 millones de euros de fuentes nacionales.
Dirigidos por Detlef Schulze, del Instituto Max Planck de Biogeoquímica (Alemania), los investigadores del proyecto reunieron estimaciones de los flujos europeos de dióxido de carbono, metano y óxido nitroso producidos entre 2000 y 2005 para generar el balance de gases de efecto invernadero correspondiente a Europa. Sus análisis desvelaron la existencia de un sumidero de carbono en los bosques y praderas del continente que almacena 305 millones de toneladas de carbono cada año. Un sumidero de esta magnitud podría neutralizar una quinta parte de las emisiones procedentes del consumo de combustibles fósiles. Sin embargo, los terrenos agrícolas y los drenajes practicados en turberas emiten CO2, anulando parte del efecto de este sumidero.
Además, se liberan otros gases de efecto invernadero debido al uso del suelo, inutilizando casi por completo el efecto del sumidero de carbono. Esto significa que el suelo europeo sólo elimina alrededor del 2% de las emisiones de gases de efecto invernadero producidas por los hogares, el transporte y la industria.
Para realizar sus cálculos, el proyecto CARBOEUROPE desarrolló un programa de observación y modelización que ofrece una mayor resolución espacial y temporal. El proyecto también investiga los mecanismos básicos de control del ciclo del carbono en los ecosistemas europeos.
Para realizar su trabajo, los investigadores calcularon los flujos biológicos de gases de efecto invernadero de dos formas. En primer lugar separaron los flujos industriales y geológicos de los atmosféricos. En segundo lugar, midieron la absorción y emisión de CO2 en bosques, praderas, tierras de cultivo y turberas y los extrapolaron a toda Europa teniendo en cuenta cambios en el uso de suelo, el comercio de madera y alimentos, el transporte fluvial, la oxidación del metano y la extracción de turba. Parte de los investigadores dedicados al proyecto utilizaron una metodología novedosa que incluyó inventarios de bosques rusos, nuevos modelos de tierras de cultivo y estimaciones actualizadas de la transpiración de los bosques, así como las pérdidas y ganancias de carbono en el suelo tras un cambio en el uso del mismo.
«Estos descubrimientos muestran que si pretendemos que el suelo europeo contribuya a mitigar el calentamiento global, es necesario cambiar la gestión actual del suelo», admitió el profesor Schulze. «El metano y el óxido nitroso son dos gases de efecto invernadero realmente potentes y hemos de gestionar el suelo para reducir su emisión.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 26/11/2009
Estas conclusiones proceden del proyecto financiado con fondos comunitarios CARBOEUROPE («Evaluación del balance de carbono terrestre europeo»), cuyo objetivo es comprender, calcular y predecir el balance del carbono terrestre en Europa. CARBOEUROPE recibió una financiación de 16,3 millones de euros mediante el área temática «Desarrollo sostenible» del Sexto Programa Marco (6PM) de la UE y cerca de 30 millones de euros de fuentes nacionales.
Dirigidos por Detlef Schulze, del Instituto Max Planck de Biogeoquímica (Alemania), los investigadores del proyecto reunieron estimaciones de los flujos europeos de dióxido de carbono, metano y óxido nitroso producidos entre 2000 y 2005 para generar el balance de gases de efecto invernadero correspondiente a Europa. Sus análisis desvelaron la existencia de un sumidero de carbono en los bosques y praderas del continente que almacena 305 millones de toneladas de carbono cada año. Un sumidero de esta magnitud podría neutralizar una quinta parte de las emisiones procedentes del consumo de combustibles fósiles. Sin embargo, los terrenos agrícolas y los drenajes practicados en turberas emiten CO2, anulando parte del efecto de este sumidero.
Además, se liberan otros gases de efecto invernadero debido al uso del suelo, inutilizando casi por completo el efecto del sumidero de carbono. Esto significa que el suelo europeo sólo elimina alrededor del 2% de las emisiones de gases de efecto invernadero producidas por los hogares, el transporte y la industria.
Para realizar sus cálculos, el proyecto CARBOEUROPE desarrolló un programa de observación y modelización que ofrece una mayor resolución espacial y temporal. El proyecto también investiga los mecanismos básicos de control del ciclo del carbono en los ecosistemas europeos.
Para realizar su trabajo, los investigadores calcularon los flujos biológicos de gases de efecto invernadero de dos formas. En primer lugar separaron los flujos industriales y geológicos de los atmosféricos. En segundo lugar, midieron la absorción y emisión de CO2 en bosques, praderas, tierras de cultivo y turberas y los extrapolaron a toda Europa teniendo en cuenta cambios en el uso de suelo, el comercio de madera y alimentos, el transporte fluvial, la oxidación del metano y la extracción de turba. Parte de los investigadores dedicados al proyecto utilizaron una metodología novedosa que incluyó inventarios de bosques rusos, nuevos modelos de tierras de cultivo y estimaciones actualizadas de la transpiración de los bosques, así como las pérdidas y ganancias de carbono en el suelo tras un cambio en el uso del mismo.
«Estos descubrimientos muestran que si pretendemos que el suelo europeo contribuya a mitigar el calentamiento global, es necesario cambiar la gestión actual del suelo», admitió el profesor Schulze. «El metano y el óxido nitroso son dos gases de efecto invernadero realmente potentes y hemos de gestionar el suelo para reducir su emisión.»
Desarrollan un método para producir plásticos ecológicos
La posibilidad de fabricar un plástico 'verde' está hoy un poco más cerca. Un equipo de científicos de la Universidad KAIST en Seúl ha logrado producir polímeros a través de la bioingeniería, en lugar de utilizar combustibles fósiles.
FUENTE | El Mundo Digital 24/11/2009
Los polímeros son macrocélulas orgánicas a partir de las que se fabrican los plásticos de uso común, como botellas o bolsas de supermercado. Según afirman sus creadores, esta nueva técnica permitirá la producción de plásticos biodegradables y de baja toxicidad.
La investigación, publicada en la revista 'Biotechnology and Bioengineering' y recogida por CNN.com, se ha centrado en el Ácido Poliláctico, o PLA, un polímero constituido por moléculas de ácido láctico que se degrada fácilmente en agua y óxido de carbono.
"El poliéster y otros polímeros que utilizamos todos los días derivan en su mayoría de combustibles fósiles producidos en una refinería a través de procesos químicos", explica el profesor Sang Yup Lee, responsable de la investigación. "La idea de producir polímeros a partir de biomasa renovable ha atraído gran atención por las crecientes preocupaciones sobre el clima".
Según sus creadores el PLA, que es biodegradable y de baja toxicidad supone una buena alternativa a plásticos basados en petróleo. Hasta ahora se venía produciendo en un costoso proceso de fermentación y polimerización química. Sin embargo, los científicos coreanos lo han conseguido con la modificación metabólica de la bacteria Escherichia coli. "El calentamiento global y otros problemas medioambientales demandan que desarrollemos procesos sostenibles basados en energías renovables", asegura Sang Yup Lee.
FUENTE | El Mundo Digital 24/11/2009
Los polímeros son macrocélulas orgánicas a partir de las que se fabrican los plásticos de uso común, como botellas o bolsas de supermercado. Según afirman sus creadores, esta nueva técnica permitirá la producción de plásticos biodegradables y de baja toxicidad.
La investigación, publicada en la revista 'Biotechnology and Bioengineering' y recogida por CNN.com, se ha centrado en el Ácido Poliláctico, o PLA, un polímero constituido por moléculas de ácido láctico que se degrada fácilmente en agua y óxido de carbono.
"El poliéster y otros polímeros que utilizamos todos los días derivan en su mayoría de combustibles fósiles producidos en una refinería a través de procesos químicos", explica el profesor Sang Yup Lee, responsable de la investigación. "La idea de producir polímeros a partir de biomasa renovable ha atraído gran atención por las crecientes preocupaciones sobre el clima".
Según sus creadores el PLA, que es biodegradable y de baja toxicidad supone una buena alternativa a plásticos basados en petróleo. Hasta ahora se venía produciendo en un costoso proceso de fermentación y polimerización química. Sin embargo, los científicos coreanos lo han conseguido con la modificación metabólica de la bacteria Escherichia coli. "El calentamiento global y otros problemas medioambientales demandan que desarrollemos procesos sostenibles basados en energías renovables", asegura Sang Yup Lee.
Nueva proteína implicada en el control génico
Un equipo internacional de científicos ha identificado una nueva proteína denominada BAHD1 que puede cambiar la estructura de un cromosoma y es responsable de la silenciación de la expresión génica.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 24/11/2009
El estudio, que ayuda a ampliar conocimientos sobre la regulación génica, se ha publicado en la revista Proceedings of the National Academy of Sciences (PNAS). La investigación formó parte de PATHOGENOMICS («Cooperación y coordinación transgenómica de secuenciación del genoma y genómica funcional de microorganismos patogénicos humanos»), un proyecto comunitario de ocho años de duración perteneciente a ERA-NET que estará en marcha hasta 2012 y recibirá 3 millones de euros de financiación a través del Sexto Programa Marco (FP6).
En la investigación colaboran quince socios, entre los que se encuentra el Instituto Pasteur de París (Francia), el Centro Nacional de Investigación Científica de Francia (CNRS), el Instituto Nacional de Investigación Agronómica (INRA, Francia) y el Instituto de Investigación de Jülich (Alemania).
Una célula tumoral se origina por un cambio en los genes y por lo tanto en la composición química de una célula. Una de estas vías cancerígenas ha sido descubierta gracias a la investigación sobre el desarrollo embrionario. Una vez alcanzada la madurez, las células deben renovarse para que órganos y tejidos se mantengan sanos. Sin embargo, en el caso del embrión, sus órganos deben desarrollarse desde cero. Según parece, la activación de genes que sólo están activos en el embrión puede ser la clave del crecimiento de un cáncer.
La expresión génica es la forma en la que los genes expresan su código genético particular. Todas las células poseen los mismos genes, pero normalmente cada una de ellas sólo es capaz de usar aquellos directamente relacionados con su función. Sin embargo, algunas veces el sistema no funciona como es debido y se expresan variantes patológicas de genes que pueden provocar enfermedades genéticas o cáncer.
Todas las células de cualquier organismo (el cuerpo humano, una planta o un animal) poseen la misma información genética, pero la expresan de formas muy distintas. Por ejemplo, la piel, el pelo y los dientes humanos se componen de distintos tipos de tejidos, pero los genes que produjeron el código para crearlos realizan la misma función. El motivo de que sean capaces de producir elementos tan distintos a partir del mismo código genético es que cada tipo de célula activa sólo un pequeño grupo de genes, de tal forma que cada uno es único.
Las células «eligen» qué genes deben activarse mediante la regulación de la estructura de una sustancia denominada cromatina, material genético que consiste de cadenas de proteínas y ADN que forman nuestros cromosomas. Las cadenas de cromatina pueden aglutinarse en agregados compactos y silenciar así los genes, o bien pueden organizarse de forma más suelta y activar los genes. Por esta razón es básico identificar los factores que regulan la estructura de la cromatina. Si la estructura se altera, puede provocar enfermedades neurológicas, cáncer o anomalías del desarrollo.
El descubrimiento de BAHD1 por parte de este equipo supone un avance para la ciencia, pues su presencia en una célula silencia el gen IGF2 (factor de crecimiento II similar a la insulina), activo normalmente durante el desarrollo embrionario. El IGF2 no se encuentra por lo general activo en adultos sanos, pero sí en muchos casos de cáncer, al provocar la proliferación de células que pueden devenir en tumores.
«El descubrimiento del complejo BAHD1 aumenta el conocimiento que poseemos sobre los mecanismos que regulan los genes de nuestras células», indicó la Dra. Marion Karrasch Bott del Forschungszentrum Jülich, que coordina PATHOGENOMICS. «Este tipo de conocimientos podría desembocar en nuevas terapias contra el cáncer encaminadas a volver a silenciar genes activados a destiempo o dar lugar a nuevos marcadores pronósticos.»
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 24/11/2009
El estudio, que ayuda a ampliar conocimientos sobre la regulación génica, se ha publicado en la revista Proceedings of the National Academy of Sciences (PNAS). La investigación formó parte de PATHOGENOMICS («Cooperación y coordinación transgenómica de secuenciación del genoma y genómica funcional de microorganismos patogénicos humanos»), un proyecto comunitario de ocho años de duración perteneciente a ERA-NET que estará en marcha hasta 2012 y recibirá 3 millones de euros de financiación a través del Sexto Programa Marco (FP6).
En la investigación colaboran quince socios, entre los que se encuentra el Instituto Pasteur de París (Francia), el Centro Nacional de Investigación Científica de Francia (CNRS), el Instituto Nacional de Investigación Agronómica (INRA, Francia) y el Instituto de Investigación de Jülich (Alemania).
Una célula tumoral se origina por un cambio en los genes y por lo tanto en la composición química de una célula. Una de estas vías cancerígenas ha sido descubierta gracias a la investigación sobre el desarrollo embrionario. Una vez alcanzada la madurez, las células deben renovarse para que órganos y tejidos se mantengan sanos. Sin embargo, en el caso del embrión, sus órganos deben desarrollarse desde cero. Según parece, la activación de genes que sólo están activos en el embrión puede ser la clave del crecimiento de un cáncer.
La expresión génica es la forma en la que los genes expresan su código genético particular. Todas las células poseen los mismos genes, pero normalmente cada una de ellas sólo es capaz de usar aquellos directamente relacionados con su función. Sin embargo, algunas veces el sistema no funciona como es debido y se expresan variantes patológicas de genes que pueden provocar enfermedades genéticas o cáncer.
Todas las células de cualquier organismo (el cuerpo humano, una planta o un animal) poseen la misma información genética, pero la expresan de formas muy distintas. Por ejemplo, la piel, el pelo y los dientes humanos se componen de distintos tipos de tejidos, pero los genes que produjeron el código para crearlos realizan la misma función. El motivo de que sean capaces de producir elementos tan distintos a partir del mismo código genético es que cada tipo de célula activa sólo un pequeño grupo de genes, de tal forma que cada uno es único.
Las células «eligen» qué genes deben activarse mediante la regulación de la estructura de una sustancia denominada cromatina, material genético que consiste de cadenas de proteínas y ADN que forman nuestros cromosomas. Las cadenas de cromatina pueden aglutinarse en agregados compactos y silenciar así los genes, o bien pueden organizarse de forma más suelta y activar los genes. Por esta razón es básico identificar los factores que regulan la estructura de la cromatina. Si la estructura se altera, puede provocar enfermedades neurológicas, cáncer o anomalías del desarrollo.
El descubrimiento de BAHD1 por parte de este equipo supone un avance para la ciencia, pues su presencia en una célula silencia el gen IGF2 (factor de crecimiento II similar a la insulina), activo normalmente durante el desarrollo embrionario. El IGF2 no se encuentra por lo general activo en adultos sanos, pero sí en muchos casos de cáncer, al provocar la proliferación de células que pueden devenir en tumores.
«El descubrimiento del complejo BAHD1 aumenta el conocimiento que poseemos sobre los mecanismos que regulan los genes de nuestras células», indicó la Dra. Marion Karrasch Bott del Forschungszentrum Jülich, que coordina PATHOGENOMICS. «Este tipo de conocimientos podría desembocar en nuevas terapias contra el cáncer encaminadas a volver a silenciar genes activados a destiempo o dar lugar a nuevos marcadores pronósticos.»
viernes, 20 de noviembre de 2009
El sorprendente pasado cálido de la Antártida
La temperatura en la Antártida no está en su pico máximo. Aunque las consecuencias del cambio climático podrían llevar a pensar que atravesamos la época más cálida de los últimos milenios, la temperatura del Polo Sur fue alrededor de seis grados centígrados superior a la actual durante el último periodo cálido, que tuvo lugar hace 125.000 años.
FUENTE | El Mundo Digital 20/11/2009
Una investigación, publicada este jueves en la revista 'Nature', ha analizado testigos de hielo tomados en la Antártida a profundidades de hasta 1.000 metros y ha demostrado que la temperatura durante los periodos interglaciales -épocas cálidas situadas entre las glaciaciones- era más alta de lo que la ciencia pensaba hasta la fecha.
"No sólo hemos demostrado que la temperatura era hasta seis grados superior a la actual, sino que también el nivel del mar era entre cuatro y cinco metros más alto que hoy en día", asegura la investigadora del British Antartic Survey y autora principal del trabajo, Louise Sime, a EL MUNDO.
UN DESCUBRIMIENTO SORPRENDENTE
Tal cantidad de agua procedía de Groenlandia y de la Antártida, lo que hace pensar a los científicos que la cantidad de hielo en ambos lugares era menor que en la actualidad. "No esperábamos encontrar temperaturas tan altas y, de hecho, aún no sabemos en detalle qué las causó", dice Sime.
La autora explica que la temperatura y la concentración de CO2 en la atmósfera han ido de la mano durante los últimos milenios. "En aquella época había entre 280 y 300 partes por millón de CO2 y hoy tenemos casi 400. La pregunta del millón es qué sucederá en los próximos años si sigue aumentando este gas en la atmósfera", se pregunta. "Lo que indica nuestro trabajo es que el clima de la Antártida ha sufrido cambios muy rápidos en los últimos periodos con altos niveles de CO2", añade.
Entonces, ¿estos nuevos datos suponen que ya tenemos un ejemplo de lo que sucederá a consecuencia del cambio climático? "Si llegamos a conocer en detalle cómo de cálidos fueron el Polo Sur y Groenlandia, podremos realizar predicciones sobre la contribución de la fusión de estas masas de hielo al aumento del nivel del mar en el futuro», explica Eric Wolff, coautor y uno de los mayores expertos del mundo en climas pasados.
FUENTE | El Mundo Digital 20/11/2009
Una investigación, publicada este jueves en la revista 'Nature', ha analizado testigos de hielo tomados en la Antártida a profundidades de hasta 1.000 metros y ha demostrado que la temperatura durante los periodos interglaciales -épocas cálidas situadas entre las glaciaciones- era más alta de lo que la ciencia pensaba hasta la fecha.
"No sólo hemos demostrado que la temperatura era hasta seis grados superior a la actual, sino que también el nivel del mar era entre cuatro y cinco metros más alto que hoy en día", asegura la investigadora del British Antartic Survey y autora principal del trabajo, Louise Sime, a EL MUNDO.
UN DESCUBRIMIENTO SORPRENDENTE
Tal cantidad de agua procedía de Groenlandia y de la Antártida, lo que hace pensar a los científicos que la cantidad de hielo en ambos lugares era menor que en la actualidad. "No esperábamos encontrar temperaturas tan altas y, de hecho, aún no sabemos en detalle qué las causó", dice Sime.
La autora explica que la temperatura y la concentración de CO2 en la atmósfera han ido de la mano durante los últimos milenios. "En aquella época había entre 280 y 300 partes por millón de CO2 y hoy tenemos casi 400. La pregunta del millón es qué sucederá en los próximos años si sigue aumentando este gas en la atmósfera", se pregunta. "Lo que indica nuestro trabajo es que el clima de la Antártida ha sufrido cambios muy rápidos en los últimos periodos con altos niveles de CO2", añade.
Entonces, ¿estos nuevos datos suponen que ya tenemos un ejemplo de lo que sucederá a consecuencia del cambio climático? "Si llegamos a conocer en detalle cómo de cálidos fueron el Polo Sur y Groenlandia, podremos realizar predicciones sobre la contribución de la fusión de estas masas de hielo al aumento del nivel del mar en el futuro», explica Eric Wolff, coautor y uno de los mayores expertos del mundo en climas pasados.
sábado, 14 de noviembre de 2009
Calidad del aire: los líquenes

La gran sensibilidad de los líquenes a la contaminación atmosférica es la clave que los convierte en indicadores biológicos de la calidad del aire en la ciudad. Se trata de un método económico, sencillo y eficaz que los investigadores de la Complutense mostrarán a través de la observación de lo más pequeño, los impactos que sufre el medio.
Las características biológicas de los líquenes, una asociación entre alga y hongo que puede vivir con escasos nutrientes, han convertido a estos organismos en bioindicadores capaces de proporcionar información sobre los niveles de contaminación atmosférica en el entorno.
Su extremada sensibilidad al dióxido de azufre hace que las distintas especies se distribuyan de manera diferente en función de la mayor o menor presencia de este contaminante, así como de la resistencia frente a él que ofrece cada una de ellas.
La monitorización de la presencia de estas especies a lo largo del tiempo consigue trazar un mapa del estado de salud crónico del aire que se respira en las ciudades. Como explica la profesora Ana María Crespo, bióloga evolutiva y experta en liquenología, "esta técnica permite el seguimiento de la evolución de la calidad del aire en territorios muy extensos a través del estudio de una nube de puntos tan densa como se quiera".
La utilización de este método presenta algunas ventajas con respecto a los sistemas de captación de aire para el análisis de su composición química. Por un lado, es mucho más económico, ya que no requiere de la instalación de costosos aparatos. Además, los resultados informan no de la composición del aire en momentos puntuales, sino de su estado de salud a más largo plazo, ya que las diferentes especies de líquenes se instalan o no dependiendo de los valores medios que alcance la concentración de algunos contaminantes.
El estudio de los líquenes como bioindicadores se inició ya en el siglo XIX y, desde entonces, ha sido objeto de más de 1.500 artículos en revistas científicas internacionales. En países como Inglaterra ya están en marcha iniciativas que cuentan con participación ciudadana y escolar para realizar un seguimiento de la calidad del aire en todo el territorio nacional a gran escala. El equipo investigador espera, estimular las relaciones de la universidad con otras esferas sociales y favorecer así la divulgación de la ciencia y la participación de la ciudadanía en la creación de la ciencia misma.
lunes, 9 de noviembre de 2009
Fundación Atapuerca
Aquí os dejo el enlace a la Fundación Atapuerca, que tiene como objeto difundir y promover de forma activa los descubrimientos e investigaciones que se están llevando a cabo en la Sierra de Atapuerca en los últimos años.
Tiene un espacio didáctico que espero utilices y te ayude en el estudio de la evolución humana y amplie tus conocimientos de la prehistoria.
Fundación Atapuerca
Tiene un espacio didáctico que espero utilices y te ayude en el estudio de la evolución humana y amplie tus conocimientos de la prehistoria.
Fundación Atapuerca
viernes, 23 de octubre de 2009
¿Qué pasará si la temperatura sube 4ºC?
Conseguir que el incremento de la temperatura del planeta no supere los 2ºC con respecto a los niveles preindustriales. Ese es el límite marcado por los científicos para evitar impactos dramáticos derivados del calentamiento global. Para ello habría que mantener la concentración de dióxido de carbono en la atmósfera en 450 partes por millón. Si no, la temperatura podría dispararse por encima de ese nivel de seguridad.
FUENTE | ABC Periódico Electrónico S.A. 23/10/2009
Y eso es lo que ha querido simular el Gobierno británico en un mapa que ilustra las repercusiones que una subida de 4ºC en la temperatura puede tener para el planeta. Es lo que podría pasar si no se logra en la cumbre de diciembre en Copenhague un acuerdo para reducir la concentración de CO2 en la atmósfera a un nivel seguro.Para verlo pulsa aqui.
A poco más de 40 días para que comience esa cumbre, el mapa ha sido desarrollado usando la información y análisis científico más actualizado del Centro Hadley de la Oficina Meteorológica británica y por otros científicos de primer orden. Y lo que proporciona «es una prueba gráfica de la dramática transformación que nuestro mundo sufriría con un aumento medio de la temperatura de 4ºC. No deja duda alguna sobre la importancia de un resultado exitoso en las negociaciones de Copenhague», afirma el profesor Chris Rapley, director del Museo de Ciencias de Londres.
Según este mapa de impactos la subida del nivel del mar y las marejadas ciclónicas podrían suponer un peligro grave para la población y los bienes materiales en los Países Bajos y algunas zonas del sudeste del Reino Unido; es posible que algo más de 3.000 millones de personas -de una población mundial de 7.500 millones- viva en zonas con una disponibilidad de agua per cápita limitada (menos de 1.000 metros cúbicos por persona al año); y los días más calurosos del año en toda Europa podrían aumentar su temperatura en hasta 8ºC con respecto a las cotas actuales.
Son sólo algunos ejemplos que «muestran la importancia de lo que está en juego en Copenhague. Los científicos del Reino Unido han ayudado a ilustrar los efectos catastróficos que resultarán si el mundo fracasa en establecer el límite del incremento de la temperatura en 2 grados», aseguró Ed Miliband, ministro de Energía y para el Cambio Climático de Reino Unido.
El mapa cuenta con una versión online que proporciona una herramienta interactiva, permitiendo al usuario fijarse en algunos de los impactos, datos geográficos y el acceso a más información sobre la datos científicos que han contribuido a la creación del mapa.
Autor: Araceli Acosta
FUENTE | ABC Periódico Electrónico S.A. 23/10/2009
Y eso es lo que ha querido simular el Gobierno británico en un mapa que ilustra las repercusiones que una subida de 4ºC en la temperatura puede tener para el planeta. Es lo que podría pasar si no se logra en la cumbre de diciembre en Copenhague un acuerdo para reducir la concentración de CO2 en la atmósfera a un nivel seguro.Para verlo pulsa aqui.
A poco más de 40 días para que comience esa cumbre, el mapa ha sido desarrollado usando la información y análisis científico más actualizado del Centro Hadley de la Oficina Meteorológica británica y por otros científicos de primer orden. Y lo que proporciona «es una prueba gráfica de la dramática transformación que nuestro mundo sufriría con un aumento medio de la temperatura de 4ºC. No deja duda alguna sobre la importancia de un resultado exitoso en las negociaciones de Copenhague», afirma el profesor Chris Rapley, director del Museo de Ciencias de Londres.
Según este mapa de impactos la subida del nivel del mar y las marejadas ciclónicas podrían suponer un peligro grave para la población y los bienes materiales en los Países Bajos y algunas zonas del sudeste del Reino Unido; es posible que algo más de 3.000 millones de personas -de una población mundial de 7.500 millones- viva en zonas con una disponibilidad de agua per cápita limitada (menos de 1.000 metros cúbicos por persona al año); y los días más calurosos del año en toda Europa podrían aumentar su temperatura en hasta 8ºC con respecto a las cotas actuales.
Son sólo algunos ejemplos que «muestran la importancia de lo que está en juego en Copenhague. Los científicos del Reino Unido han ayudado a ilustrar los efectos catastróficos que resultarán si el mundo fracasa en establecer el límite del incremento de la temperatura en 2 grados», aseguró Ed Miliband, ministro de Energía y para el Cambio Climático de Reino Unido.
El mapa cuenta con una versión online que proporciona una herramienta interactiva, permitiendo al usuario fijarse en algunos de los impactos, datos geográficos y el acceso a más información sobre la datos científicos que han contribuido a la creación del mapa.
Autor: Araceli Acosta
jueves, 22 de octubre de 2009
El hombre adelanta a Darwin
La costumbre humana de cazar siempre el animal más grande está provocando una nueva evolución tres veces más rápida de la que predijo Darwin. En el mar, especies como el bacalao o el salmón se están haciendo más pequeñas y maduran antes debido a la sobrepesca. En tierra, el tamaño de algunos trofeos de caza está en declive.
FUENTE | Público 20/10/2009
Los carneros de las montañas rocosas tienen cuernos más pequeños y algunos elefantes nacen sin sus preciados colmillos de marfil. Las causas de este fenómeno aun están a debate, pero cada vez más expertos hablan de una nueva versión evolutiva en la que sobrevive el más pequeño y débil.
"No hay duda de que se está produciendo un cambio evolutivo", explica el investigador de la Universidad de Islandia Einar Árnason. Su equipo demostró que el bacalao, una de las especies más esquilmadas por el hombre, ha cambiado sus genes debido a la sobrepesca. Estudiaron especímenes de la costa islandesa y demostraron que los genes que hacen que algunos grupos prefieran aguas poco profundas está en franco declive debido a que, durante décadas, han sido los primeros en caer a manos de los pescadores. Árnason también registró un descenso del tamaño de estos animales y una maduración cada vez más precoz fruto de la sobrepesca. En teoría, la especie se estaba asegurando poder dejar descendencia antes de ser atrapada, pero, a cambio, el tamaño de su progenie disminuye. Un fenómeno similar sucedió con el bacalao de las costas de Terranova antes de que prácticamente desapareciera a principios de la década de los noventa. Árnason alerta de que los cambios genéticos que ha detectado en los bancos islandeses podrían estar prediciendo un nuevo colapso. "Estos cambios pueden sobrevenir muy fácilmente", advierte.
El bacalao no es el único que evoluciona para adaptarse al hombre. Un estudio publicado a principios de año en PNAS mantiene que 29 especies que son presa habitual del hombre han disminuido su tamaño en casi un 20% y maduran casi un 25% antes. Estos efectos son resultado de una selección artificial que priva a muchas especies de sus ejemplares más grandes y mejor preparados para reproducirse.
"El hombre es el único vertebrado que caza presas grandes", señala Chris Darimont, uno de los investigadores que firmaba el estudio de PNAS. Esto es justo lo contrario de lo que sucede en la naturaleza, donde las crías y los individuos más débiles suelen ser la presa habitual de sus depredadores.
Darimont comparó el ritmo al que se están produciendo estos cambios al que podría esperarse con las leyes de Darwin en la mano. Son 3,4 veces más rápidos. Su estudio alerta de que estos cambios pueden disminuir la capacidad de una especie de prosperar, ya que un tamaño menor y una madurez precoz está asociada a una menor capacidad reproductiva. Además, dejaría a algunos depredadores, como es el bacalao, en desventaja ante sus presas. Por su parte, el hombre tendrá que acostumbrarse a pescar peces cada vez más pequeños.
La vuelta atrás no será tan rápida. "La velocidad a la que están disminuyendo el tamaño es probablemente mucho más alta que la velocidad de recuperación", explica Marco Festa-Bianchet, que trabaja en la Universidad de Sherbrooke, en Canadá. Durante 30 años, este investigador estudió una población de carnero de las rocosas en Alberta. Los cuernos de esta especie son un preciado trofeo de caza. Según sus datos, publicados en Nature en 2003, el tamaño de la osamenta se redujo en un 25% en el periodo de estudio debido a la presión cinegética. El peso medio de los machos cayó unos 20 kilos. "Estamos matando a los mejores individuos, justo lo contrario que han hecho los agricultores y ganaderos durante miles de años", destaca.
Lo mismo señala el español Fran Saborido-Rey, que coordina una red europea de investigación sobre pesquerías desde el Instituto de Investigaciones Marinas de Vigo. Señala que este fenómeno reduce la variedad genética de una especie, que es su seguro de vida contra cambios drásticos en el ecosistema. Esto sería lo que sucedió con el bacalao de Terranova, comenta.
LENTA RECUPERACIÓN
Una vez se cambia el genotipo de una especie, es muy difícil, o tal vez imposible, revertir el cambio. Un estudio publicado en marzo ha sido el primero en demostrar que se pueden revertir los cambios genéticos tras un periodo de disminución del tamaño debido a la pesca. El trabajo se basa en un experimento en un tanque en el que se pescaron durante varias generaciones las sardinas más grandes, dejando a las pequeñas intactas. El tamaño y la edad de madurez de la especie disminuyó. Luego dejaron de pescar y la especie volvió, lentamente, a crecer. Señala que serían necesarias unas 12 generaciones para recuperarse completamente. También advierte de que la mayoría de pesquerías vive entre tres y siete años, lo que supone que tardarían décadas en recuperar lo perdido, y sólo en el caso de que se deje de pescar.
Aunque los cambios que está causando el hombre son indiscutibles, algunos investigadores ofrecen otras explicaciones. Señalan que los cambios que se están observando pueden deberse a razones medioambientales y no genéticas, es decir, a algo conocido como "plasticidad fenotípica". Explican, por ejemplo, que el hecho de que la pesca deje menos individuos capaces de reproducirse puede explicar que el resto se reproduzcan antes. Los cambios también podrían deberse a que haya más o menos alimento disponible para las especies.
Lo más probable es que tanto los genes como el medio ambiente estén contribuyendo, señala Mikko Heino, un investigador de la Universidad de Bergen (Noruega) que lleva años estudiando el impacto evolutivo de la pesca. "Los cambios fenotípicos son importantes, pero no pueden explicar todos los cambios", explica. Heino y Saborido-Rey participan en un proyecto europeo que está reuniendo más datos genéticos y morfológicos de las pesquerías y también desarrollando modelos para predecir el impacto de la explotación. Los resultados estarán listos a finales de 2010. "Van a aportar suficientes pruebas para que los escépticos vean que estos cambios genéticos son reales y están sucediendo ya en especies como el bacalao, el salmón o la solla", comenta.
Ambos procesos están ocurriendo en paralelo, pero eso no es lo más importante, señala Darimont. "Lo que importa es que estos animales están cambiando debido al hombre y, cuando esto sucede, son de esperar impactos muy serios", destaca.
Muchos coinciden en que la solución pasa por renovar las políticas de pesca. El pezqueñines no, gracias habría subestimado la cantidad de peces grandes que es capaz de atrapar el hombre con las nuevas técnicas de pesca.
"Deberíamos proteger a los peces grandes", reclama Árnason. "Tenemos que conservar a los más grandes y mayores porque son claves para alumbrar nuevas generaciones", añade. Pero, tal y como están concebidas las artes de pesca y las leyes que las regulan, esta tarea resulta muy difícil, comenta Saborido-Rey. Primero habría que dejar que algunas especies, como el bacalao, se recuperaran. Después deberían establecerse reservas en las que los individuos más grandes puedan criar y mantener así al resto de la especie.
Autor: Nuño Domínguez
FUENTE | Público 20/10/2009
Los carneros de las montañas rocosas tienen cuernos más pequeños y algunos elefantes nacen sin sus preciados colmillos de marfil. Las causas de este fenómeno aun están a debate, pero cada vez más expertos hablan de una nueva versión evolutiva en la que sobrevive el más pequeño y débil.
"No hay duda de que se está produciendo un cambio evolutivo", explica el investigador de la Universidad de Islandia Einar Árnason. Su equipo demostró que el bacalao, una de las especies más esquilmadas por el hombre, ha cambiado sus genes debido a la sobrepesca. Estudiaron especímenes de la costa islandesa y demostraron que los genes que hacen que algunos grupos prefieran aguas poco profundas está en franco declive debido a que, durante décadas, han sido los primeros en caer a manos de los pescadores. Árnason también registró un descenso del tamaño de estos animales y una maduración cada vez más precoz fruto de la sobrepesca. En teoría, la especie se estaba asegurando poder dejar descendencia antes de ser atrapada, pero, a cambio, el tamaño de su progenie disminuye. Un fenómeno similar sucedió con el bacalao de las costas de Terranova antes de que prácticamente desapareciera a principios de la década de los noventa. Árnason alerta de que los cambios genéticos que ha detectado en los bancos islandeses podrían estar prediciendo un nuevo colapso. "Estos cambios pueden sobrevenir muy fácilmente", advierte.
El bacalao no es el único que evoluciona para adaptarse al hombre. Un estudio publicado a principios de año en PNAS mantiene que 29 especies que son presa habitual del hombre han disminuido su tamaño en casi un 20% y maduran casi un 25% antes. Estos efectos son resultado de una selección artificial que priva a muchas especies de sus ejemplares más grandes y mejor preparados para reproducirse.
"El hombre es el único vertebrado que caza presas grandes", señala Chris Darimont, uno de los investigadores que firmaba el estudio de PNAS. Esto es justo lo contrario de lo que sucede en la naturaleza, donde las crías y los individuos más débiles suelen ser la presa habitual de sus depredadores.
Darimont comparó el ritmo al que se están produciendo estos cambios al que podría esperarse con las leyes de Darwin en la mano. Son 3,4 veces más rápidos. Su estudio alerta de que estos cambios pueden disminuir la capacidad de una especie de prosperar, ya que un tamaño menor y una madurez precoz está asociada a una menor capacidad reproductiva. Además, dejaría a algunos depredadores, como es el bacalao, en desventaja ante sus presas. Por su parte, el hombre tendrá que acostumbrarse a pescar peces cada vez más pequeños.
La vuelta atrás no será tan rápida. "La velocidad a la que están disminuyendo el tamaño es probablemente mucho más alta que la velocidad de recuperación", explica Marco Festa-Bianchet, que trabaja en la Universidad de Sherbrooke, en Canadá. Durante 30 años, este investigador estudió una población de carnero de las rocosas en Alberta. Los cuernos de esta especie son un preciado trofeo de caza. Según sus datos, publicados en Nature en 2003, el tamaño de la osamenta se redujo en un 25% en el periodo de estudio debido a la presión cinegética. El peso medio de los machos cayó unos 20 kilos. "Estamos matando a los mejores individuos, justo lo contrario que han hecho los agricultores y ganaderos durante miles de años", destaca.
Lo mismo señala el español Fran Saborido-Rey, que coordina una red europea de investigación sobre pesquerías desde el Instituto de Investigaciones Marinas de Vigo. Señala que este fenómeno reduce la variedad genética de una especie, que es su seguro de vida contra cambios drásticos en el ecosistema. Esto sería lo que sucedió con el bacalao de Terranova, comenta.
LENTA RECUPERACIÓN
Una vez se cambia el genotipo de una especie, es muy difícil, o tal vez imposible, revertir el cambio. Un estudio publicado en marzo ha sido el primero en demostrar que se pueden revertir los cambios genéticos tras un periodo de disminución del tamaño debido a la pesca. El trabajo se basa en un experimento en un tanque en el que se pescaron durante varias generaciones las sardinas más grandes, dejando a las pequeñas intactas. El tamaño y la edad de madurez de la especie disminuyó. Luego dejaron de pescar y la especie volvió, lentamente, a crecer. Señala que serían necesarias unas 12 generaciones para recuperarse completamente. También advierte de que la mayoría de pesquerías vive entre tres y siete años, lo que supone que tardarían décadas en recuperar lo perdido, y sólo en el caso de que se deje de pescar.
Aunque los cambios que está causando el hombre son indiscutibles, algunos investigadores ofrecen otras explicaciones. Señalan que los cambios que se están observando pueden deberse a razones medioambientales y no genéticas, es decir, a algo conocido como "plasticidad fenotípica". Explican, por ejemplo, que el hecho de que la pesca deje menos individuos capaces de reproducirse puede explicar que el resto se reproduzcan antes. Los cambios también podrían deberse a que haya más o menos alimento disponible para las especies.
Lo más probable es que tanto los genes como el medio ambiente estén contribuyendo, señala Mikko Heino, un investigador de la Universidad de Bergen (Noruega) que lleva años estudiando el impacto evolutivo de la pesca. "Los cambios fenotípicos son importantes, pero no pueden explicar todos los cambios", explica. Heino y Saborido-Rey participan en un proyecto europeo que está reuniendo más datos genéticos y morfológicos de las pesquerías y también desarrollando modelos para predecir el impacto de la explotación. Los resultados estarán listos a finales de 2010. "Van a aportar suficientes pruebas para que los escépticos vean que estos cambios genéticos son reales y están sucediendo ya en especies como el bacalao, el salmón o la solla", comenta.
Ambos procesos están ocurriendo en paralelo, pero eso no es lo más importante, señala Darimont. "Lo que importa es que estos animales están cambiando debido al hombre y, cuando esto sucede, son de esperar impactos muy serios", destaca.
Muchos coinciden en que la solución pasa por renovar las políticas de pesca. El pezqueñines no, gracias habría subestimado la cantidad de peces grandes que es capaz de atrapar el hombre con las nuevas técnicas de pesca.
"Deberíamos proteger a los peces grandes", reclama Árnason. "Tenemos que conservar a los más grandes y mayores porque son claves para alumbrar nuevas generaciones", añade. Pero, tal y como están concebidas las artes de pesca y las leyes que las regulan, esta tarea resulta muy difícil, comenta Saborido-Rey. Primero habría que dejar que algunas especies, como el bacalao, se recuperaran. Después deberían establecerse reservas en las que los individuos más grandes puedan criar y mantener así al resto de la especie.
Autor: Nuño Domínguez
viernes, 16 de octubre de 2009
El hallazgo de la telomerasa, una misión molecular
En los años setenta del siglo XX la investigación puntera en biología molecular estaba centrada en la secuenciación de genes. Fred Sanger acabada de desarrollar métodos que permitían leer el contenido de ADN de los genes, lo que ayudaba a desvelar su función. Por sus trabajos en secuenciación, Sanger recibió su segundo Premio Nobel de Química en 1980.
FUENTE | El País Digital 16/10/2009
Entre los cazadores de genes del laboratorio de Sanger en Cambridge (Reino Unido) se encontraba Elizabeth (Liz) Blackburn, una joven australiana fascinada por la investigación como modus vivendi (según sus propias palabras, en el mundo de la investigación se sentía segura).
Tras finalizar su tesis doctoral y convertirse en una experta en la tecnología de la secuenciación, Liz dio el paso, habitual en la carrera científica, de hacer una estancia postdoctoral en Estados Unidos. Eligió el laboratorio de Joe Gall en la Universidad de Yale, que estaba centrado en el estudio de los cromosomas.
Gall ya era famoso por aquel entonces por ser uno de los pocos científicos del momento que se tomaban un interés especial en apoyar la carrera de las mujeres investigadoras. El equipo investigador de Gall estaba formado por algunas de las mujeres que luego serían los pilares fundacionales del campo de la investigación en los telómeros (Elizabeth Blackburn, Ginger Zakian, Marie Lou Pardue) y también algunos hombres notables como Tom Cech (destacado investigador en telómeros y telomerasa, Premio Nobel en 1989 por el descubrimiento de las ribozimas).
El proyecto de Blackburn consistía en secuenciar los telómeros de un organismo unicelular bastante exótico, llamado Tetrahymena, que tiene la particularidad, muy ventajosa en este caso, de tener cientos de pequeños cromosomas. Los telómeros habían sido descubiertos en los años cuarenta del siglo XX por los investigadores Hermann Müller y Barbara McClintock, quienes estudiaban la estabilidad de los cromosomas de la mosca del vinagre (Drosophila) y del maíz, respectivamente. Éstos observaron de manera independiente que la parte del final de los cromosomas (telómero, del griego telos -parte- y meros -final-, término acuñado por Müller) tenía una naturaleza especial que evitaba que los cromosomas se fusionaran o degradaran.
Ambos investigadores recibieron el premio Nobel años después, aunque no por el descubrimiento de los telómeros sino por sus trabajos sobre los efectos mutagénicos de la radiación en el caso de Müller y por la descripción de los elementos genéticos móviles en el caso de McClintock. Desde los años cuarenta hasta que Blackburn se dispuso a secuenciar los telómeros transcurrieron más de 30 años, durante los cuales los telómeros estuvieron en el olvido más absoluto.
En 1978, tanto Blackburn como Gall quedaron un tanto decepcionados al ver por primera vez la secuencia de los telómeros de Tetrahymena. Se trataba de una secuencia repetida (TTGGGG) y heterogénea en longitud, algo que ciertamente no daba muchas claves sobre su funcionamiento. Además, no era lo que esperaban: por aquel entonces estaban de moda unas estructuras del ADN en horquilla al final de los cromosomas lineales de algunos virus, lo que les permitía resolver el problema de la replicación terminal. Este problema es famoso en biología y lo identificó James Watson, el descubridor de la estructura del ADN. Consiste en el hecho de que las enzimas que sintetizan el ADN son incapaces de copiar los extremos lineales del ADN.
Al ser el único telómero secuenciado, y además tratarse de un organismo tan freaky (en palabras de Blackburn), no estaban seguros de como de universal era su descubrimiento. Así, la primera descripción de la naturaleza de los telómeros se publicó en una revista modesta. Tras abandonar el laboratorio de Gall para establecer su propio grupo de investigación, Blackburn decidió centrarse en el estudio de los telómeros. Evidencias de varios grupos, incluidos los propios trabajos de Blackburn y su colaborador Jack Szostak, sugerían que tenía que haber una actividad capaz de sintetizar telómeros de novo. En 1982, Blackburn y Szostak propusieron que tendría que tratarse de una transferasa terminal, un enzima ya descrito por aquel entonces que era capaz de añadir secuencias a los extremos de ADN de novo. Independientemente, los laboratorios de Blackburn y Szostak se embarcaron en la búsqueda de la transferasa terminal de los telómeros.
En 1984, Liz consiguió convencer a una jovencísima Carol Greider de que realizara su tesis doctoral en su laboratorio. Su proyecto consistiría en el descubrimiento del enzima que alargaba los telómeros. Por lo arriesgado del proyecto, Liz había tenido dificultades en conseguir la atención de los estudiantes predoctorales, pero Carol no lo dudó ni un segundo. A los pocos meses, el 25 de diciembre de 1984, Carol obtuvo la primera evidencia de que tal enzima existía. Por aquel entonces apenas tenía 23 años y había hecho un descubrimiento trascendental que ahora se ha reconocido con el premio Nobel. Poco después se dieron cuenta de que no se trataba de una transferasa terminal, sino de una transcriptasa en reverso, que necesita de una molécula de ARN para su funcionamiento y a la cual denominaron telomerasa. La telomerasa era, por tanto, el mecanismo de mantenimiento de los extremos de los cromosomas eucarióticos. Ya fue sólo una cuestión de tiempo demostrar su predicha importancia para el cáncer y el envejecimiento.
En 1990, Cal Harley, Bruce Futcher y Carol Greider demostraron por primera vez que los telómeros se acortaban asociados al proceso de envejecimiento y propusieron la hipótesis telomérica, según la cual las células normales tienen dormido (silenciado) el gen de la telomerasa y, por tanto, sus telómeros se acortan progresivamente hasta que finalmente determinan el final proliferativo de las células. En contraste, las células cancerosas despiertan el gen de la telomerasa y gracias a ello pueden mantener sus telómeros indefinidamente y así multiplicarse sin límite.
Una explosión de estudios por multitud de laboratorios verificó en pocos años que esta hipótesis era correcta. Hoy en día la telomerasa tiene un interés biomédico doble. Por un lado, se intenta eliminar de las células tumorales para así frenar el crecimiento del tumor y, por otro lado, su reactivación se ve como una promesa para alargar la vida de las células.
Tras los laureles del Nobel, todos los investigadores en este campo esperamos que algún día la investigación en telomerasa sirva para hacer más efectivo el tratamiento de enfermos de cáncer y de aquellos que sufren enfermedades asociadas al envejecimiento. ¿Y por qué no soñar? Quizás estemos ante la fuente de la eterna juventud.
Autor: María Blasco (Jefa del Grupo de Telómeros y Telomerasa del Centro Nacional de Investigaciones Oncológicas, donde también es directora del Programa de Oncología Molecular y vicedirectora de Investigación Básica)
FUENTE | El País Digital 16/10/2009
Entre los cazadores de genes del laboratorio de Sanger en Cambridge (Reino Unido) se encontraba Elizabeth (Liz) Blackburn, una joven australiana fascinada por la investigación como modus vivendi (según sus propias palabras, en el mundo de la investigación se sentía segura).
Tras finalizar su tesis doctoral y convertirse en una experta en la tecnología de la secuenciación, Liz dio el paso, habitual en la carrera científica, de hacer una estancia postdoctoral en Estados Unidos. Eligió el laboratorio de Joe Gall en la Universidad de Yale, que estaba centrado en el estudio de los cromosomas.
Gall ya era famoso por aquel entonces por ser uno de los pocos científicos del momento que se tomaban un interés especial en apoyar la carrera de las mujeres investigadoras. El equipo investigador de Gall estaba formado por algunas de las mujeres que luego serían los pilares fundacionales del campo de la investigación en los telómeros (Elizabeth Blackburn, Ginger Zakian, Marie Lou Pardue) y también algunos hombres notables como Tom Cech (destacado investigador en telómeros y telomerasa, Premio Nobel en 1989 por el descubrimiento de las ribozimas).
El proyecto de Blackburn consistía en secuenciar los telómeros de un organismo unicelular bastante exótico, llamado Tetrahymena, que tiene la particularidad, muy ventajosa en este caso, de tener cientos de pequeños cromosomas. Los telómeros habían sido descubiertos en los años cuarenta del siglo XX por los investigadores Hermann Müller y Barbara McClintock, quienes estudiaban la estabilidad de los cromosomas de la mosca del vinagre (Drosophila) y del maíz, respectivamente. Éstos observaron de manera independiente que la parte del final de los cromosomas (telómero, del griego telos -parte- y meros -final-, término acuñado por Müller) tenía una naturaleza especial que evitaba que los cromosomas se fusionaran o degradaran.
Ambos investigadores recibieron el premio Nobel años después, aunque no por el descubrimiento de los telómeros sino por sus trabajos sobre los efectos mutagénicos de la radiación en el caso de Müller y por la descripción de los elementos genéticos móviles en el caso de McClintock. Desde los años cuarenta hasta que Blackburn se dispuso a secuenciar los telómeros transcurrieron más de 30 años, durante los cuales los telómeros estuvieron en el olvido más absoluto.
En 1978, tanto Blackburn como Gall quedaron un tanto decepcionados al ver por primera vez la secuencia de los telómeros de Tetrahymena. Se trataba de una secuencia repetida (TTGGGG) y heterogénea en longitud, algo que ciertamente no daba muchas claves sobre su funcionamiento. Además, no era lo que esperaban: por aquel entonces estaban de moda unas estructuras del ADN en horquilla al final de los cromosomas lineales de algunos virus, lo que les permitía resolver el problema de la replicación terminal. Este problema es famoso en biología y lo identificó James Watson, el descubridor de la estructura del ADN. Consiste en el hecho de que las enzimas que sintetizan el ADN son incapaces de copiar los extremos lineales del ADN.
Al ser el único telómero secuenciado, y además tratarse de un organismo tan freaky (en palabras de Blackburn), no estaban seguros de como de universal era su descubrimiento. Así, la primera descripción de la naturaleza de los telómeros se publicó en una revista modesta. Tras abandonar el laboratorio de Gall para establecer su propio grupo de investigación, Blackburn decidió centrarse en el estudio de los telómeros. Evidencias de varios grupos, incluidos los propios trabajos de Blackburn y su colaborador Jack Szostak, sugerían que tenía que haber una actividad capaz de sintetizar telómeros de novo. En 1982, Blackburn y Szostak propusieron que tendría que tratarse de una transferasa terminal, un enzima ya descrito por aquel entonces que era capaz de añadir secuencias a los extremos de ADN de novo. Independientemente, los laboratorios de Blackburn y Szostak se embarcaron en la búsqueda de la transferasa terminal de los telómeros.
En 1984, Liz consiguió convencer a una jovencísima Carol Greider de que realizara su tesis doctoral en su laboratorio. Su proyecto consistiría en el descubrimiento del enzima que alargaba los telómeros. Por lo arriesgado del proyecto, Liz había tenido dificultades en conseguir la atención de los estudiantes predoctorales, pero Carol no lo dudó ni un segundo. A los pocos meses, el 25 de diciembre de 1984, Carol obtuvo la primera evidencia de que tal enzima existía. Por aquel entonces apenas tenía 23 años y había hecho un descubrimiento trascendental que ahora se ha reconocido con el premio Nobel. Poco después se dieron cuenta de que no se trataba de una transferasa terminal, sino de una transcriptasa en reverso, que necesita de una molécula de ARN para su funcionamiento y a la cual denominaron telomerasa. La telomerasa era, por tanto, el mecanismo de mantenimiento de los extremos de los cromosomas eucarióticos. Ya fue sólo una cuestión de tiempo demostrar su predicha importancia para el cáncer y el envejecimiento.
En 1990, Cal Harley, Bruce Futcher y Carol Greider demostraron por primera vez que los telómeros se acortaban asociados al proceso de envejecimiento y propusieron la hipótesis telomérica, según la cual las células normales tienen dormido (silenciado) el gen de la telomerasa y, por tanto, sus telómeros se acortan progresivamente hasta que finalmente determinan el final proliferativo de las células. En contraste, las células cancerosas despiertan el gen de la telomerasa y gracias a ello pueden mantener sus telómeros indefinidamente y así multiplicarse sin límite.
Una explosión de estudios por multitud de laboratorios verificó en pocos años que esta hipótesis era correcta. Hoy en día la telomerasa tiene un interés biomédico doble. Por un lado, se intenta eliminar de las células tumorales para así frenar el crecimiento del tumor y, por otro lado, su reactivación se ve como una promesa para alargar la vida de las células.
Tras los laureles del Nobel, todos los investigadores en este campo esperamos que algún día la investigación en telomerasa sirva para hacer más efectivo el tratamiento de enfermos de cáncer y de aquellos que sufren enfermedades asociadas al envejecimiento. ¿Y por qué no soñar? Quizás estemos ante la fuente de la eterna juventud.
Autor: María Blasco (Jefa del Grupo de Telómeros y Telomerasa del Centro Nacional de Investigaciones Oncológicas, donde también es directora del Programa de Oncología Molecular y vicedirectora de Investigación Básica)
martes, 13 de octubre de 2009
Energia Nuclear : conferencia Octubre
A continuacón os dejo un enlace sobre un ciclo de conferencias organizado por la Universidad politecnica de Madrid al que podeis asistir si lo deseais.
Esta primera charla trata de la "Energía nuclear: solucion o problema"
Esta primera charla trata de la "Energía nuclear: solucion o problema"
jueves, 24 de septiembre de 2009
Nueve líneas rojas para salvar el planeta
La expansión del hombre en la Tierra no tiene límite, pero debería tener nueve. Un grupo internacional de científicos alerta en Nature de que, si la humanidad quiere seguir habitando un planeta estable, debe cumplir un contrato con nueve líneas rojas que son fundamentales para conservar la Tierra.
FUENTE | Público 24/09/2009
Este mensaje debería tener implicaciones profundas en futuras negociaciones sobre cambio climático", explica a Público Johan Rockström, investigador de la Universidad de Estocolmo (Suecia). Junto a un nutrido grupo de expertos medioambientales de tres continentes, Rockström señala que tres de estos límites ya se han cruzado: las emisiones de CO2, la extinción de especies y el equilibrio del ciclo del nitrógeno. Otros cuatro están a punto de caer, y afectan al uso de agua dulce, la acidificación de los océanos, la deforestación y la sobreproducción de fósforo. Junto a estos procesos, también es preciso contener los vertidos químicos al medio ambiente y los daños a la capa de ozono.
Los nueve puntos ponen las bases de un nuevo pacto con el planeta para que este mantenga las características que ha tenido durante los últimos 10.000 años. "No necesitamos un pacto global sobre cambio climático, sino sobre desarrollo sostenible", detalla Rockström.
El nobel Paul Crutzen, uno de los firmantes del artículo, acuñó en 2000 el término Antropoceno para explicar que la actividad humana en la Tierra ha inaugurado una nueva era geológica en la que los procesos que gobiernan el planeta ya no están controlados por la naturaleza, sino por el hombre. El Antropoceno vendría a sustituir al Holoceno, un periodo de estabilidad ambiental que ha permitido al hombre nacer, multiplicarse y crear civilizaciones durante milenios. El uso de combustibles fósiles desde la Revolución Industrial y la expansión de la agricultura a gran escala amenazan ese equilibrio que ha hecho posible la vida. Esto puede traer consecuencias catastróficas para algunas partes del mundo, alertan los expertos. Para evitarlo, han identificado nueve áreas y han fijado límites exactos para siete de ellas. El problema, dicen, debe ser abordado de forma global.
"No nos podemos permitir el lujo de concentrar los esfuerzos en sólo uno de estos límites", dice Rockström. Pero las líneas rojas ya han recibido algunas críticas. En las mismas páginas de Nature varios expertos comentan la propuesta y, mientras algunos saludan la idea, otros alertan de que puede ocasionar más degradación medioambiental, pues fomentan la idea de que no es necesario actuar hasta que se cruza el límite.
1. EMISIONES DE CO2 DESBOCADAS
Las emisiones de CO2 deben reducirse a 350 partes por millón si no se quiere llegar a un punto de no retorno
El aumento de las emisiones de CO2 es uno de los límites que ya se han transgredido. Las emisiones actuales son de 387 partes por millón (ppm), mientras que antes de la Revolución Industrial eran de 280 ppm. Los expertos proponen un límite de 350 ppm.
Este límite permitiría asumir el margen de error de los actuales modelos climáticos, cuyas estimaciones de ascenso de las temperaturas en función de las emisiones podrían ser hasta dos grados menores que en la realidad. También permitirían conservar las dos placas polares y detener el retroceso del hielo en el Ártico y en la Antártida.
En un comentario al artículo de Rockström, el físico de la Universidad de Oxford Myles Allen señala que fijar un límite de 350 ppm evita el verdadero problema: el ascenso de las temperaturas a 2º sobre el nivel preindustrial.
2. AUMENTA LA EXTINCIÓN DE ESPECIES
La desaparición de seres vivos es entre 100 y 1.000 veces superior a la que existía antes de la Revolución Industrial
El número de especies extinguidas desde la llegada del hombre a la Tierra no tiene precedente desde la última extinción en masa. Antes de la Revolución Industrial, desaparecía, como máximo, una especie de cada 1.000 al año. En la actualidad, el ritmo al que se están extinguiendo las especies es entre 100 y 1.000 veces mayor al que podría considerarse natural, según el estudio. El ser humano es el principal culpable. Los expertos han fijado un límite de 10 especies por cada 1.000 cada año.
La pérdida de especies puede afectar al equilibrio global del planeta, destacan los expertos. Señalan que la reducción hace más vulnerables los ecosistemas en los que viven a otros cambios ambientales potenciados por el hombre. Se espera que este siglo el 30% de los mamíferos, aves y anfibios estén amenazados de extinción.
3. EL CICLO DE NITRÓGENO ESTÁ DESFASADO
El hombre fija más nitrógeno que la Tierra, lo que aumenta el calentamiento y la contaminación de acuíferos y océanos
La agricultura extensiva depende de los fertilizantes que provienen del nitrógeno. Estos productos han hecho posible grandes mejoras en el rendimiento del campo y la producción agrícola, pero también presentan un importante peligro ambiental.
El nitrógeno es el elemento más abundante en el planeta y pasa de estado gaseoso en la atmósfera a estados sólidos en el suelo. El hombre ha aprovechado esta abundancia de nitrógeno para imitar ese proceso y generar derivados para fertilizar los campos. Como resultado se producen unos 120 millones de toneladas más de nitrógeno sólido, lo que supera la producción natural de la Tierra. Gran parte de los derivados del nitrógeno acaban contaminando acuíferos y produciendo gases que potencian el cambio climático. Los expertos proponen reducir la producción de nitrógeno un 75%.
4. OCÉANOS DEMASIADO ÁCIDOS
Las aguas de los océanos se están haciendo más ácidas debido al exceso de CO2, que amenaza a corales y moluscos
El exceso de CO2 que produce el hombre no sólo potencia el calentamiento, sino también un proceso paralelo que hace las aguas del océano más ácidas. Este fenómeno afecta directamente a multitud de especies que son muy sensibles a los cambios del pH, especialmente el coral y los moluscos que cubren su cuerpo con conchas. El aumento de la acidez de los océanos limita la capacidad de estos organismos de generar los resistentes productos que componen sus conchas, que son esenciales para su supervivencia. Esto tendría a su vez un impacto en el resto de especies que aún se desconoce, señalan los expertos. Proponen tomar como medida la abundancia en el agua de aragonita, uno de los compuestos en las conchas de los moluscos cuya saturación en el océano viene bajando desde tiempos preindustriales. Señalan un límite de saturación de 2,75. El actual es 2,90.
5. UNA SED DE AGUADULCE INSACIABLE
El ser humano requiere 2.600 kilómetros cúbicos de agua cada año. El umbral de riesgo se sitúa en 4.000 km3
El ciclo que sigue el agua dulce en el planeta ha entrado en una nueva era: el Antropoceno. La injerencia del ser humano en el curso natural de la Tierra es tal que ya es el principal responsable del flujo de los ríos. Se estima que el 25% de las cuencas fluviales del mundo se seca antes de llegar a los océanos, a causa de la voracidad humana, de la descontrolada utilización del agua dulce. A juicio del grupo de científicos, la amenaza que se cierne sobre la humanidad por el "deterioro" de los recursos globales de agua es triple: la pérdida de la humedad del suelo, a causa de la deforestación; el desplazamiento de las escorrentías y el impacto en el volumen de precipitaciones.
Según los expertos, la línea roja en el consumo de agua dulce se sitúa en los 4.000 kilómetros cúbicos al año. Actualmente, alcanza los 2.600 y va en aumento.
6. CAMBIOS EN LA UTILIZACIÓN DE LA TIERRA
Las tierras destinadas a la agricultura no deberían superar el 15% del total, y esa cifra está hoy cercana al 12%
La expansión de los cultivos también amenaza la sostenibilidad a largo plazo. La conversión de bosques y otros ecosistemas en tierras agrícolas se ha producido a un ritmo medio del 0,8% cada año en los últimos 40-50 años. Los científicos proponen que no más del 15% de la superficie de la Tierra -excluyendo los polos- se convierta en tierras de cultivo, y alertan de que, en este momento, la cifra ronda el 12%.
El estudio apunta que los sistemas agrícolas que mejor imitan los procesos naturales podrían permitir una ampliación de este límite, aunque otros factores deberían controlarse. La degradación de la tierra, la pérdida de agua de riego, la competencia con el suelo urbano o la producción de biocombustibles son algunos de ellos. Reservar las tierras más productivas para la agricultura es una de sus principales recomendaciones.
7. EL FÓSFORO Y A CATÁSTROFE EN LOS MARES
El abuso de fertilizantes en la agricultura ha provocado una sobredosis de fósforo en el mar que amenaza la vida oceánica
La humanidad está cerca de cruzar un umbral peligroso. Cada año, alrededor de nueve millones de toneladas de fósforo, procedentes sobre todo de los fertilizantes agrícolas, pero también de productos domésticos como la pasta de dientes, acaban en el océano. Si esta cantidad supera los 11 millones de toneladas se producirá una extinción masiva de la vida marina, como ya ha ocurrido muchas veces a lo largo de la historia. Este fenómeno, conocido como "evento anóxico oceánico", se desencadena por el agotamiento del oxígeno en el agua marina a consecuencia de la sobredosis de fósforo. Los umbrales que provocarían la catástrofe ya se han superado en algunos estuarios y sistemas de agua dulce, pero los científicos creen que, si se mantienen los flujos de fósforo actuales, el riesgo se evitará durante el próximo milenio.
8. REDUCCIÓN DE LA CAPA DE OZONO
El agujero en la capa de ozono sigue existiendo, por lo que se fija un límite para garantizar la recuperación
El agujero en la capa de ozono sobre la Antártida existirá aún varias décadas, al igual que su concentración en el Ártico. Los autores alaban la efectividad del Protocolo de Montreal, en el que la mayoría de países del mundo fijaron una estrategia común. El pacto ha permitido que la concentración de los productos químicos que destruyen el ozono en la atmósfera haya disminuido casi un 10%. Sin embargo, la capa de ozono tarda mucho en recuperarse, por lo que los expertos proponen un límite global a la disminución de ozono de 276 unidades Dobson -una medida del ozono-. El nivel actual es de 283 y el preindustrial era de 290.
El nobel Mario Molina, que fue premiado por su trabajo sobre la capa de ozono, comenta en Nature que este límite es aceptable, pero que cruzarlo no ocasionaría un cambio irreversible.
9. LOS AEROSOLES SE DUPLICAN
Los autores no han fijado los umbrales para la contaminación ni la cantidad de partículas en suspensión.
Producto de la actividad humana desde el comienzo de la era industrial, la concentración atmosférica de aerosoles se ha duplicado. Numerosos estudios vinculan la acumulación de partículas en suspensión con cambios en el clima, ya que reflejan la radiación solar incidente, así como con la formación de nubes, lo que afecta a los ciclos de precipitaciones. Además, los aerosoles afectan directamente a la salud de las personas. Sin embargo, la compleja naturaleza de las distintas partículas dificulta el establecimiento de un único valor límite.
Algo similar ocurre con la contaminación química. En la actualidad hay cerca de 100.000 compuestos, cada uno con su particular grado de toxicidad. Su efecto acumulado es claro, afecta a la salud de los ecosistemas y altera los ciclos naturales.
Autor: Nuño Domínguez
FUENTE | Público 24/09/2009
Este mensaje debería tener implicaciones profundas en futuras negociaciones sobre cambio climático", explica a Público Johan Rockström, investigador de la Universidad de Estocolmo (Suecia). Junto a un nutrido grupo de expertos medioambientales de tres continentes, Rockström señala que tres de estos límites ya se han cruzado: las emisiones de CO2, la extinción de especies y el equilibrio del ciclo del nitrógeno. Otros cuatro están a punto de caer, y afectan al uso de agua dulce, la acidificación de los océanos, la deforestación y la sobreproducción de fósforo. Junto a estos procesos, también es preciso contener los vertidos químicos al medio ambiente y los daños a la capa de ozono.
Los nueve puntos ponen las bases de un nuevo pacto con el planeta para que este mantenga las características que ha tenido durante los últimos 10.000 años. "No necesitamos un pacto global sobre cambio climático, sino sobre desarrollo sostenible", detalla Rockström.
El nobel Paul Crutzen, uno de los firmantes del artículo, acuñó en 2000 el término Antropoceno para explicar que la actividad humana en la Tierra ha inaugurado una nueva era geológica en la que los procesos que gobiernan el planeta ya no están controlados por la naturaleza, sino por el hombre. El Antropoceno vendría a sustituir al Holoceno, un periodo de estabilidad ambiental que ha permitido al hombre nacer, multiplicarse y crear civilizaciones durante milenios. El uso de combustibles fósiles desde la Revolución Industrial y la expansión de la agricultura a gran escala amenazan ese equilibrio que ha hecho posible la vida. Esto puede traer consecuencias catastróficas para algunas partes del mundo, alertan los expertos. Para evitarlo, han identificado nueve áreas y han fijado límites exactos para siete de ellas. El problema, dicen, debe ser abordado de forma global.
"No nos podemos permitir el lujo de concentrar los esfuerzos en sólo uno de estos límites", dice Rockström. Pero las líneas rojas ya han recibido algunas críticas. En las mismas páginas de Nature varios expertos comentan la propuesta y, mientras algunos saludan la idea, otros alertan de que puede ocasionar más degradación medioambiental, pues fomentan la idea de que no es necesario actuar hasta que se cruza el límite.
1. EMISIONES DE CO2 DESBOCADAS
Las emisiones de CO2 deben reducirse a 350 partes por millón si no se quiere llegar a un punto de no retorno
El aumento de las emisiones de CO2 es uno de los límites que ya se han transgredido. Las emisiones actuales son de 387 partes por millón (ppm), mientras que antes de la Revolución Industrial eran de 280 ppm. Los expertos proponen un límite de 350 ppm.
Este límite permitiría asumir el margen de error de los actuales modelos climáticos, cuyas estimaciones de ascenso de las temperaturas en función de las emisiones podrían ser hasta dos grados menores que en la realidad. También permitirían conservar las dos placas polares y detener el retroceso del hielo en el Ártico y en la Antártida.
En un comentario al artículo de Rockström, el físico de la Universidad de Oxford Myles Allen señala que fijar un límite de 350 ppm evita el verdadero problema: el ascenso de las temperaturas a 2º sobre el nivel preindustrial.
2. AUMENTA LA EXTINCIÓN DE ESPECIES
La desaparición de seres vivos es entre 100 y 1.000 veces superior a la que existía antes de la Revolución Industrial
El número de especies extinguidas desde la llegada del hombre a la Tierra no tiene precedente desde la última extinción en masa. Antes de la Revolución Industrial, desaparecía, como máximo, una especie de cada 1.000 al año. En la actualidad, el ritmo al que se están extinguiendo las especies es entre 100 y 1.000 veces mayor al que podría considerarse natural, según el estudio. El ser humano es el principal culpable. Los expertos han fijado un límite de 10 especies por cada 1.000 cada año.
La pérdida de especies puede afectar al equilibrio global del planeta, destacan los expertos. Señalan que la reducción hace más vulnerables los ecosistemas en los que viven a otros cambios ambientales potenciados por el hombre. Se espera que este siglo el 30% de los mamíferos, aves y anfibios estén amenazados de extinción.
3. EL CICLO DE NITRÓGENO ESTÁ DESFASADO
El hombre fija más nitrógeno que la Tierra, lo que aumenta el calentamiento y la contaminación de acuíferos y océanos
La agricultura extensiva depende de los fertilizantes que provienen del nitrógeno. Estos productos han hecho posible grandes mejoras en el rendimiento del campo y la producción agrícola, pero también presentan un importante peligro ambiental.
El nitrógeno es el elemento más abundante en el planeta y pasa de estado gaseoso en la atmósfera a estados sólidos en el suelo. El hombre ha aprovechado esta abundancia de nitrógeno para imitar ese proceso y generar derivados para fertilizar los campos. Como resultado se producen unos 120 millones de toneladas más de nitrógeno sólido, lo que supera la producción natural de la Tierra. Gran parte de los derivados del nitrógeno acaban contaminando acuíferos y produciendo gases que potencian el cambio climático. Los expertos proponen reducir la producción de nitrógeno un 75%.
4. OCÉANOS DEMASIADO ÁCIDOS
Las aguas de los océanos se están haciendo más ácidas debido al exceso de CO2, que amenaza a corales y moluscos
El exceso de CO2 que produce el hombre no sólo potencia el calentamiento, sino también un proceso paralelo que hace las aguas del océano más ácidas. Este fenómeno afecta directamente a multitud de especies que son muy sensibles a los cambios del pH, especialmente el coral y los moluscos que cubren su cuerpo con conchas. El aumento de la acidez de los océanos limita la capacidad de estos organismos de generar los resistentes productos que componen sus conchas, que son esenciales para su supervivencia. Esto tendría a su vez un impacto en el resto de especies que aún se desconoce, señalan los expertos. Proponen tomar como medida la abundancia en el agua de aragonita, uno de los compuestos en las conchas de los moluscos cuya saturación en el océano viene bajando desde tiempos preindustriales. Señalan un límite de saturación de 2,75. El actual es 2,90.
5. UNA SED DE AGUADULCE INSACIABLE
El ser humano requiere 2.600 kilómetros cúbicos de agua cada año. El umbral de riesgo se sitúa en 4.000 km3
El ciclo que sigue el agua dulce en el planeta ha entrado en una nueva era: el Antropoceno. La injerencia del ser humano en el curso natural de la Tierra es tal que ya es el principal responsable del flujo de los ríos. Se estima que el 25% de las cuencas fluviales del mundo se seca antes de llegar a los océanos, a causa de la voracidad humana, de la descontrolada utilización del agua dulce. A juicio del grupo de científicos, la amenaza que se cierne sobre la humanidad por el "deterioro" de los recursos globales de agua es triple: la pérdida de la humedad del suelo, a causa de la deforestación; el desplazamiento de las escorrentías y el impacto en el volumen de precipitaciones.
Según los expertos, la línea roja en el consumo de agua dulce se sitúa en los 4.000 kilómetros cúbicos al año. Actualmente, alcanza los 2.600 y va en aumento.
6. CAMBIOS EN LA UTILIZACIÓN DE LA TIERRA
Las tierras destinadas a la agricultura no deberían superar el 15% del total, y esa cifra está hoy cercana al 12%
La expansión de los cultivos también amenaza la sostenibilidad a largo plazo. La conversión de bosques y otros ecosistemas en tierras agrícolas se ha producido a un ritmo medio del 0,8% cada año en los últimos 40-50 años. Los científicos proponen que no más del 15% de la superficie de la Tierra -excluyendo los polos- se convierta en tierras de cultivo, y alertan de que, en este momento, la cifra ronda el 12%.
El estudio apunta que los sistemas agrícolas que mejor imitan los procesos naturales podrían permitir una ampliación de este límite, aunque otros factores deberían controlarse. La degradación de la tierra, la pérdida de agua de riego, la competencia con el suelo urbano o la producción de biocombustibles son algunos de ellos. Reservar las tierras más productivas para la agricultura es una de sus principales recomendaciones.
7. EL FÓSFORO Y A CATÁSTROFE EN LOS MARES
El abuso de fertilizantes en la agricultura ha provocado una sobredosis de fósforo en el mar que amenaza la vida oceánica
La humanidad está cerca de cruzar un umbral peligroso. Cada año, alrededor de nueve millones de toneladas de fósforo, procedentes sobre todo de los fertilizantes agrícolas, pero también de productos domésticos como la pasta de dientes, acaban en el océano. Si esta cantidad supera los 11 millones de toneladas se producirá una extinción masiva de la vida marina, como ya ha ocurrido muchas veces a lo largo de la historia. Este fenómeno, conocido como "evento anóxico oceánico", se desencadena por el agotamiento del oxígeno en el agua marina a consecuencia de la sobredosis de fósforo. Los umbrales que provocarían la catástrofe ya se han superado en algunos estuarios y sistemas de agua dulce, pero los científicos creen que, si se mantienen los flujos de fósforo actuales, el riesgo se evitará durante el próximo milenio.
8. REDUCCIÓN DE LA CAPA DE OZONO
El agujero en la capa de ozono sigue existiendo, por lo que se fija un límite para garantizar la recuperación
El agujero en la capa de ozono sobre la Antártida existirá aún varias décadas, al igual que su concentración en el Ártico. Los autores alaban la efectividad del Protocolo de Montreal, en el que la mayoría de países del mundo fijaron una estrategia común. El pacto ha permitido que la concentración de los productos químicos que destruyen el ozono en la atmósfera haya disminuido casi un 10%. Sin embargo, la capa de ozono tarda mucho en recuperarse, por lo que los expertos proponen un límite global a la disminución de ozono de 276 unidades Dobson -una medida del ozono-. El nivel actual es de 283 y el preindustrial era de 290.
El nobel Mario Molina, que fue premiado por su trabajo sobre la capa de ozono, comenta en Nature que este límite es aceptable, pero que cruzarlo no ocasionaría un cambio irreversible.
9. LOS AEROSOLES SE DUPLICAN
Los autores no han fijado los umbrales para la contaminación ni la cantidad de partículas en suspensión.
Producto de la actividad humana desde el comienzo de la era industrial, la concentración atmosférica de aerosoles se ha duplicado. Numerosos estudios vinculan la acumulación de partículas en suspensión con cambios en el clima, ya que reflejan la radiación solar incidente, así como con la formación de nubes, lo que afecta a los ciclos de precipitaciones. Además, los aerosoles afectan directamente a la salud de las personas. Sin embargo, la compleja naturaleza de las distintas partículas dificulta el establecimiento de un único valor límite.
Algo similar ocurre con la contaminación química. En la actualidad hay cerca de 100.000 compuestos, cada uno con su particular grado de toxicidad. Su efecto acumulado es claro, afecta a la salud de los ecosistemas y altera los ciclos naturales.
Autor: Nuño Domínguez
martes, 2 de junio de 2009
Suscribirse a:
Entradas (Atom)