HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

domingo, 20 de diciembre de 2009

Tabaco, sol y mutaciones

Las huellas del tabaco y de la luz ultravioleta, en forma de miles de mutaciones, se han encontrado claramente en los primeros genomas completos del cáncer de pulmón y del cáncer de piel, respectivamente, que se acaban de presentar. El número de mutaciones encontradas en el cáncer de pulmón indica que el fumador adquiere una mutación cada 15 cigarrillos fumados, aproximadamente.

FUENTE | El País Digital 17/12/2009

Todos los cánceres están causados por mutaciones en el ADN de las células que se vuelven cancerosas, mutaciones que se van adquiriendo a lo largo de la vida. Los estudios, que publica la revista Nature, revelan por primera vez prácticamente todas las mutaciones correspondientes a cada uno de los dos cánceres estudiados, así como los esfuerzos del organismo para reparar las mutaciones y evitar la progresión hacia el cáncer sintomático. Para ello se han utilizado técnicas de secuenciación masivamente paralelas y se han comparado los genomas de tejidos cancerosos con los de tejidos sanos.

En el genoma del cáncer de pulmón estudiado, correspondiente a una célula de la metástasis en la médula ósea de un varón de 55 años, se han hallado más de 22.000 mutaciones, mientras que en el del melanoma maligno, procedente de un varón de 43 años, el número de mutaciones es de más de 33.000.

"Estos son los dos cánceres más importantes en el mundo desarrollado cuya causa principal conocemos", explica Mike Stratton, del Proyecto Genoma del Cáncer del Instituto Sanger de Wellcome Trust, institución que ha dirigido ambos estudios. "Para el cáncer de pulmón, es el humo del cigarrillo y para el melanoma maligno es la exposición a la luz del sol. Con las secuencias genómicas obtenidas hemos podido explorar profundamente el pasado de cada tumor, y descubrir con notable claridad las huellas de estos mutágenos ambientales, que se depositaron años antes de que el tumor fuera visible".

"También podemos", añade este científico, "ver los intentos desesperados de nuestro genoma para defenderse del daño causado por los 60 compuestos químicos mutágenos del humo del cigarrillo o por la radiación ultravioleta. Nuestras células luchan desesperadamente para reparar el daño, pero frecuentemente pierden la batalla".

La acumulación de mutaciones no da lugar automáticamente a un cáncer, y todavía falta saber cuáles son las decisivas. "En la muestra del melanoma podemos ver una gran firma de la luz del sol", dice Andy Futreal, del mismo equipo. "Sin embargo, en ambas muestras, como hemos producido catálogos prácticamente completos, podemos ver otros procesos más misteriosos que actúan sobre el ADN. En algún sitio entre las mutaciones que hemos encontrado están las que hacen que las células se conviertan en cancerosas. Hallarlas será nuestro desafío para los próximos años".
"A los casi 10 años de la primera secuencia completa del genoma humano todavía estamos obteniendo beneficio de ella, y nos queda mucho por hacer para comprender los escenarios modificados que significan los genomas del cáncer", señala Peter Campbell, director del estudio del cáncer de pulmón. "El conocimiento que extraigamos en los próximos años tendrá efecto sobre los tratamientos y cuando identifiquemos todos los genes del cáncer podremos desarrollar nuevos medicamentos que tengan como diana los genes mutados y saber qué pacientes se beneficiarán de estos nuevos tratamientos".

"Éste es el primer vistazo del futuro de la medicina del cáncer, no sólo en el laboratorio sino en la aplicación clínica", asegura por su parte Mark Walport, director de Wellcome Trust, la gran institución benéfica británica.

Autor: Malen Ruiz de Elvira

viernes, 11 de diciembre de 2009

Los monos hablan un lenguaje ancestral

Los gritos de los monos Campbell (Cercopithecus campbelli campbelli) en los bosques de Costa de Marfil esconden la forma de lenguaje vocal no humano más compleja que se conoce, según un estudio publicado en PNAS

FUENTE Público

11/12/2009

Estos primates articulan un repertorio de gritos distintos para formar frases con significados específicos que alertan de la presencia de un depredador o de la llegada de congéneres de grupos rivales.

Hace un mes, Klaus Zuberbühler, de la Universidad de St. Andrews (Reino Unido), junto a investigadores de Francia y Costa de Marfil, publicó un estudio que aseguraba que los monos Campbell usan un repertorio de seis gritos con significados concretos. Hok se relaciona con un águila y krak con un leopardo, sus dos depredadores naturales en los bosques del país africano.

En el nuevo estudio, publicado en PNAS tras dos años estudiando a los monos en el Parque Nacional de Taï de Costa de Marfil, señalan que los machos articulan esos seis gritos en secuencias de 20 o más términos usando una forma primitiva de sintaxis. Los monos emiten distintas secuencias que comienzan con boom, seguido de otros gritos para diferenciar una pelea entre monos de otra especie o la llegada a su territorio de congéneres rivales. También gritan secuencias distintas dependiendo de si se acerca un águila o un leopardo y si lo ven o sólo lo escuchan. En el caso del leopardo, cuanto mayor es la alarma, más kraks contiene la frase.

CONEXIÓN CON HUMANOS

Los investigadores aún ignoran si este lenguaje es un ancestro del que usa el ser humano. Los resultados podrían indicar que, antes de hablar como lo hace hoy, el hombre usó un lenguaje básico de kraks, booms y haks similar al que usan los monos Campbell.

También hay grandes diferencias. Se trata de un código lineal basado en la repetición y no en la contraposición de términos. Los monos podrían aumentar considerablemente el número de mensajes si el orden de dos gritos alterara su significado, por ejemplo, hak boom, o boom hak. Pero sólo parecen unir gritos en un hilo en el que cada adición matiza el significado de los anteriores. Además, el lenguaje de estos primates sólo nombra cosas que están presentes, algo que cierra la puerta a conceptos abstractos o imaginarios, como hace el hombre.

Lo que sí implica el estudio es que, probablemente, el lenguaje no es exclusivo de los humanos, sino una capacidad compartida con otras especies. Otros estudios anteriores han encontrado formas básicas de comunicación entre muchos animales. Desde finales de la década de 1990, se ha demostrado que monos, ballenas y pájaros combinan sonidos para formar una especie de lenguaje, aunque su significado se desconoce. Otros trabajos indican que algunos primates emiten sonidos diferentes relacionados con tipos de alimento y depredadores.

El nuevo protolenguaje de los monos Campbell es el más complejo descrito hasta ahora, pero tal vez sea por falta de estudios más completos de otros primates. Los autores destacan que esta forma de comunicación nació mucho antes de la aparición de los homínidos y posiblemente esté más desarrollada en especies que viven en bosques con poca visibilidad y un gran número de depredadores.

Autor: Nuño Domínguez

jueves, 10 de diciembre de 2009

El Mediterráneo se llenó en menos de dos años


Hace 5,3 millones de años se produjo la mayor inundación conocida nunca en la Tierra sobre un Mediterráneo desecado. La descarga de agua fue 1.000 veces superior a la del río Amazonas, con una subida de 10 m diarios del nivel del mar.

FUENTE CSIC 10/12/2009

El mar Mediterráneo llegó casi a secarse hace unos seis millones de años, al quedar aislado de los océanos durante un largo periodo de tiempo, debido el actual levantamiento tectónico del Estrecho de Gibraltar. Cuando las aguas del Atlántico encontraron de nuevo un camino a través del Estrecho, llenaron el Mediterráneo con la mayor y más brusca inundación que ha conocido nunca la Tierra. La cuenca mediterránea, entonces un enorme desierto a 1.500 metros de profundidad, tardó en llenarse de unos meses a dos años, según explican investigadores del Consejo Superior de Investigaciones Científicas (CSIC). Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse de 10 a 10.000 años.



Reproducción de cómo se produjo la mayor inundación conocida en la Tierra que llenó el mar Mediterráneo hace 5,3 millones de años./ Ilustración: Roger Pibernat
De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.

La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.

De acuerdo con el artículo que aparece publicado esta semana en la revista Nature, la enorme descarga de agua, iniciada probablemente por el hundimiento tectónico del Estrecho y el desnivel de ambos mares [de unos 1.500 metros], llegó a ser 1.000 veces superior al actual río Amazonas y llenó el Mediterráneo a un ritmo de hasta 10 metros diarios de subida del nivel del mar.

La inundación que reconectó el Atlántico con el Mediterráneo provocó en el fondo marino una erosión de cerca de 200 kilómetros de longitud y varios kilómetros de anchura.


Uno de los responsables de la investigación, el investigador del CSIC Daniel García- Castellanos, que trabaja en el Instituto de Ciencias de la Tierra Jaume Almera, en Barcelona, detalla: "La inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de 'megarrápido' por donde el agua circuló a cientos de kilómetros por hora. Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el Golfo de Cádiz y el Mar de Alborán".

Cuando hace unos años los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del Estrecho de Gibraltar se encontraron con este problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos en los años 90 pensaron que esta norme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo.

"Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta García-Castellanos.

GARGANTAS Y SAL

"Durante el periodo de desecación [la llamada crisis salina del Mesiniense, debido a la precipitación masiva de sal en todo el Mediterráneo con acumulaciones de varios kilómetros en algunos lugares de sus zonas más profundas], los principales ríos que desembocaban en el mar estudiado excavaron profundas e impresionantes gargantas en los márgenes del fondo marino, que quedaron expuestos. Los ríos desembocaban entonces en lagos salinos situados en las partes más profundas de la cuenca", explica el investigador del CSIC.

No obstante, a partir del estudio de los perfiles sísmicos realizados en el Mar de Alborán [secciones verticales a través de los sedimentos] y de los cálculos basados en modelos de erosión de los ríos de montaña, los investigadores demostraron que la erosión no fue producida por un río durante la desecación del Mediterráneo, sino por un enorme flujo de agua procedente del Atlántico.

García-Castellanos avanza las implicaciones que pueda tener el estudio: "Un cambio tan enorme y abrupto en el paisaje terrestre como el que hemos deducido pudo tener un impacto notable en el clima de aquel periodo, algo que no se ha estudiado aún con suficiente detalle y a lo que podría ayudar este trabajo. La técnica usada, además, nos puede servir también para estudiar otras inundaciones de las que se desconocen su intensidad o duración".





--------------------------------------------------------------------------------

García-Castellanos, D., F. Estrada, I. Jiménez-Munt, C. Gorini, M. Fernàndez, J. Vergés, R. De Vicente. Catastrophic flood of the Mediterranean after the Messinian Crisis. Nature, 10 de diciembre de 2009. doi:10.1038/nature08555

domingo, 6 de diciembre de 2009

lunes, 30 de noviembre de 2009

Los virus pueden usurpar la maquinaria de las bacterias para replicarse


Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente.

FUENTE | CSIC - mi+d 30/11/2009


Localización subcelular de la maquinaria replicativa del virus pi29 (rojo) y de la proteína MreB del citoesqueleto bacteriano (verde). CSIC


Un equipo, dirigido por la investigadora del Consejo Superior de Investigaciones Científicas (CSIC) Margarita Salas, ha demostrado cómo los virus se sirven del esqueleto de las bacterias (citoesqueleto) para replicarse de forma más eficiente. Esta capacidad sólo era conocida, hasta el momento, en células eucariotas, la base de los organismos complejos como el ser humano. El hallazgo, publicado en Proceedings de la Academia Nacional de Ciencias de EE.UU. (PNAS), permitiría crear estirpes bacterianas modificadas genéticamente para minimizar sus posibilidades de infección por virus. Este descubrimiento podría evitar pérdidas económicas en industrias que emplean bacterias en sus procesos de producción, como la de los detergentes o fertilizantes.

Además de Salas, el trabajo ha contado con la participación de los investigadores del CSIC Daniel Muñoz Espín y Wilfried Meijer, del Centro de Biología Molecular Severo Ochoa (centro mixto del CSIC y la Universidad Autónoma de Madrid), en colaboración con científicos de la Universidad de Newcastle (Reino Unido).

Como explica la investigadora del CSIC, los virus han coevolucionado con sus células hospedadoras a lo largo de la historia y, por ello, "no resulta sorprendente que hayan aprendido a explotar diferentes mecanismos de ellas". La comunidad científica conoce desde hace años que, en las células eucariotas, los virus aprovechan las características del citoesqueleto para enriquecer su sitio natural de replicación en el interior de la célula o para establecer una autopista sobre la que la nueva progenie de virus pueda circular para abandonar la célula infectada.

El citoesqueleto es una red tridimensional de filamentos proteicos que desempeña un papel clave en la estructura y función de las células. Se trata de una estructura dinámica que, además de proporcionar soporte y forma a la célula, realiza otras muchas funciones como facilitar la movilidad y el transporte intercelular o intervenir en la división celular.


Anteriormente, se consideraba que el citoesqueleto era una estructura única de las células eucariotas pero, en los últimos años, se han detectado homólogos procariotas, en concreto, en bacterias: las proteínas MreB, homólogas de las proteínas actinas que conforman los microfilamentos del citoesqueleto eucariótico.

A partir de este hallazgo, Salas y su equipo han demostrado ahora que las proteínas MreB también pueden ser explotadas por los virus para aumentar la replicación de su material genético, de la misma forma que lo hacen los virus eucarióticos con el citoesqueleto de las células eucariotas. El equipo ha probado este fenómeno en diferentes especies bacterianas, entre ellas, Bacillus subtilis. Esta bacteria, de interés biotecnológico, se utiliza en aplicaciones industriales como la producción de enzimas proteasas o amilasas. Las proteasas, por ejemplo, se emplean en los detergentes y en la elaboración de fertilizantes. Estas bacterias pueden ser infectadas por el virus pi29, uno de los principales objetos de investigación de la científica del CSIC.

Según explica Salas, los virus utilizan las proteínas MreB como andamios sobre los que organizar sus maquinarias replicativas, lo que les permite obtener una gran progenie viral cuando las células son infectadas y extender, así, la infección a otras células procariotas. En el caso de Bacillus subtilis, el trabajo de Salas y su equipo permitiría el desarrollo de estirpes con mutaciones en la familia de proteínas MreB que, por tanto, serían menos sensibles a la infección por fagos (virus que infectan a las bacterias), algo que genera grandes pérdidas económicas.
--------------------------------------------------------------------------------

Daniel Muñoz-Espín, Richard Daniel, Yoshikazu Kawai, Rut Carballido-López, Virginia Castilla-Llorente, Jeff Errington, Wilfried J.J. Meijer y Margarita Salas The actin-like MreB cytoskeleton organizes viral DNA replication in bacteria PNAS

La biomasa: el fracaso del Plan de Energías Renovables

«Biomasa: la energía que nos da la naturaleza con lo que a ella le sobra». Sin embargo, atendiendo a las cifras que prevé el Plan de Energías Renovables (PER) 2005-2010 para esta tecnología -que produce electricidad y calor mediante la quema de restos agrícolas o forestales- y a su estado de desarrollo actual, parece que la campaña llega un poco tarde. Según el documento elaborado por el Gobierno, la Biomasa debería producir en España el 47,78% de la energía renovable en 2010. Y, a un año de la finalización del PER, apenas alcanza una cuarta parte de ese objetivo.

«Del 41,2% que suponen la biomasa y el biogás para alcanzar el objetivo de generación de electricidad renovable fijado por el PER sólo se ha aportado un 12,5%», asegura Manuel García, presidente de la sección de Biomasa de APPA, la patronal de las energías renovables en España. Aún quedan por instalar 815 megavatios (MW) de biomasa para lograr los objetivos y al ritmo actual se tardaría 11,2 años en alcanzar esa cifra. «No se va a alcanzar el objetivo del PER y si esto es así podemos decir que el plan ha fracasado», dice García.

Si la desatención de la biomasa es llamativa en lo que a producción de electricidad se refiere, aún lo es más si se miran los objetivos de los usos térmicos de esta tecnología, es decir, aquella destinada a la calefacción o el agua caliente de los hogares. Los objetivos fijados por el PER para los usos térmicos de la biomasa suponen más del 90% del total, siendo el restante 10% para la solar térmica de baja temperatura, cuya instalación para calentar el agua sanitaria es hoy obligatoria en toda nueva construcción debido al Código Técnico de la Edificación. Se entiende, por tanto, que el crecimiento de esta última tecnología haya sido enorme y el de la biomasa casi inapreciable.

DEL 90% A MENOS DEL 1%

A pesar de campañas publicitarias como la ya citada, la patronal de las energías renovables asegura que el crecimiento de la biomasa para usos térmicos ha sido tan testimonial que ni siquiera dispone de una cifra orientativa del porcentaje que supone esta tecnología en la actualidad. «Sin duda será menor del 1%», aseguran desde APPA.

El incumplimiento de los objetivos para la biomasa no significa que no se puedan alcanzar los objetivos totales del 30,3% de la electricidad procedente de fuentes renovables que fija el PER para 2010. De la misma forma que la biomasa se ha dejado de lado, otras fuentes como la solar termoeléctrica o la eólica han tenido crecimientos por encima de lo que contempla el plan.

Para Manuel García, el estancamiento de esta forma de generación tiene importantes consecuencias no sólo en el sector energético sino también en el social y en el ambiental. «El despegue definitivo de la biomasa para alcanzar los objetivos para 2010 atraería inversiones por más de 4.000 millones de euros, crearía 24.000 empleos en el mundo rural y ahorraría la emisión de 14,6 millones de toneladas de CO2», dice. Además, según un informe de la Confederación de Organizaciones de Selvicultores de España, se podrían evitar entre un 50 y un 70% de los incendios forestales cada año gracias al valor añadido que esta tecnología le da a terrenos cada día más abandonados y a la retirada del campo del combustible agrícola y forestal que propicia.

La biomasa es una tecnología fácilmente gestionable ya que no depende de factores meteorológicos para producir y puede generar una media de 8.000 horas anuales, mientras que la eólica, por ejemplo, lo hace menos de 3.000 horas cada año. «Pero las administraciones no están siendo todo lo ágiles que debieran», dice García. «No se entiende cómo puede ser la tecnología renovable sobre la que descansa el PER hasta 2010 y a su vez sea la que menos se ha desarrollado en los últimos años», lamenta Manuel García. «Por ello pedimos coherencia entre los objetivos establecidos por el Gobierno y las políticas de apoyo al sector».

«El Gobierno va a fomentar esta fuente todo lo que pueda debido a su potencial dinamizador del mundo rural», asegura a ELMUNDO.es Jaume Margarit, director de Energías Renovables del IDAE, dependiente del Ministerio de Industria. Desde APPA biomasa confían en que esa voluntad se vea reflejada en la futura Ley de Energías Renovables y durante la presidencia española de la UE en el primer semestre de 2010.

Autor: Miguel G. Corral

'Pseudomona aeruginosa' segrega una sustancia tóxica que acaba con las células defensivas

Muchos autores hablan de ella como una bacteria ubicua. 'Pseudomona aeruginosa' está presente en casi todos los ambientes de la naturaleza, incluido el organismo de los seres humanos. Normalmente, su presencia no supone un problema salvo en aquellas personas con pocas defensas. En el ambiente hospitalario, son muy frecuentes las infecciones causadas por este bacilo gram negativo, sobre todo en pacientes oncológicos, quemados y enfermos de fibrosis quística.

El problema, es que 'P. aeruginosa' tiene una extraordinaria capacidad para sobrevivir a los intentos por erradicar su invasión, tanto los que provienen del huésped (sistema inmune) como los externos (antibióticos). Esta resistencia numantina se produce gracias a dos fenómenos: la biopelícula y el sistema sensor de quórum, de comunicación intercelular.

En las infecciones crónicas causadas por esta bacteria se ha observado una particular forma de vida de estos microorganismos que se organizan formando pequeños acúmulos en los que varias células se envuelven dentro de una membrana (biopelícula). Esta disposición confiere a 'P. aeruginosa' una mayor resistencia a los antibióticos y a las defensas del cuerpo.

Para la formación de estos acúmulos y el correspondiente despliegue de los mecanismos de defensa bacterianos, es esencial el sensor de quórum. Investigadores de la Universidad de Copenhague (Dinamarca) han descubierto una nueva función de este sensor de quórum, descrita en el último número de la revista 'Microbiology'.

UN ESCUDO PROTECTOR

La presencia de bacterias en el organismo atrae a las células defensivas debido a la síntesis de ciertas sustancias. Cuando los leucocitos perciben esta señal de alarma, viajan hacia los lugares de producción para combatir la infección.

Pero las bacterias también son capaces de identificar la amenaza de estos glóbulos blancos. En el caso de 'P. aeruginosa', cuando uno de los bacilos detecta la presencia de un leucocito, emite una serie de señales (a través del sensor de quórum) para alertar a las demás bacterias de la biopelícula.

Según el trabajo dirigido por Michael Givskov, especialista en inmunología y microbiología, en respuesta a esta señal, los bacilos aumentan la producción de unas moléculas llamadas ramnolípidos. Éstas se disponen en la superficie de las biopelículas formando una suerte de escudo.

Cuando los glóbulos blancos entran en contacto con los ramnolípidos, son destruidos. Las pesquisas de Givskov y su equipo reafirman esta hipótesis, al comprobar que las bacterias cuyo sensor de quórum estaba alterado no producían estas sustancias y eran eliminadas con éxito por las células del sistema inmune.

"El fin último [de este trabajo] es erradicar las bacterias resistentes a antibióticos que están implicadas en la mayor parte de las infecciones crónicas", ha declarado Givskov. "Estudiar las interacciones entre 'P. aeruginosa' y el sistema inmune proporcionará información muy valiosa para el diseño de nuevos antimicrobianos", concluye el trabajo, como aquellas sustancias capaces de bloquear el sistema de comunicación sensor de quórum, que evitarían que unas bacterias avisaran a otras de la amenaza del sistema inmune.

Autor: Cristina de Martos

jueves, 26 de noviembre de 2009

El uso del suelo para combatir las emisiones de gases de efecto invernadero

Una nueva investigación sugiere que las emisiones de metano procedentes del ganado y las de óxido nitroso de las explotaciones agrícolas en Europa son equilibradas por la absorción de dióxido de carbono realizada por los sumideros que componen los bosques, praderas y turberas del continente. Sin embargo, la tendencia ascendente de la agricultura intensiva y la tala de bosques es probable que convierta el suelo europeo en una fuente importante de gases de efecto invernadero, según se advierte en un artículo de la revista Nature Geoscience. Para remediar esta situación, el desarrollo de políticas de gestión del suelo encaminadas a reducir las emisiones de gases de efecto invernadero debe establecerse como prioridad.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 26/11/2009

Estas conclusiones proceden del proyecto financiado con fondos comunitarios CARBOEUROPE («Evaluación del balance de carbono terrestre europeo»), cuyo objetivo es comprender, calcular y predecir el balance del carbono terrestre en Europa. CARBOEUROPE recibió una financiación de 16,3 millones de euros mediante el área temática «Desarrollo sostenible» del Sexto Programa Marco (6PM) de la UE y cerca de 30 millones de euros de fuentes nacionales.

Dirigidos por Detlef Schulze, del Instituto Max Planck de Biogeoquímica (Alemania), los investigadores del proyecto reunieron estimaciones de los flujos europeos de dióxido de carbono, metano y óxido nitroso producidos entre 2000 y 2005 para generar el balance de gases de efecto invernadero correspondiente a Europa. Sus análisis desvelaron la existencia de un sumidero de carbono en los bosques y praderas del continente que almacena 305 millones de toneladas de carbono cada año. Un sumidero de esta magnitud podría neutralizar una quinta parte de las emisiones procedentes del consumo de combustibles fósiles. Sin embargo, los terrenos agrícolas y los drenajes practicados en turberas emiten CO2, anulando parte del efecto de este sumidero.

Además, se liberan otros gases de efecto invernadero debido al uso del suelo, inutilizando casi por completo el efecto del sumidero de carbono. Esto significa que el suelo europeo sólo elimina alrededor del 2% de las emisiones de gases de efecto invernadero producidas por los hogares, el transporte y la industria.

Para realizar sus cálculos, el proyecto CARBOEUROPE desarrolló un programa de observación y modelización que ofrece una mayor resolución espacial y temporal. El proyecto también investiga los mecanismos básicos de control del ciclo del carbono en los ecosistemas europeos.

Para realizar su trabajo, los investigadores calcularon los flujos biológicos de gases de efecto invernadero de dos formas. En primer lugar separaron los flujos industriales y geológicos de los atmosféricos. En segundo lugar, midieron la absorción y emisión de CO2 en bosques, praderas, tierras de cultivo y turberas y los extrapolaron a toda Europa teniendo en cuenta cambios en el uso de suelo, el comercio de madera y alimentos, el transporte fluvial, la oxidación del metano y la extracción de turba. Parte de los investigadores dedicados al proyecto utilizaron una metodología novedosa que incluyó inventarios de bosques rusos, nuevos modelos de tierras de cultivo y estimaciones actualizadas de la transpiración de los bosques, así como las pérdidas y ganancias de carbono en el suelo tras un cambio en el uso del mismo.

«Estos descubrimientos muestran que si pretendemos que el suelo europeo contribuya a mitigar el calentamiento global, es necesario cambiar la gestión actual del suelo», admitió el profesor Schulze. «El metano y el óxido nitroso son dos gases de efecto invernadero realmente potentes y hemos de gestionar el suelo para reducir su emisión.»

Desarrollan un método para producir plásticos ecológicos

La posibilidad de fabricar un plástico 'verde' está hoy un poco más cerca. Un equipo de científicos de la Universidad KAIST en Seúl ha logrado producir polímeros a través de la bioingeniería, en lugar de utilizar combustibles fósiles.

FUENTE | El Mundo Digital 24/11/2009

Los polímeros son macrocélulas orgánicas a partir de las que se fabrican los plásticos de uso común, como botellas o bolsas de supermercado. Según afirman sus creadores, esta nueva técnica permitirá la producción de plásticos biodegradables y de baja toxicidad.

La investigación, publicada en la revista 'Biotechnology and Bioengineering' y recogida por CNN.com, se ha centrado en el Ácido Poliláctico, o PLA, un polímero constituido por moléculas de ácido láctico que se degrada fácilmente en agua y óxido de carbono.

"El poliéster y otros polímeros que utilizamos todos los días derivan en su mayoría de combustibles fósiles producidos en una refinería a través de procesos químicos", explica el profesor Sang Yup Lee, responsable de la investigación. "La idea de producir polímeros a partir de biomasa renovable ha atraído gran atención por las crecientes preocupaciones sobre el clima".

Según sus creadores el PLA, que es biodegradable y de baja toxicidad supone una buena alternativa a plásticos basados en petróleo. Hasta ahora se venía produciendo en un costoso proceso de fermentación y polimerización química. Sin embargo, los científicos coreanos lo han conseguido con la modificación metabólica de la bacteria Escherichia coli. "El calentamiento global y otros problemas medioambientales demandan que desarrollemos procesos sostenibles basados en energías renovables", asegura Sang Yup Lee.

Nueva proteína implicada en el control génico

Un equipo internacional de científicos ha identificado una nueva proteína denominada BAHD1 que puede cambiar la estructura de un cromosoma y es responsable de la silenciación de la expresión génica.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 24/11/2009

El estudio, que ayuda a ampliar conocimientos sobre la regulación génica, se ha publicado en la revista Proceedings of the National Academy of Sciences (PNAS). La investigación formó parte de PATHOGENOMICS («Cooperación y coordinación transgenómica de secuenciación del genoma y genómica funcional de microorganismos patogénicos humanos»), un proyecto comunitario de ocho años de duración perteneciente a ERA-NET que estará en marcha hasta 2012 y recibirá 3 millones de euros de financiación a través del Sexto Programa Marco (FP6).

En la investigación colaboran quince socios, entre los que se encuentra el Instituto Pasteur de París (Francia), el Centro Nacional de Investigación Científica de Francia (CNRS), el Instituto Nacional de Investigación Agronómica (INRA, Francia) y el Instituto de Investigación de Jülich (Alemania).

Una célula tumoral se origina por un cambio en los genes y por lo tanto en la composición química de una célula. Una de estas vías cancerígenas ha sido descubierta gracias a la investigación sobre el desarrollo embrionario. Una vez alcanzada la madurez, las células deben renovarse para que órganos y tejidos se mantengan sanos. Sin embargo, en el caso del embrión, sus órganos deben desarrollarse desde cero. Según parece, la activación de genes que sólo están activos en el embrión puede ser la clave del crecimiento de un cáncer.

La expresión génica es la forma en la que los genes expresan su código genético particular. Todas las células poseen los mismos genes, pero normalmente cada una de ellas sólo es capaz de usar aquellos directamente relacionados con su función. Sin embargo, algunas veces el sistema no funciona como es debido y se expresan variantes patológicas de genes que pueden provocar enfermedades genéticas o cáncer.

Todas las células de cualquier organismo (el cuerpo humano, una planta o un animal) poseen la misma información genética, pero la expresan de formas muy distintas. Por ejemplo, la piel, el pelo y los dientes humanos se componen de distintos tipos de tejidos, pero los genes que produjeron el código para crearlos realizan la misma función. El motivo de que sean capaces de producir elementos tan distintos a partir del mismo código genético es que cada tipo de célula activa sólo un pequeño grupo de genes, de tal forma que cada uno es único.

Las células «eligen» qué genes deben activarse mediante la regulación de la estructura de una sustancia denominada cromatina, material genético que consiste de cadenas de proteínas y ADN que forman nuestros cromosomas. Las cadenas de cromatina pueden aglutinarse en agregados compactos y silenciar así los genes, o bien pueden organizarse de forma más suelta y activar los genes. Por esta razón es básico identificar los factores que regulan la estructura de la cromatina. Si la estructura se altera, puede provocar enfermedades neurológicas, cáncer o anomalías del desarrollo.

El descubrimiento de BAHD1 por parte de este equipo supone un avance para la ciencia, pues su presencia en una célula silencia el gen IGF2 (factor de crecimiento II similar a la insulina), activo normalmente durante el desarrollo embrionario. El IGF2 no se encuentra por lo general activo en adultos sanos, pero sí en muchos casos de cáncer, al provocar la proliferación de células que pueden devenir en tumores.

«El descubrimiento del complejo BAHD1 aumenta el conocimiento que poseemos sobre los mecanismos que regulan los genes de nuestras células», indicó la Dra. Marion Karrasch Bott del Forschungszentrum Jülich, que coordina PATHOGENOMICS. «Este tipo de conocimientos podría desembocar en nuevas terapias contra el cáncer encaminadas a volver a silenciar genes activados a destiempo o dar lugar a nuevos marcadores pronósticos.»

viernes, 20 de noviembre de 2009

El sorprendente pasado cálido de la Antártida

La temperatura en la Antártida no está en su pico máximo. Aunque las consecuencias del cambio climático podrían llevar a pensar que atravesamos la época más cálida de los últimos milenios, la temperatura del Polo Sur fue alrededor de seis grados centígrados superior a la actual durante el último periodo cálido, que tuvo lugar hace 125.000 años.

FUENTE | El Mundo Digital 20/11/2009

Una investigación, publicada este jueves en la revista 'Nature', ha analizado testigos de hielo tomados en la Antártida a profundidades de hasta 1.000 metros y ha demostrado que la temperatura durante los periodos interglaciales -épocas cálidas situadas entre las glaciaciones- era más alta de lo que la ciencia pensaba hasta la fecha.

"No sólo hemos demostrado que la temperatura era hasta seis grados superior a la actual, sino que también el nivel del mar era entre cuatro y cinco metros más alto que hoy en día", asegura la investigadora del British Antartic Survey y autora principal del trabajo, Louise Sime, a EL MUNDO.

UN DESCUBRIMIENTO SORPRENDENTE

Tal cantidad de agua procedía de Groenlandia y de la Antártida, lo que hace pensar a los científicos que la cantidad de hielo en ambos lugares era menor que en la actualidad. "No esperábamos encontrar temperaturas tan altas y, de hecho, aún no sabemos en detalle qué las causó", dice Sime.

La autora explica que la temperatura y la concentración de CO2 en la atmósfera han ido de la mano durante los últimos milenios. "En aquella época había entre 280 y 300 partes por millón de CO2 y hoy tenemos casi 400. La pregunta del millón es qué sucederá en los próximos años si sigue aumentando este gas en la atmósfera", se pregunta. "Lo que indica nuestro trabajo es que el clima de la Antártida ha sufrido cambios muy rápidos en los últimos periodos con altos niveles de CO2", añade.

Entonces, ¿estos nuevos datos suponen que ya tenemos un ejemplo de lo que sucederá a consecuencia del cambio climático? "Si llegamos a conocer en detalle cómo de cálidos fueron el Polo Sur y Groenlandia, podremos realizar predicciones sobre la contribución de la fusión de estas masas de hielo al aumento del nivel del mar en el futuro», explica Eric Wolff, coautor y uno de los mayores expertos del mundo en climas pasados.

sábado, 14 de noviembre de 2009

Calidad del aire: los líquenes


La gran sensibilidad de los líquenes a la contaminación atmosférica es la clave que los convierte en indicadores biológicos de la calidad del aire en la ciudad. Se trata de un método económico, sencillo y eficaz que los investigadores de la Complutense mostrarán a través de la observación de lo más pequeño, los impactos que sufre el medio.

Las características biológicas de los líquenes, una asociación entre alga y hongo que puede vivir con escasos nutrientes, han convertido a estos organismos en bioindicadores capaces de proporcionar información sobre los niveles de contaminación atmosférica en el entorno.


Su extremada sensibilidad al dióxido de azufre hace que las distintas especies se distribuyan de manera diferente en función de la mayor o menor presencia de este contaminante, así como de la resistencia frente a él que ofrece cada una de ellas.

La monitorización de la presencia de estas especies a lo largo del tiempo consigue trazar un mapa del estado de salud crónico del aire que se respira en las ciudades. Como explica la profesora Ana María Crespo, bióloga evolutiva y experta en liquenología, "esta técnica permite el seguimiento de la evolución de la calidad del aire en territorios muy extensos a través del estudio de una nube de puntos tan densa como se quiera".

La utilización de este método presenta algunas ventajas con respecto a los sistemas de captación de aire para el análisis de su composición química. Por un lado, es mucho más económico, ya que no requiere de la instalación de costosos aparatos. Además, los resultados informan no de la composición del aire en momentos puntuales, sino de su estado de salud a más largo plazo, ya que las diferentes especies de líquenes se instalan o no dependiendo de los valores medios que alcance la concentración de algunos contaminantes.

El estudio de los líquenes como bioindicadores se inició ya en el siglo XIX y, desde entonces, ha sido objeto de más de 1.500 artículos en revistas científicas internacionales. En países como Inglaterra ya están en marcha iniciativas que cuentan con participación ciudadana y escolar para realizar un seguimiento de la calidad del aire en todo el territorio nacional a gran escala. El equipo investigador espera, estimular las relaciones de la universidad con otras esferas sociales y favorecer así la divulgación de la ciencia y la participación de la ciudadanía en la creación de la ciencia misma.

lunes, 9 de noviembre de 2009

Fundación Atapuerca

Aquí os dejo el enlace a la Fundación Atapuerca, que tiene como objeto difundir y promover de forma activa los descubrimientos e investigaciones que se están llevando a cabo en la Sierra de Atapuerca en los últimos años.
Tiene un espacio didáctico que espero utilices y te ayude en el estudio de la evolución humana y amplie tus conocimientos de la prehistoria.

Fundación Atapuerca

viernes, 23 de octubre de 2009

¿Qué pasará si la temperatura sube 4ºC?

Conseguir que el incremento de la temperatura del planeta no supere los 2ºC con respecto a los niveles preindustriales. Ese es el límite marcado por los científicos para evitar impactos dramáticos derivados del calentamiento global. Para ello habría que mantener la concentración de dióxido de carbono en la atmósfera en 450 partes por millón. Si no, la temperatura podría dispararse por encima de ese nivel de seguridad.

FUENTE | ABC Periódico Electrónico S.A. 23/10/2009

Y eso es lo que ha querido simular el Gobierno británico en un mapa que ilustra las repercusiones que una subida de 4ºC en la temperatura puede tener para el planeta. Es lo que podría pasar si no se logra en la cumbre de diciembre en Copenhague un acuerdo para reducir la concentración de CO2 en la atmósfera a un nivel seguro.Para verlo pulsa aqui.

A poco más de 40 días para que comience esa cumbre, el mapa ha sido desarrollado usando la información y análisis científico más actualizado del Centro Hadley de la Oficina Meteorológica británica y por otros científicos de primer orden. Y lo que proporciona «es una prueba gráfica de la dramática transformación que nuestro mundo sufriría con un aumento medio de la temperatura de 4ºC. No deja duda alguna sobre la importancia de un resultado exitoso en las negociaciones de Copenhague», afirma el profesor Chris Rapley, director del Museo de Ciencias de Londres.

Según este mapa de impactos la subida del nivel del mar y las marejadas ciclónicas podrían suponer un peligro grave para la población y los bienes materiales en los Países Bajos y algunas zonas del sudeste del Reino Unido; es posible que algo más de 3.000 millones de personas -de una población mundial de 7.500 millones- viva en zonas con una disponibilidad de agua per cápita limitada (menos de 1.000 metros cúbicos por persona al año); y los días más calurosos del año en toda Europa podrían aumentar su temperatura en hasta 8ºC con respecto a las cotas actuales.

Son sólo algunos ejemplos que «muestran la importancia de lo que está en juego en Copenhague. Los científicos del Reino Unido han ayudado a ilustrar los efectos catastróficos que resultarán si el mundo fracasa en establecer el límite del incremento de la temperatura en 2 grados», aseguró Ed Miliband, ministro de Energía y para el Cambio Climático de Reino Unido.

El mapa cuenta con una versión online que proporciona una herramienta interactiva, permitiendo al usuario fijarse en algunos de los impactos, datos geográficos y el acceso a más información sobre la datos científicos que han contribuido a la creación del mapa.

Autor: Araceli Acosta

jueves, 22 de octubre de 2009

El hombre adelanta a Darwin

La costumbre humana de cazar siempre el animal más grande está provocando una nueva evolución tres veces más rápida de la que predijo Darwin. En el mar, especies como el bacalao o el salmón se están haciendo más pequeñas y maduran antes debido a la sobrepesca. En tierra, el tamaño de algunos trofeos de caza está en declive.

FUENTE | Público 20/10/2009

Los carneros de las montañas rocosas tienen cuernos más pequeños y algunos elefantes nacen sin sus preciados colmillos de marfil. Las causas de este fenómeno aun están a debate, pero cada vez más expertos hablan de una nueva versión evolutiva en la que sobrevive el más pequeño y débil.

"No hay duda de que se está produciendo un cambio evolutivo", explica el investigador de la Universidad de Islandia Einar Árnason. Su equipo demostró que el bacalao, una de las especies más esquilmadas por el hombre, ha cambiado sus genes debido a la sobrepesca. Estudiaron especímenes de la costa islandesa y demostraron que los genes que hacen que algunos grupos prefieran aguas poco profundas está en franco declive debido a que, durante décadas, han sido los primeros en caer a manos de los pescadores. Árnason también registró un descenso del tamaño de estos animales y una maduración cada vez más precoz fruto de la sobrepesca. En teoría, la especie se estaba asegurando poder dejar descendencia antes de ser atrapada, pero, a cambio, el tamaño de su progenie disminuye. Un fenómeno similar sucedió con el bacalao de las costas de Terranova antes de que prácticamente desapareciera a principios de la década de los noventa. Árnason alerta de que los cambios genéticos que ha detectado en los bancos islandeses podrían estar prediciendo un nuevo colapso. "Estos cambios pueden sobrevenir muy fácilmente", advierte.

El bacalao no es el único que evoluciona para adaptarse al hombre. Un estudio publicado a principios de año en PNAS mantiene que 29 especies que son presa habitual del hombre han disminuido su tamaño en casi un 20% y maduran casi un 25% antes. Estos efectos son resultado de una selección artificial que priva a muchas especies de sus ejemplares más grandes y mejor preparados para reproducirse.

"El hombre es el único vertebrado que caza presas grandes", señala Chris Darimont, uno de los investigadores que firmaba el estudio de PNAS. Esto es justo lo contrario de lo que sucede en la naturaleza, donde las crías y los individuos más débiles suelen ser la presa habitual de sus depredadores.

Darimont comparó el ritmo al que se están produciendo estos cambios al que podría esperarse con las leyes de Darwin en la mano. Son 3,4 veces más rápidos. Su estudio alerta de que estos cambios pueden disminuir la capacidad de una especie de prosperar, ya que un tamaño menor y una madurez precoz está asociada a una menor capacidad reproductiva. Además, dejaría a algunos depredadores, como es el bacalao, en desventaja ante sus presas. Por su parte, el hombre tendrá que acostumbrarse a pescar peces cada vez más pequeños.

La vuelta atrás no será tan rápida. "La velocidad a la que están disminuyendo el tamaño es probablemente mucho más alta que la velocidad de recuperación", explica Marco Festa-Bianchet, que trabaja en la Universidad de Sherbrooke, en Canadá. Durante 30 años, este investigador estudió una población de carnero de las rocosas en Alberta. Los cuernos de esta especie son un preciado trofeo de caza. Según sus datos, publicados en Nature en 2003, el tamaño de la osamenta se redujo en un 25% en el periodo de estudio debido a la presión cinegética. El peso medio de los machos cayó unos 20 kilos. "Estamos matando a los mejores individuos, justo lo contrario que han hecho los agricultores y ganaderos durante miles de años", destaca.

Lo mismo señala el español Fran Saborido-Rey, que coordina una red europea de investigación sobre pesquerías desde el Instituto de Investigaciones Marinas de Vigo. Señala que este fenómeno reduce la variedad genética de una especie, que es su seguro de vida contra cambios drásticos en el ecosistema. Esto sería lo que sucedió con el bacalao de Terranova, comenta.

LENTA RECUPERACIÓN

Una vez se cambia el genotipo de una especie, es muy difícil, o tal vez imposible, revertir el cambio. Un estudio publicado en marzo ha sido el primero en demostrar que se pueden revertir los cambios genéticos tras un periodo de disminución del tamaño debido a la pesca. El trabajo se basa en un experimento en un tanque en el que se pescaron durante varias generaciones las sardinas más grandes, dejando a las pequeñas intactas. El tamaño y la edad de madurez de la especie disminuyó. Luego dejaron de pescar y la especie volvió, lentamente, a crecer. Señala que serían necesarias unas 12 generaciones para recuperarse completamente. También advierte de que la mayoría de pesquerías vive entre tres y siete años, lo que supone que tardarían décadas en recuperar lo perdido, y sólo en el caso de que se deje de pescar.

Aunque los cambios que está causando el hombre son indiscutibles, algunos investigadores ofrecen otras explicaciones. Señalan que los cambios que se están observando pueden deberse a razones medioambientales y no genéticas, es decir, a algo conocido como "plasticidad fenotípica". Explican, por ejemplo, que el hecho de que la pesca deje menos individuos capaces de reproducirse puede explicar que el resto se reproduzcan antes. Los cambios también podrían deberse a que haya más o menos alimento disponible para las especies.

Lo más probable es que tanto los genes como el medio ambiente estén contribuyendo, señala Mikko Heino, un investigador de la Universidad de Bergen (Noruega) que lleva años estudiando el impacto evolutivo de la pesca. "Los cambios fenotípicos son importantes, pero no pueden explicar todos los cambios", explica. Heino y Saborido-Rey participan en un proyecto europeo que está reuniendo más datos genéticos y morfológicos de las pesquerías y también desarrollando modelos para predecir el impacto de la explotación. Los resultados estarán listos a finales de 2010. "Van a aportar suficientes pruebas para que los escépticos vean que estos cambios genéticos son reales y están sucediendo ya en especies como el bacalao, el salmón o la solla", comenta.

Ambos procesos están ocurriendo en paralelo, pero eso no es lo más importante, señala Darimont. "Lo que importa es que estos animales están cambiando debido al hombre y, cuando esto sucede, son de esperar impactos muy serios", destaca.

Muchos coinciden en que la solución pasa por renovar las políticas de pesca. El pezqueñines no, gracias habría subestimado la cantidad de peces grandes que es capaz de atrapar el hombre con las nuevas técnicas de pesca.

"Deberíamos proteger a los peces grandes", reclama Árnason. "Tenemos que conservar a los más grandes y mayores porque son claves para alumbrar nuevas generaciones", añade. Pero, tal y como están concebidas las artes de pesca y las leyes que las regulan, esta tarea resulta muy difícil, comenta Saborido-Rey. Primero habría que dejar que algunas especies, como el bacalao, se recuperaran. Después deberían establecerse reservas en las que los individuos más grandes puedan criar y mantener así al resto de la especie.


Autor: Nuño Domínguez

viernes, 16 de octubre de 2009

El hallazgo de la telomerasa, una misión molecular

En los años setenta del siglo XX la investigación puntera en biología molecular estaba centrada en la secuenciación de genes. Fred Sanger acabada de desarrollar métodos que permitían leer el contenido de ADN de los genes, lo que ayudaba a desvelar su función. Por sus trabajos en secuenciación, Sanger recibió su segundo Premio Nobel de Química en 1980.

FUENTE | El País Digital 16/10/2009

Entre los cazadores de genes del laboratorio de Sanger en Cambridge (Reino Unido) se encontraba Elizabeth (Liz) Blackburn, una joven australiana fascinada por la investigación como modus vivendi (según sus propias palabras, en el mundo de la investigación se sentía segura).

Tras finalizar su tesis doctoral y convertirse en una experta en la tecnología de la secuenciación, Liz dio el paso, habitual en la carrera científica, de hacer una estancia postdoctoral en Estados Unidos. Eligió el laboratorio de Joe Gall en la Universidad de Yale, que estaba centrado en el estudio de los cromosomas.

Gall ya era famoso por aquel entonces por ser uno de los pocos científicos del momento que se tomaban un interés especial en apoyar la carrera de las mujeres investigadoras. El equipo investigador de Gall estaba formado por algunas de las mujeres que luego serían los pilares fundacionales del campo de la investigación en los telómeros (Elizabeth Blackburn, Ginger Zakian, Marie Lou Pardue) y también algunos hombres notables como Tom Cech (destacado investigador en telómeros y telomerasa, Premio Nobel en 1989 por el descubrimiento de las ribozimas).

El proyecto de Blackburn consistía en secuenciar los telómeros de un organismo unicelular bastante exótico, llamado Tetrahymena, que tiene la particularidad, muy ventajosa en este caso, de tener cientos de pequeños cromosomas. Los telómeros habían sido descubiertos en los años cuarenta del siglo XX por los investigadores Hermann Müller y Barbara McClintock, quienes estudiaban la estabilidad de los cromosomas de la mosca del vinagre (Drosophila) y del maíz, respectivamente. Éstos observaron de manera independiente que la parte del final de los cromosomas (telómero, del griego telos -parte- y meros -final-, término acuñado por Müller) tenía una naturaleza especial que evitaba que los cromosomas se fusionaran o degradaran.

Ambos investigadores recibieron el premio Nobel años después, aunque no por el descubrimiento de los telómeros sino por sus trabajos sobre los efectos mutagénicos de la radiación en el caso de Müller y por la descripción de los elementos genéticos móviles en el caso de McClintock. Desde los años cuarenta hasta que Blackburn se dispuso a secuenciar los telómeros transcurrieron más de 30 años, durante los cuales los telómeros estuvieron en el olvido más absoluto.

En 1978, tanto Blackburn como Gall quedaron un tanto decepcionados al ver por primera vez la secuencia de los telómeros de Tetrahymena. Se trataba de una secuencia repetida (TTGGGG) y heterogénea en longitud, algo que ciertamente no daba muchas claves sobre su funcionamiento. Además, no era lo que esperaban: por aquel entonces estaban de moda unas estructuras del ADN en horquilla al final de los cromosomas lineales de algunos virus, lo que les permitía resolver el problema de la replicación terminal. Este problema es famoso en biología y lo identificó James Watson, el descubridor de la estructura del ADN. Consiste en el hecho de que las enzimas que sintetizan el ADN son incapaces de copiar los extremos lineales del ADN.

Al ser el único telómero secuenciado, y además tratarse de un organismo tan freaky (en palabras de Blackburn), no estaban seguros de como de universal era su descubrimiento. Así, la primera descripción de la naturaleza de los telómeros se publicó en una revista modesta. Tras abandonar el laboratorio de Gall para establecer su propio grupo de investigación, Blackburn decidió centrarse en el estudio de los telómeros. Evidencias de varios grupos, incluidos los propios trabajos de Blackburn y su colaborador Jack Szostak, sugerían que tenía que haber una actividad capaz de sintetizar telómeros de novo. En 1982, Blackburn y Szostak propusieron que tendría que tratarse de una transferasa terminal, un enzima ya descrito por aquel entonces que era capaz de añadir secuencias a los extremos de ADN de novo. Independientemente, los laboratorios de Blackburn y Szostak se embarcaron en la búsqueda de la transferasa terminal de los telómeros.

En 1984, Liz consiguió convencer a una jovencísima Carol Greider de que realizara su tesis doctoral en su laboratorio. Su proyecto consistiría en el descubrimiento del enzima que alargaba los telómeros. Por lo arriesgado del proyecto, Liz había tenido dificultades en conseguir la atención de los estudiantes predoctorales, pero Carol no lo dudó ni un segundo. A los pocos meses, el 25 de diciembre de 1984, Carol obtuvo la primera evidencia de que tal enzima existía. Por aquel entonces apenas tenía 23 años y había hecho un descubrimiento trascendental que ahora se ha reconocido con el premio Nobel. Poco después se dieron cuenta de que no se trataba de una transferasa terminal, sino de una transcriptasa en reverso, que necesita de una molécula de ARN para su funcionamiento y a la cual denominaron telomerasa. La telomerasa era, por tanto, el mecanismo de mantenimiento de los extremos de los cromosomas eucarióticos. Ya fue sólo una cuestión de tiempo demostrar su predicha importancia para el cáncer y el envejecimiento.

En 1990, Cal Harley, Bruce Futcher y Carol Greider demostraron por primera vez que los telómeros se acortaban asociados al proceso de envejecimiento y propusieron la hipótesis telomérica, según la cual las células normales tienen dormido (silenciado) el gen de la telomerasa y, por tanto, sus telómeros se acortan progresivamente hasta que finalmente determinan el final proliferativo de las células. En contraste, las células cancerosas despiertan el gen de la telomerasa y gracias a ello pueden mantener sus telómeros indefinidamente y así multiplicarse sin límite.

Una explosión de estudios por multitud de laboratorios verificó en pocos años que esta hipótesis era correcta. Hoy en día la telomerasa tiene un interés biomédico doble. Por un lado, se intenta eliminar de las células tumorales para así frenar el crecimiento del tumor y, por otro lado, su reactivación se ve como una promesa para alargar la vida de las células.

Tras los laureles del Nobel, todos los investigadores en este campo esperamos que algún día la investigación en telomerasa sirva para hacer más efectivo el tratamiento de enfermos de cáncer y de aquellos que sufren enfermedades asociadas al envejecimiento. ¿Y por qué no soñar? Quizás estemos ante la fuente de la eterna juventud.

Autor: María Blasco (Jefa del Grupo de Telómeros y Telomerasa del Centro Nacional de Investigaciones Oncológicas, donde también es directora del Programa de Oncología Molecular y vicedirectora de Investigación Básica)

martes, 13 de octubre de 2009

Energia Nuclear : conferencia Octubre

A continuacón os dejo un enlace sobre un ciclo de conferencias organizado por la Universidad politecnica de Madrid al que podeis asistir si lo deseais.

Esta primera charla trata de la "Energía nuclear: solucion o problema"

jueves, 24 de septiembre de 2009

Nueve líneas rojas para salvar el planeta

La expansión del hombre en la Tierra no tiene límite, pero debería tener nueve. Un grupo internacional de científicos alerta en Nature de que, si la humanidad quiere seguir habitando un planeta estable, debe cumplir un contrato con nueve líneas rojas que son fundamentales para conservar la Tierra.

FUENTE | Público 24/09/2009

Este mensaje debería tener implicaciones profundas en futuras negociaciones sobre cambio climático", explica a Público Johan Rockström, investigador de la Universidad de Estocolmo (Suecia). Junto a un nutrido grupo de expertos medioambientales de tres continentes, Rockström señala que tres de estos límites ya se han cruzado: las emisiones de CO2, la extinción de especies y el equilibrio del ciclo del nitrógeno. Otros cuatro están a punto de caer, y afectan al uso de agua dulce, la acidificación de los océanos, la deforestación y la sobreproducción de fósforo. Junto a estos procesos, también es preciso contener los vertidos químicos al medio ambiente y los daños a la capa de ozono.

Los nueve puntos ponen las bases de un nuevo pacto con el planeta para que este mantenga las características que ha tenido durante los últimos 10.000 años. "No necesitamos un pacto global sobre cambio climático, sino sobre desarrollo sostenible", detalla Rockström.

El nobel Paul Crutzen, uno de los firmantes del artículo, acuñó en 2000 el término Antropoceno para explicar que la actividad humana en la Tierra ha inaugurado una nueva era geológica en la que los procesos que gobiernan el planeta ya no están controlados por la naturaleza, sino por el hombre. El Antropoceno vendría a sustituir al Holoceno, un periodo de estabilidad ambiental que ha permitido al hombre nacer, multiplicarse y crear civilizaciones durante milenios. El uso de combustibles fósiles desde la Revolución Industrial y la expansión de la agricultura a gran escala amenazan ese equilibrio que ha hecho posible la vida. Esto puede traer consecuencias catastróficas para algunas partes del mundo, alertan los expertos. Para evitarlo, han identificado nueve áreas y han fijado límites exactos para siete de ellas. El problema, dicen, debe ser abordado de forma global.

"No nos podemos permitir el lujo de concentrar los esfuerzos en sólo uno de estos límites", dice Rockström. Pero las líneas rojas ya han recibido algunas críticas. En las mismas páginas de Nature varios expertos comentan la propuesta y, mientras algunos saludan la idea, otros alertan de que puede ocasionar más degradación medioambiental, pues fomentan la idea de que no es necesario actuar hasta que se cruza el límite.

1. EMISIONES DE CO2 DESBOCADAS

Las emisiones de CO2 deben reducirse a 350 partes por millón si no se quiere llegar a un punto de no retorno

El aumento de las emisiones de CO2 es uno de los límites que ya se han transgredido. Las emisiones actuales son de 387 partes por millón (ppm), mientras que antes de la Revolución Industrial eran de 280 ppm. Los expertos proponen un límite de 350 ppm.

Este límite permitiría asumir el margen de error de los actuales modelos climáticos, cuyas estimaciones de ascenso de las temperaturas en función de las emisiones podrían ser hasta dos grados menores que en la realidad. También permitirían conservar las dos placas polares y detener el retroceso del hielo en el Ártico y en la Antártida.

En un comentario al artículo de Rockström, el físico de la Universidad de Oxford Myles Allen señala que fijar un límite de 350 ppm evita el verdadero problema: el ascenso de las temperaturas a 2º sobre el nivel preindustrial.

2. AUMENTA LA EXTINCIÓN DE ESPECIES

La desaparición de seres vivos es entre 100 y 1.000 veces superior a la que existía antes de la Revolución Industrial

El número de especies extinguidas desde la llegada del hombre a la Tierra no tiene precedente desde la última extinción en masa. Antes de la Revolución Industrial, desaparecía, como máximo, una especie de cada 1.000 al año. En la actualidad, el ritmo al que se están extinguiendo las especies es entre 100 y 1.000 veces mayor al que podría considerarse natural, según el estudio. El ser humano es el principal culpable. Los expertos han fijado un límite de 10 especies por cada 1.000 cada año.

La pérdida de especies puede afectar al equilibrio global del planeta, destacan los expertos. Señalan que la reducción hace más vulnerables los ecosistemas en los que viven a otros cambios ambientales potenciados por el hombre. Se espera que este siglo el 30% de los mamíferos, aves y anfibios estén amenazados de extinción.

3. EL CICLO DE NITRÓGENO ESTÁ DESFASADO

El hombre fija más nitrógeno que la Tierra, lo que aumenta el calentamiento y la contaminación de acuíferos y océanos

La agricultura extensiva depende de los fertilizantes que provienen del nitrógeno. Estos productos han hecho posible grandes mejoras en el rendimiento del campo y la producción agrícola, pero también presentan un importante peligro ambiental.

El nitrógeno es el elemento más abundante en el planeta y pasa de estado gaseoso en la atmósfera a estados sólidos en el suelo. El hombre ha aprovechado esta abundancia de nitrógeno para imitar ese proceso y generar derivados para fertilizar los campos. Como resultado se producen unos 120 millones de toneladas más de nitrógeno sólido, lo que supera la producción natural de la Tierra. Gran parte de los derivados del nitrógeno acaban contaminando acuíferos y produciendo gases que potencian el cambio climático. Los expertos proponen reducir la producción de nitrógeno un 75%.

4. OCÉANOS DEMASIADO ÁCIDOS

Las aguas de los océanos se están haciendo más ácidas debido al exceso de CO2, que amenaza a corales y moluscos

El exceso de CO2 que produce el hombre no sólo potencia el calentamiento, sino también un proceso paralelo que hace las aguas del océano más ácidas. Este fenómeno afecta directamente a multitud de especies que son muy sensibles a los cambios del pH, especialmente el coral y los moluscos que cubren su cuerpo con conchas. El aumento de la acidez de los océanos limita la capacidad de estos organismos de generar los resistentes productos que componen sus conchas, que son esenciales para su supervivencia. Esto tendría a su vez un impacto en el resto de especies que aún se desconoce, señalan los expertos. Proponen tomar como medida la abundancia en el agua de aragonita, uno de los compuestos en las conchas de los moluscos cuya saturación en el océano viene bajando desde tiempos preindustriales. Señalan un límite de saturación de 2,75. El actual es 2,90.

5. UNA SED DE AGUADULCE INSACIABLE

El ser humano requiere 2.600 kilómetros cúbicos de agua cada año. El umbral de riesgo se sitúa en 4.000 km3

El ciclo que sigue el agua dulce en el planeta ha entrado en una nueva era: el Antropoceno. La injerencia del ser humano en el curso natural de la Tierra es tal que ya es el principal responsable del flujo de los ríos. Se estima que el 25% de las cuencas fluviales del mundo se seca antes de llegar a los océanos, a causa de la voracidad humana, de la descontrolada utilización del agua dulce. A juicio del grupo de científicos, la amenaza que se cierne sobre la humanidad por el "deterioro" de los recursos globales de agua es triple: la pérdida de la humedad del suelo, a causa de la deforestación; el desplazamiento de las escorrentías y el impacto en el volumen de precipitaciones.

Según los expertos, la línea roja en el consumo de agua dulce se sitúa en los 4.000 kilómetros cúbicos al año. Actualmente, alcanza los 2.600 y va en aumento.

6. CAMBIOS EN LA UTILIZACIÓN DE LA TIERRA

Las tierras destinadas a la agricultura no deberían superar el 15% del total, y esa cifra está hoy cercana al 12%

La expansión de los cultivos también amenaza la sostenibilidad a largo plazo. La conversión de bosques y otros ecosistemas en tierras agrícolas se ha producido a un ritmo medio del 0,8% cada año en los últimos 40-50 años. Los científicos proponen que no más del 15% de la superficie de la Tierra -excluyendo los polos- se convierta en tierras de cultivo, y alertan de que, en este momento, la cifra ronda el 12%.

El estudio apunta que los sistemas agrícolas que mejor imitan los procesos naturales podrían permitir una ampliación de este límite, aunque otros factores deberían controlarse. La degradación de la tierra, la pérdida de agua de riego, la competencia con el suelo urbano o la producción de biocombustibles son algunos de ellos. Reservar las tierras más productivas para la agricultura es una de sus principales recomendaciones.

7. EL FÓSFORO Y A CATÁSTROFE EN LOS MARES

El abuso de fertilizantes en la agricultura ha provocado una sobredosis de fósforo en el mar que amenaza la vida oceánica

La humanidad está cerca de cruzar un umbral peligroso. Cada año, alrededor de nueve millones de toneladas de fósforo, procedentes sobre todo de los fertilizantes agrícolas, pero también de productos domésticos como la pasta de dientes, acaban en el océano. Si esta cantidad supera los 11 millones de toneladas se producirá una extinción masiva de la vida marina, como ya ha ocurrido muchas veces a lo largo de la historia. Este fenómeno, conocido como "evento anóxico oceánico", se desencadena por el agotamiento del oxígeno en el agua marina a consecuencia de la sobredosis de fósforo. Los umbrales que provocarían la catástrofe ya se han superado en algunos estuarios y sistemas de agua dulce, pero los científicos creen que, si se mantienen los flujos de fósforo actuales, el riesgo se evitará durante el próximo milenio.

8. REDUCCIÓN DE LA CAPA DE OZONO

El agujero en la capa de ozono sigue existiendo, por lo que se fija un límite para garantizar la recuperación

El agujero en la capa de ozono sobre la Antártida existirá aún varias décadas, al igual que su concentración en el Ártico. Los autores alaban la efectividad del Protocolo de Montreal, en el que la mayoría de países del mundo fijaron una estrategia común. El pacto ha permitido que la concentración de los productos químicos que destruyen el ozono en la atmósfera haya disminuido casi un 10%. Sin embargo, la capa de ozono tarda mucho en recuperarse, por lo que los expertos proponen un límite global a la disminución de ozono de 276 unidades Dobson -una medida del ozono-. El nivel actual es de 283 y el preindustrial era de 290.

El nobel Mario Molina, que fue premiado por su trabajo sobre la capa de ozono, comenta en Nature que este límite es aceptable, pero que cruzarlo no ocasionaría un cambio irreversible.

9. LOS AEROSOLES SE DUPLICAN

Los autores no han fijado los umbrales para la contaminación ni la cantidad de partículas en suspensión.

Producto de la actividad humana desde el comienzo de la era industrial, la concentración atmosférica de aerosoles se ha duplicado. Numerosos estudios vinculan la acumulación de partículas en suspensión con cambios en el clima, ya que reflejan la radiación solar incidente, así como con la formación de nubes, lo que afecta a los ciclos de precipitaciones. Además, los aerosoles afectan directamente a la salud de las personas. Sin embargo, la compleja naturaleza de las distintas partículas dificulta el establecimiento de un único valor límite.

Algo similar ocurre con la contaminación química. En la actualidad hay cerca de 100.000 compuestos, cada uno con su particular grado de toxicidad. Su efecto acumulado es claro, afecta a la salud de los ecosistemas y altera los ciclos naturales.

Autor: Nuño Domínguez

lunes, 25 de mayo de 2009

Las 62 ideas para frenar la pérdida de biodiversidad

La organización Ecologistas en Acción ha presentado un informe con 62 medidas concretas para detener la pérdida de biodiversidad en la Unión Europea, con motivo del Día Internacional de la Biodiversidad.

FUENTE | Agencia EFE 22/05/2009

Según esta organización, en 2001 la Unión Europea aprobó medidas que "no tuvieron en cuenta las raíces socioeconómicas de la pérdida de biodiversidad, y no han condicionado las políticas sectoriales a la conservación de la naturaleza", ha explicado el portavoz de la organización Theo Oberhuber.

"La biodiversidad es un elemento esencial para asegurar nuestra calidad de vida pero las actividades humanas en las últimas décadas están provocando un incremento en el ritmo de pérdida de biodiversidad como nunca antes se había visto", ha explicado Oberhuber.

La organización ecologista considera que el Gobierno español debe aprovechar la presidencia española de la UE, en el primer semestre de 2010, para analizar los motivos por los que no se están llevando a cabo las políticas de conservación y protección de la biodiversidad en cada uno de los países.

La tasa actual de extinción de especies es 1.000 veces superior a la tasa natural y el 60% de los servicios elementales de los ecosistemas se están degradando o se están utilizando de forma no sostenible, "lo que pone en peligro la supervivencia de nuestra especie", ha añadido.

Los estudios realizados durante los últimos meses demuestran que los anfibios y los reptiles pasan a ser los grupos de especies más amenazados en Europa (54% y 42% respectivamente), superando a los mamíferos, aves, mariposas o los peces.

Theo Oberhuber ha resaltado la importancia de renunciar a un objetivo de crecimiento económico constante a corto plazo, "motor de la pérdida de biodiversidad, que es inviable en un planeta de recursos finitos".

Reducir la huella ecológica, la explotación de los recursos naturales, completar la creación y la protección de los espacios de la Red Natura 2000, o mejorar la integridad y la conectividad de los ecosistemas naturales mediante una red de corredores ecológicos son otras de las propuestas de la organización ecologista.

Entre las medidas que, según Ecologistas en Acción, debe adoptar el Gobierno central destacan la creación de puestos de trabajo "verdes" en estructuras como las depuradoras, la construcción de pasos de fauna o los estudios de recuperación de ecosistemas.

Además, solicitan coordinación entre las distintas administraciones regionales, la aprobación y puesta en marcha del Plan Estratégico Estatal del Patrimonio Natural y la Biodiversidad y la creación de un centro de alerta y control de especies exóticas invasoras, "consideradas una gran amenaza para la biodiversidad que ya está causando daños económicos graves".

miércoles, 20 de mayo de 2009

Alimentos transgénicos

Aquí os dejo un enlace que os dirige a la página de Greenpeace en la que os podeis descargar la Guia Roja y Verde de Alimentos Transgénicos, publicada en Febrero de 2009 en la que se indican aquellos productos/marcas que utilizan alimentos transgénicos, así como los motivos que llevan a esta ONG a estar en contra del uso de los mismos.

Además a partir de este enlace podeis navegar por la página de Greenpeace y seguro encontrar noticias muy interesantes.

Guia Roja y Verde de Alimentos Transgénicos

lunes, 18 de mayo de 2009

La contaminación por plomo podría haber mantenido el clima más frío, según un estudio

Un estudio reciente financiado con fondos comunitarios revela que las partículas de plomo que se encuentran en la atmósfera han favorecido la formación de nubes. Los investigadores sugieren en un artículo publicado en la revista Nature Geoscience que la contaminación atmosférica por plomo podría haber amortiguado los efectos del cambio climático durante las últimas décadas.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 18/05/2009

Esta investigación recibió apoyo comunitario de la Red de Excelencia «Cambio de la composición atmosférica», financiada mediante el área temática «Desarrollo sostenible, cambio global y ecosistemas» del Sexto Programa Marco (6PM).

La mayor parte del plomo que contiene la atmósfera procede de actividades humanas. Las principales fuentes de emisión son la combustión de carbón y gasolina con plomo, el vuelo de aviones pequeños a la altura de la formación de nubes y las tareas de construcción que liberan plomo del suelo.

Mientras que las emisiones de gases de efecto invernadero propician el calentamiento global, la emisión de pequeñas partículas que contienen sustancias como el plomo puede generar el efecto contrario. Estas partículas, al entrar en contacto con el vapor de agua atmosférico, provocan la formación de nubes que, dependiendo de su altitud y densidad, pueden tanto reflejar la luz solar procedente del espacio como retener el calor de la Tierra.

El objetivo de este estudio reciente consistió en determinar cómo afecta el plomo a la formación de nubes. Para llevar a cabo este estudio, científicos de Alemania, Suiza y Estados Unidos «capturaron» nubes que se habían formado de forma natural en varias cimas de montañas situadas al este y al oeste del Atlántico y, por otra parte, estudiaron en el laboratorio nubes formadas de forma artificial en cámaras de nubes diseñadas a tal efecto.

Sus investigaciones revelaron que el plomo cambiaba las condiciones necesarias para la formación de nubes: cuando hay presencia de plomo en la atmósfera, se forman nubes aunque el aire no posea el grado de humedad o temperatura necesario.

Además, los modelos informáticos demostraron que las partículas que contienen plomo cambian de tal forma las propiedades de las nubes que llega a influir en la cantidad de radiación de onda larga que escapa de la Tierra. Entre los años setenta y ochenta, antes de la introducción y generalización de la gasolina sin plomo, la mayoría de las partículas de polvo que flotaban en la atmósfera estaban probablemente contaminadas con plomo, lo que provocaba que la Tierra liberara más calor al espacio.

«Probablemente, esto provocó que se contuviera hasta cierto punto el aumento de las temperaturas en todo el planeta,mientras que hoy en día el efecto invernadero ejerce prácticamente toda su influencia sin obstáculos», explicó el profesor Joachim Curtius de la Universidad Goethe de Fráncfort del Meno (Alemania).

Pocos serían los que recomendarían hoy introducir más plomo en la atmósfera para contrarrestar los efectos del calentamiento global, ya que es un metal muy tóxico y perjudicial para la salud humana. «Sin embargo, con la sabiduría que da la experiencia, ahora podemos explicar que el aumento tan rápido de las temperaturas en los últimos años se debe a que la humanidad ha reducido sus emisiones de plomo y sulfatos», afirmó el profesor Stephen Borrmann de la Universidad Johannes Gutenberg de Maguncia (Alemania).

«Sabemos que la mayor parte del plomo que contiene la atmósfera proviene de fuentes antropogénicas», comentó el autor principal del estudio, Dan Cziczo, del Pacific Northwest National Laboratory (Estados Unidos) del Departamento de Energía. «Ahora podemos demostrar que el plomo está cambiando las propiedades de las nubes y, por lo tanto, la cantidad de energía solar que afecta a nuestra atmósfera.»

lunes, 4 de mayo de 2009

La amenaza viene del espacio

Es bastante pequeño, las últimas observaciones indican que mide unos 270 metros, pero el asteroide Apofis podría causar una catástrofe de grandes proporciones y ha conseguido galvanizar los esfuerzos de científicos e ingenieros de muchos países para defender la Tierra de las amenazas que vienen del espacio.

FUENTE | El País Digital 29/04/2009

Oyéndolos en el Congreso de Defensa Planetaria que ha reunido a 180 de ellos en Granada, puede parecer que se preparan para una guerra: hablan de amenazas, de que hay muchos enemigos ahí fuera y de la necesidad de que los humanos tomen conciencia del riesgo continuo a que están sometidos. Pero básicamente dejan constancia del nacimiento y rápido desarrollo de una nueva área de investigación, especialmente adecuada para la cooperación internacional, que busca su lugar entre las ciencias espaciales. El astronauta español Pedro Duque lo dice claramente: "Es una nueva era, el riesgo es real y ahora es medible y tenemos la tecnología para detectarlo e intentar evitar sus consecuencias".

El Apofis, descubierto en 2004, se acercará mucho a la Tierra dentro de 20 años, el 13 de abril de 2029, pero por ahora el riesgo de impacto en esa aproximación es nulo. Sin embargo, como pasará a la altura de la órbita geoestacionaria (36.000 kilómetros, menos de la décima parte de la distancia a la Luna) se teme que la perturbación gravitacional le sitúe entonces en rumbo de colisión con el planeta el 13 de abril de 2036. La probabilidad de colisión está en uno entre 45.000 y hay demasiados factores mal conocidos como para afirmar nada, pero aunque pase de largo en 2036, como seguramente lo hará, el Apofis ya es el asteroide más seguido y estudiado de la historia, el catalizador de esfuerzos internacionales sin precedentes para enfrentar las amenazas espaciales.

Por encargo del Congreso de EE.UU., la NASA ha intentado detectar los asteroides potencialmente peligrosos (que se acercan a la Tierra) de más de un kilómetro de diámetro y, tras 10 años, da la labor prácticamente por terminada. Ahora, los expertos señalan que llega la hora de detectar los mayores de 140 metros que, como el Apofis (el único de los más de 1.000 asteroides potencialmente peligrosos detectados que presenta un riesgo apreciable de impacto), pueden hacer también mucho daño. Sin embargo, Don Yeomans, encargado del tema en la NASA, explica que hay poco dinero para hacerlo y que es necesaria la cooperación internacional. De la misma opinión son el astrofísico Rafael Rodrigo, presidente del CSIC, y Jean-Michel Contant, de la Academia Internacional de Astronáutica, también presentes en el congreso.

El Apofis está ahora demasiado cerca del Sol para ser observado. Según Jon Giorgini, del Jet Propulsion Laboratory, las observaciones ópticas podrán reanudarse a finales de 2010 y las de radar en 2013, pero es muy posible que no se pueda saber la probabilidad de impacto para 2036 hasta que llegue en 2029, cuando será visible desde la Tierra sin instrumentos. Para entonces se conocerá su masa, su velocidad de rotación, su forma y sus características térmicas y luego se podrá evaluar la influencia en su trayectoria de su paso por la Tierra. Queda mucho tiempo, y cambios físicos muy pequeños pueden producir cambios muy grandes en el rumbo, recuerda Giorgini.

Prever acercamientos peligrosos como el de Apofis es sólo el primer paso. Los expertos señalan la necesidad de tener preparadas misiones espaciales para intentar desviar los asteroides. Están divididos sobre la conveniencia de utilizar la energía nuclear, pero es una opción.

"Hay tres tipos de misiones posibles, siempre para empujar el asteroide y desviarlo, no para romperlo, que sería todavía peor", explica Duque. Son una explosión nuclear cercana, un vehículo que le empuje (tractor gravitatorio) y un impacto directo. De este último tipo es el Proyecto Don Quijote, de la ESA, aún sin financiación.

En Deimos, la empresa española que concibió el Don Quijote, están adaptándolo para mandar un orbitador a Apofis, una sonda que se acercara y se pusiera en órbita alrededor de él, para poder conocer bien su trayectoria y otras características. "Podría salir en 2015 y llegar en 2017", explica el responsable, Juan Luis Cano. Si la ESA aprobara la misión, sería de demostración tecnológica más que científica, y tendría que tener un coste bajo. Por ahora no fluye el dinero que los expertos espaciales consideran que sería necesario, pero esperan que, a medida que se acerque la aproximación del Apofis, aumente la conciencia social y política y se puedan hacer incluso misiones de demostración a otros asteroides no peligrosos. Lo malo es que sea demasiado tarde. También para eso se preparan los científicos. Calculan las consecuencias de los impactos de asteroides de distintos tamaños, y concluyen que incluso uno pequeño (entre 30 y 50 metros de diámetro, como el de Tunguska) podría destruir una ciudad, pero que si alguno de mayor tamaño cae en el océano, el tsunami resultante tendría consecuencias mucho peores.

Autor: Malen Ruiz de Elvira

Torio, la energía del futuro

La humanidad necesita una revolución energética. Según la Agencia Internacional de la Energía, la demanda mundial de electricidad y combustible aumentará un 45% hasta 2030, y la tercera parte de esa demanda se cubrirá con carbón, el principal culpable del cambio climático.

FUENTE | Público 29/04/2009

El consumo de petróleo también se disparará hasta los 106 millones de barriles diarios, frente a los 85 millones actuales. Y, mientras, las centrales nucleares seguirán en tela de juicio por su estigma de inseguridad y el problema de los residuos radiactivos. Si no se produce una revolución, la humanidad camina hacia un calentamiento global de seis grados centígrados para 2100.

Para esquivar este horizonte, los expertos sueñan con una nueva fuente de energía que sea capaz de abastecer todas las necesidades del planeta. Pero no basta con eso. No podrá emitir dióxido de carbono. Y su materia prima debe ser abundante y encontrarse en países con democracias estables, no en Kazajistán, Namibia y Níger, como ocurre con el uranio. Algunos científicos creen que esta revolución energética no es un sueño. El milagro existe, escondido en un rincón de la tabla periódica. Y se llama torio.

40 VECES MÁS ENERGÉTICO

El Congreso de EE.UU. acaba de descubrir este elemento, descrito por el químico sueco Jöns Jakob Berzelius en 1828. El pasado 21 de abril, el congresista Joe Sestak presentó en el Congreso estadounidense una proposición de ley para que la Secretaría de Energía estudie la posible utilización del torio como combustible nuclear en EE.UU. Unas semanas antes, el mismo diputado había presentado otra propuesta para investigar el uso de torio como combustible en los buques de la Armada.

El uranio no se acaba -según el Organismo Internacional de Energía Atómica hay reservas suficientes para 100 años-, pero los Gobiernos ya están buscando un sustituto. Y el torio parte con ventaja. Como explica el catedrático de Física Atómica, Molecular y Nuclear de la Universidad de Sevilla, Manuel Lozano Leyva, en su libro Nucleares, ¿por qué no?, todo el torio extraído en una mina se puede emplear en un reactor, frente al exiguo 0,7% del uranio natural.

"Si se hace un balance de masa y energía, resulta que cierta cantidad de torio ofrece unas 40 veces más energía que la misma de uranio", ilustra el físico. "Y, para colmo de virtudes del torio, resulta que es prácticamente inútil para la proliferación nuclear y que sus fragmentos de fisión y los transuránicos que produce su absorción de neutrones representan unos residuos mucho menos radiactivos que los del uranio", añade. Por si fuera poco, se estima que las reservas mundiales de torio triplican las de uranio, y más de la tercera parte se encuentran en Australia y EE.UU. El papel de España en esta hipotética energía del futuro no será relevante. Según Enusa, la empresa pública que suministra combustible a las centrales nucleares nacionales, "no existen datos de reservas oficiales de torio en España".

A pesar del nuevo ímpetu de EE.UU., el torio es un viejo conocido para los científicos. En los últimos 30 años, la utilización de este elemento como gasolina nuclear se ha experimentado en Alemania, India, Japón, Rusia, Reino Unido e, incluso, en EE.UU. Pero el desastre de Chernóbil, en 1986, y los bajos precios del petróleo hicieron a muchos países abandonar la investigación.

La carrera por el torio, no obstante, ha creado extraños compañeros de viaje. La empresa estadounidense Thorium Power, creada en 1992, ha probado en los últimos cinco años un combustible de torio y uranio en un reactor experimental del Instituto Kurchatov de Moscú, con dinero público de EE.UU. Los resultados se están evaluando ahora, y el siguiente paso será probar el fuel en un reactor comercial.

India, con un 12% de las reservas mundiales de torio, también mantiene sus líneas de investigación. El ex presidente indio Abdul Kalam, ingeniero aeronáutico de formación, urgió a comienzos de este mes a los jóvenes a utilizar el torio "para reducir la contaminación medioambiental".

EL FRACASO DEL 'RUBBIATRÓN'

El físico Francisco Castejón, responsable de la campaña antinuclear de Ecologistas en Acción, cree que estos ensayos están destinados a fracasar. Y pone un ejemplo muy cercano: el llamado, con sorna, Rubbiatrón. En marzo de 1997 se constituyó en Zaragoza el Laboratorio del Amplificador de Energía, una empresa promovida por el científico italiano Carlo Rubbia, premio Nobel de Física de 1984. Su objetivo era ambicioso: instalar en Aragón un prototipo de reactor de torio para eliminar los residuos radiactivos generados en las centrales nucleares. Finalmente, el proyecto, con un coste de 20.000 millones de pesetas, se abandonó por la fuerte oposición social y política.

Para Castejón, que trabaja en temas de fusión nuclear en el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ciemat), socio en su momento del Rubbiatrón aragonés, los reactores de torio abren demasiadas incógnitas. "Para obtener energía de este elemento, es necesario bombardearlo con neutrones. ¿Cómo generamos esos neutrones? Necesitaríamos bombardear una placa de plomo con protones para generarlos pero, de momento, ese acelerador de protones fundamental no existe", afirma.

Además, señala Castejón, los residuos de los reactores de torio son menos peligrosos que los que emplean uranio, pero seguirán siendo radiactivos durante miles de años. En su opinión, el torio no es el ingrediente de la revolución energética, sino "el último intento de la industria nuclear para continuar llevando a cabo actividades perniciosas".

Autor: Manuel Ansede

Un estudio muestra el efecto de los microorganismos marinos en el calentamiento oceánico

Los océanos influyen en el sistema climático de la Tierra y han contribuido a frenar el cambio climático al absorber hasta el 33% de las emisiones de gases de efecto invernadero generadas por los humanos. No obstante, existen ciertos factores biológicos cuya función en este proceso es fundamental, según ha aclarado un equipo de investigadores marinos de Alemania. Los resultados de su estudio han sido recientemente publicados en la revista PNAS.

FUENTE | CORDIS: Servicio de Información en I+D Comunitario 04/05/2009

Los investigadores, procedentes del Instituto Leibniz de Ciencias del Mar de la Universidad de Kiel (IFM-GEOMAR), el Instituto Alfred Wegener de Investigación Polar y Marina y el Instituto Leibniz de Investigación del Mar Báltico, mostraron en un experimento llevado a cabo con comunidades de plancton natural que el aspecto biológico desempeña un papel básico.

Los océanos absorben dióxido de carbono atmosférico (CO2) desde su superficie. Según los investigadores, la absorción constante de CO2 es posible si éste se desplaza hacia capas más profundas.

«Uno de los mecanismos responsables de este transporte hacia las profundidades es la bomba biológica de carbono», afirmó la autora principal del artículo, Julia Wohlers, estudiante de doctorado sobre oceanografía biológica del IFM-GEOMAR. Esta bomba de carbono «transporta el carbono orgánico de la superficie hacia el fondo oceánico, contribuyendo así a la capacidad del océano para absorber CO2 atmosférico», añadió.

Las algas planctónicas crean biomasa al procesar CO2 y nutrientes en primavera, cuando mejoran las condiciones de luz y temperatura, según explicaron. Al morir las algas, parte de la biomasa generada cae hasta las capas más profundas del océano, arrastrando con ella el carbono atrapado por fotosíntesis.

El equipo de investigación creó 8 mesocosmos (ecosistemas en miniatura) de 1.400 litros de volumen cada uno para evaluar qué efecto tenía el aumento de la temperatura de la superficie oceánica en el ciclo y el destino del carbono orgánico durante una fluorescencia primaveral de fitoplancton. Cuatro cámaras climáticas con temperatura controlada fueron llenadas con agua de mar no filtrada procedente del fiordo de Kiel, que contiene una comunidad natural de plancton de primavera e invierno. Se observó cada uno de los mesocosmos durante un mes, especialmente el crecimiento y declive de la fluorescencia planctónica primaveral.

Los investigadores afirmaron que la variación de las temperaturas coincidió con las predicciones sobre el calentamiento realizadas por el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que abarcan hasta finales del siglo XXI. Según las predicciones mencionadas, las temperaturas podrían aumentar hasta en 6 grados centígrados antes de 2100.

«Tal y como cabía esperar, los ritmos metabólicos de todos los componentes de la comunidad planctónica se aceleraron al aumentar la temperatura», explicó el profesor Ulf Riebesell del IFM-GEOMAR, jefe del proyecto. «Lo que nos causó sorpresa fue que el plancton consumió hasta un tercio menos de CO2 a temperaturas elevadas. En último término, esto podría llegar a debilitar la bomba biológica de carbono.»

La investigación indicó que la bomba de carbono se debilitó cuando la biomasa fotosintética acumulada por las algas planctónicas reaccionó ligeramente al calentamiento y su consumo por bacterias creció de forma considerable, favorecido por las altas temperaturas. En resumen, se retiene más CO2 en la capa superficial, la cual a su vez absorbe menos CO2 de la atmósfera.

«Este estudio pone de relieve la importancia que posee mejorar la incorporación de procesos biológicos y retroalimentaciones en los modelos de sistemas de la Tierra», indicó la Sra. Wohlers. No obstante, también mencionó la necesidad de profundizar en las investigaciones para determinar la magnitud a escala mundial del proceso de retroalimentación observado. «La información disponible en referencia a esta área de investigación es todavía escasa, por lo que es necesario realizar más trabajos de investigación para subsanar este vacío de conocimientos.»

martes, 24 de marzo de 2009

Tecnología de la Nasa para convertir residuos en gas

La empresa canadiense PlascoEnergy Group y el Grupo Hera abren una planta que deshace la basura urbana a 3.000 grados de temperatura.

FUENTE | Expansión 23/03/2009

La Nasa tenía un problema que resolver: simular las condiciones de altísimas temperaturas que soportan los cohetes cuando salen y entran en la atmósfera, para poder observar el comportamiento de los materiales en estas circunstancias. Con este objetivo, un grupo de investigadores de la agencia espacial desarrollaron la tecnología de Plasma, que logra temperaturas de hasta 3.000 grados, a las que se descomponen las moléculas.

REALIDAD EMPRESARIAL

Un grupo de los científicos que estaba dentro del equipo de la agencia espacial se trasladó a Canadá para desarrollar la aplicación del descubrimiento al tratamiento de residuos. El resultado, casi un cuarto de siglo después, es una planta que lleva funcionando desde mediados de 2008, en Ottawa (Canadá), y que gestiona 100 toneladas de residuos urbanos de la ciudad canadiense, al día. Además, genera más de un megavatio hora de electricidad por cada tonelada que trata. ¿Cómo lo consigue? La alta temperatura a la que se expone los residuos libera gases, por un lado, y un material que se solidifica en forma de cristal y no tiene ninguna toxicidad. El gas sintético producido es rico en metano, hidrógeno y monóxido de carbono, con un alto poder energético que se incorpora a la red eléctrica.

Este proceso de convertir la idea del plasma en una realidad empresarial ha sido liderado por el Grupo Hera, experto en el tratamiento de residuos. La compañía española, en asociación con la canadiense PlascoEnergy Group, construyó una planta piloto en 2005, en Castellgalí (Barcelona), para tratar tres toneladas al día de residuos urbanos. La planta supuso una inversión de 10 millones de euros que aportó el Grupo Hera.

Como contrapartida, la empresa española obtuvo el 10% de su socia canadiense, PlascoEnergy Group, y un puesto en su consejo de administración. Además, las dos empresas crean la firma Hera Plasco, en la que el grupo español tiene el 60%, y los derechos exclusivos de explotar esta tecnología en Europa. En 2008, fue cuando entró en explotación la planta industrial, en la ciudad de Ottawa, con una inversión más de 50 millones de dólares canadienses (30,3 millones de euros), de los que el Gobierno de Canadá aportó seis millones de dólares canadienses.

En el país americano, la prima eléctrica para la energía renovable procedente de residuos es de 0,10 céntimos de euros por kilovatio. En España, la prima es de 0,05 céntimos de euros.

Autor: S. Valle

Los nuevos biocombustibles procederán de los desechos

Los biocombustibles primarios -maíz, palma o caña de azúcar cultivados para su uso energético- pierden fuelle ante una segunda generación inspirada en el reciclado.

FUENTE | El País Digital 24/03/2009

Alemania, el primer productor mundial de biodiésel antiguo, ha marcado la pauta con la primera refinería que saca fuel de la madera. Y el Reino Unido abrió en enero un Centro de Bioenergía Sostenible para obtenerlo de residuos agrícolas, desechos leñosos, algas marinas y microbios alterados.

Hay dos problemas con los biocombustibles primarios, uno ambiental -requieren ganar al bosque nuevas tierras de cultivo, lo que agrava el cambio climático- y otro económico: pueden alterar los precios, y comprometer el suministro de alimentos como el azúcar, el sorgo y el maíz.

La Unión Europea revisó el año pasado su objetivo para 2020, que era cubrir con biocombustibles (de los llamados primarios) el 10% de la energía para el transporte. Bruselas mantiene esa cifra, pero ha decidido que se pueda cubrir también con hidrógeno, paneles solares o cualquier otra fuente renovable.

Contra las expectativas de hace unos años, y pese al apoyo de muchos gobiernos, incluido el español, el mercado mundial lleva tiempo acumulando excedentes de biocombustibles primarios. Hay un exceso de oferta, según el sector. Repsol, por ejemplo, acaba de congelar la construcción de una planta en Tarragona que iba a producir 150.000 toneladas anuales.

Al mismo tiempo, sin embargo, la primera refinería de segunda generación ha nacido en Friburgo: Industrias Choren empezará este año a producir 13.500 toneladas de biodiésel a partir de residuos de madera. La empresa se basa en una técnica propia llamada Carbo-V que primero convierte la madera en gas, y luego usa el gas para sintetizar el diésel.

Los residuos leñosos -paja, madera, partes no comestibles de los cultivos- son una fuente potencial muy abundante. Pero digerir la madera ha resultado un problema técnico extremadamente difícil. Mientras Industrias Choren explota su método químico exclusivo, los británicos se han acordado de una vieja pesadilla de sus costas: el gribble, la versión marina de una termita.

El gribble de cuatro puntos (Limnoria quadripunctata) es un pequeño crustáceo. Se conoce en el norte de Europa desde hace siglos por sus destrozos en la quilla de los barcos, y más en Inglaterra, donde se comió el muelle victoriano de Swanage. Simon McQueen-Mason, de la Universidad de York, ha identificado las enzimas (catalizadores biológicos) que digieren la madera en el estómago del gribble.

"Hemos hallado enzimas nunca vistas", dice el científico. "Falta ver si podemos adaptarlas para objetivos industriales". McQueen-Mason coordina el programa de investigación sobre el gribble en el Centro de Bioenergía Sostenible del Reino Unido. Con una dotación pública de 27 millones de libras (29 millones de euros), el centro es la mayor inversión británica en investigación sobre biocombustibles de cualquier tipo.

Pero sus seis programas científicos persiguen un objetivo muy definido a corto plazo: la producción industrial de bioetanol a partir de paja de cebada. Incluyen el desarrollo de un cereal optimizado para lo que nadie la ha mejorado en 10.000 años de agricultura: que tenga una paja más energética. Otros laboratorios trabajan con los microorganismos que producen el actual bioetanol primario a partir de cultivos. Quieren crear cepas adaptadas a usar paja en vez de grano.

El pionero privado de la genómica, Craig Venter, tiene planes más ambiciosos para las bacterias. Se ha dedicado en los últimos años a secuenciar en masa cualquier cosa que saliera del agua, empezando por el mar de los Sargazos. La gran mayoría de los microorganismos no crecen en los cultivos convencionales, y esta estrategia no los necesita. Venter ha descubierto así miles de nuevos microbios y millones de nuevos genes.

Entre ellos hay 3.000 genes que fabrican distintos fotorreceptores, las proteínas especializadas en captar la luz solar. Una de las ideas de Venter es crear una bacteria artificial que lleve toda una gama de esos genes para aprovechar un espectro muy amplio de la energía solar. Convirtiendo en hidrógeno un 10% de esa energía, el científico calcula que una superficie de 13.000 kilómetros cuadrados bastaría para alimentar todo el transporte de Estados Unidos.

Venter ha creado su nueva empresa, Synthetic Genomics, alrededor del concepto de vida sintética: un genoma bacteriano que podrá ser hecho desde cero, añadiendo una a una las funciones buscadas, y combinándolas a la carta. Su gran plan es usar esa vida sintética para producir biocombustible. O combustible a secas.

Autor: Javier Sampedro