HOME LA PELÍCULA

HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.

Buscar en este blog

sábado, 4 de diciembre de 2010

Disminuye el agujero de la capa de ozono en la Antártida

El agujero de la capa de ozono sobre la Antártida se ha reducido a su menor tamaño en los últimos cinco años, ha asegurado el Instituto Nacional del agua e investigación atmosférica de Nueva Zelanda. Los científicos calculan que el agujero podría sellarse en torno al año 2080.

FUENTE | El País Digital 03/12/2010

Los científicos calcularon que el tamaño del agujero es de 22 millones de kilómetros cuadrados, cuando en 2009 era de 24 millones y en 2000, el año en que se registro la mayor brecha, 29 millones. El déficit de la masa de ozono también se ha reducido a 27 millones de toneladas, comparado con las 35 millones de toneladas de 2009 y las 43 de 2000.

"Podemos decir que el agujero en la capa de ozono está mejorando de acuerdo con las observaciones de este año", dijo el científico atmosférico Stephen Wood. Wood apuntó que las iniciativas internacionales como el Protocolo de Montreal de 1987 están dando resultado.

"Hemos tenido unos cuantos años sucesivos con agujeros menos severos. Estos es una señal de que estaríamos empezando a ver una recuperación", dijo Wood.

La capa de ozono, que protege a los humanos de las radiaciones ultravioletas, disminuyó, según los científicos, por el efecto de productos como el cloroflurocarbono, utilizados en refrigeradores o aerosoles, prohibidos a partir del acuerdo de Montreal.

El agujero en la capa de ozono se forma cada año en la Antártida entre agosto y septiembre, y se cierra entre noviembre y diciembre.

Parásitos como bioindicadores de contaminación

Distintos tipos de parásitos, como los helmintos, se alojan en los peces. Muchos de ellos, por su sensibilidad al impacto de agentes contaminantes -metales pesados, hidrocarburos o contaminación orgánica-, pueden indicar alteraciones ambientales de manera más temprana y precisa que otros organismos más complejos. En Bahía Blanca, un grupo de investigadores analiza estos parásitos en peces como bioindicadores de eutrofización.
FUENTE | Infouniversidades 22/11/2010

Utilizar los parásitos de varios peces como indicadores de la presencia de contaminación es la propuesta que realizó un grupo de investigadores para incluir en un proyecto de monitoreo integral del estuario de Bahía Blanca. De esta manera, puede sumarse una nueva forma de medir el impacto que provoca un gran polo petroquímico en la zona portuaria.

Infinidad de organismos comúnmente imperceptibles, como las tenias y los piojos, existen dentro o encima de otros seres, de los que obtienen refugio y nutrientes. Los peces de este ecosistema no son la excepción, ya que tienen -generalmente en su sistema digestivo- varias clases de parásitos.

Los investigadores exploran la presencia de metales pesados en "helmintos", unos parásitos que infectan los organismos de otras especies. Se trata de invertebrados de tamaño variable, entre décimas de milímetros y varios metros, y que se sitúan en los niveles inferiores del reino animal. Uno de los helmintos más conocidos por la población es la tenia (Taenia solium), o "lombriz solitaria".

"Las especies parásitas que se encuentran en los peces permiten establecer sus patrones de migración espacial, dilucidar parentescos evolutivos, o conocer componentes de la dieta. Una aplicación novedosa del conocimiento parasitológico es elegir algunos que, por su sensibilidad al impacto de agentes contaminantes -metales pesados, hidrocarburos o contaminación orgánica- puedan indicar alteraciones ambientales de manera más temprana y precisa que otros organismos más complejos", indica a InfoUniversidades el doctor Daniel Tanzola, del Laboratorio de Patología de Organismos Acuáticos de la Universidad Nacional del Sur (UNS).

Desde hace dos décadas y junto a sus colaboradores, Tanzola realiza estudios de este tipo en peces locales, para correlacionar la presencia de parásitos con efectos de contaminación orgánica -lo que en ecología se denomina "eutrofización"- originada por la actividad humana. "En la actualidad, contamos con numerosos ejemplos del uso de parásitos como 'centinelas', gracias a su capacidad de absorber y acumular mayor cantidad y variedad de contaminantes que sus hospedadores. Si bien un pez puede acumular en sus tejidos un determinado compuesto químico, sus parásitos pueden detectarlo y absorberlo, aun cuando éste se encuentre diluido miles de veces más. De tal modo, se convierten en organismos altamente sensibles para medir contaminación y al absorber de manera competitiva determinados agentes tóxicos, protegen a su hospedador o atenúan en él la acción del impacto", agrega el científico.

En el estuario bahiense, estudian las dinámicas de las poblaciones parasitarias. Si bien se han apreciado ligeras variaciones, aún están analizando si responden a algún contaminante en particular. "Para que sean representativos, estos trabajos deben tener un ciclo continuado de al menos cinco años", asegura el investigador. No todas las variaciones pueden ser por contaminantes. También hay casos comprobados de algunas que tuvieron que ver con fenómenos macro climáticos, como "El Niño" u otras causas naturales. "Las profundas sequías que hemos tenido generan alteraciones ambientales y eso repercute en organismos muy sensibles como los parásitos", detalla.

Si bien las especies más consumidas por la población son la pescadilla y la corvina, son peces migratorios; por lo que las investigaciones las realizan con un pez residente del estuario. Se trata de la lucerna o "sapito de mar". Según explica Tanzola, fue elegida por su permanencia y porque vive semi enterrada en el fondo de la ría. "Si existen contaminantes o un estrés ambiental que se deposite en los barros, este pez y sus parásitos podrían ser buenos indicadores".

Además de éstas, otras especies estudiadas a lo largo del tiempo son el gatuzo, el mero, el pejerrey, la palometa y el congrio. También la brótola, los lenguados y las rayas. "Siempre que se persiga utilizar especies parásitas como bioindicadoras de la salubridad de cualquier ecosistema, se deberá, en primer lugar, realizar una evaluación completa del mayor número posible de especies parásitas (idealmente, todas) que existen en los peces de ese ambiente", agrega la doctora Silvia Guagliardo, integrante del mismo Laboratorio.

Los investigadores usan metodologías comparativas en sus análisis, ya que los datos obtenidos sobre la ría local son comparados con otros de Bahía San Blas, donde no existen asentamientos industriales. Las muestras se toman de peces que obtienen en sus propias campañas, como de otros donados por varias pesqueras de la zona. Una vez en el laboratorio, se toman muestras de sangre y tejidos renal y esplénico, donde se buscan marcadores inmunológicos de contaminación. Luego, los ejemplares se evisceran completamente y se investigan los parásitos en órganos como el tubo digestivo, la cavidad visceral, el hígado y las gónadas. Los parásitos son estudiados taxonómicamente mediante el empleo de criterios morfológicos y ultra estructurales. Se analizan sus efectos histopatológicos y el impacto en la condición de salud de los peces.

A menos biodiversidad, más enfermedades infecciosas

La pérdida de biodiversidad, uno de los mayores problemas ecológicos del momento, puede tener un efecto negativo con el que hasta ahora no se había contado.

FUENTE | El Mundo Digital 02/12/2010

Esa menor presencia de especies en un ecosistema parece estar asociada a una mayor extensión de enfermedades infecciosas, según una revisión de la literatura científica al respecto que acaba de publicar la revista 'Nature'.

Hay varios mecanismos por los que una mayor o menor biodiversidad pueden provocar un impacto en la propagación de microorganismos. En principio, lo único que está claro es que el efecto de la pérdida de especies altera el ecosistema en que éstas viven, de forma que la transmisión de patógenos entre ellas también se ve afectada.

En teoría, esta variación podría traducirse en un aumento o bien en una reducción de los contagios. Pero, por un motivo u otro, la desaparición de animales y plantas suele ir acompañada de una mayor incidencia de infecciones, según han revelado Felicia Kessing, del Bard College en Annadale (Nueva York) y sus colegas.

Algunos ejemplos que relatan en su informe son el virus del Nilo, una infección transmitida por mosquitos que se ha extendido desde África hasta EE.UU., o el síndrome pulmonar por hantavirus, una dolencia respiratoria que se contagia de ratones a humanos.

En ambos casos, la expansión de los patógenos ha estado vinculada a la pérdida de especies: una menor diversidad de aves, que actúan como huéspedes del parásito, ha acompañado al aumento de contagios de Virus del Nilo; mientras que el mayor riesgo de contraer un hantavirus está relacionado con la desaparición de pequeños mamíferos.

CONVERTIRSE EN HUÉSPEDES

Lo que ha ocurrido en estos y otros casos similares es que las especies desaparecidas eran menos susceptibles de convertirse en huéspedes de los agentes infecciosos. Por el contrario, las que sobreviven a la pérdida de biodiversidad parecen ser las que más eficazmente transportan y expanden enfermedades. El resultado es que aumenta la densidad de las especies portadoras, lo que incrementa, a su vez, la posibilidad de contagios.

"En varios de los casos estudiados, las especies más dadas a desaparecer de los ecosistemas por la pérdida de biodiversidad eran las más propicias a reducir la transmisión de patógenos", indican los investigadores. Para ilustrar el papel que juegan las distintas en la propagación de enfermedades, los investigadores citan otro ejemplo: en Virginia (EE.UU.), los ratones de pies blancos conviven con otras criaturas llamadas 'opossum' (un marsupial americano). A ambos ataca la garrapata de patas negras, que contagia la enfermedad de Lyme con sus mordiscos.

Este parásito, a su vez, entra en contacto con la bacteria patógena al alimentarse de su huésped. La diferencia es que los 'opossum' saben despulgarse y deshacerse de ellas, mientras que los ratones no. El resultado es que no sólo los 'opossum' portan menos garrapatas, sino que éstas tienen menos posibilidades de entrar en contacto con el parásito. Por el contrario, los ratones de pies blancos son un campo abonado para la propagación de los parásitos, los cuales acaban casi siempre infectándose con la bacteria.

Es decir, lo 'opossum' ayudan a controlar la infección, porque atraen a los parásitos pero los matan o los mantienen libres de infecciones. Los ratones, por el contrario, sólo contribuyen a su propagación. "A medida que se pierde biodiversidad, el huésped con un fuerte efecto de absorción -el 'opossum'- desaparece, mientras que el huésped con un poderoso efecto amplificador -el ratón- permanece", señalan los investigadores.

RASGOS RESISTENTES

Con las aves migratorias del Nilo ocurre lo mismo: las más resistentes al deterioro del ecosistema son también las más peligrosas. Y hay más casos similares, a partir de los cuales los científicos han aventurado la siguiente hipótesis: "Los rasgos que hacen a un huésped resistente a la pérdida de biodiversidad podrían también hacerlo más susceptible a la infección y transmisión de patógenos".

Los propios investigadores reconocen que se trata de un problema "sin resolver", pues no se conocen las causas por las que esto ocurre. Curiosamente, parece que sucede también en el interior de los propios organismos. Cuanto mayor es la variedad de especies microbianas que habitan un cuerpo, menos posibilidades tiene de contraer infecciones, según han reflejado algunos estudios.

Uno de ellos, citado por Kessing y sus colegas, mostraba que los niños dados a contraer infecciones en el oído sufrían menos contagios después de que les inocularan cinco cepas de estreptococo. Paralelamente, al reducir la diversidad microbiana se incrementaba el riesgo de enfermar de nuevo. Este y otros casos parecen reflejar el mismo patrón que Kessing y sus colegas han identificado para la pérdida de biodiversidad, aunque su informe concluye admitiendo que "queda mucho por aprender".

En todo caso, la posible asociación entre la pérdida de especies y el aumento de las infecciones es un motivo más para "incrementar con urgencia los esfuerzos locales, regionales y globales para preservar los ecosistemas y la biodiversidad que contienen".

Autor: Ángel Díaz

miércoles, 1 de diciembre de 2010

Puesta en marcha de una instalación pionera para el reciclado de residuos agrícolas

El sistema, único en el mundo, permite la conversión de los residuos del sector cítrico en productos de uso industrial con un alto valor añadido.

FUENTE | Spain Technology 30/11/2010

La empresa Citrotecno ha puesto en marcha en Silla (Valencia) una planta para el reciclado de residuos procedentes de explotaciones citrícolas de la Comunidad Valenciana y Murcia.

La "planta para el tratamiento integral y valorización de productos cítricos" es pionera en el mundo en este cometido y, tras haber culminado exitosamente un periodo de pruebas de un año, procesará durante la campaña agrícola recién iniciada, entre 120.000 y 150.000 toneladas de residuos cítricos que se convertirán en bioetanol, aceites esenciales, pienso para ganado, agua purificada y agua para riego.

El desarrollo tecnológico de este sistema ha corrido a cargo de los profesores José Luis Gómez y Pedro Fito, de la Escuela Técnica Superior de Ingeniería Agronómica y del Medio Natural (ETSIAMN) e investigadores del Instituto Universitario de Ingeniería de Alimentos para el Desarrollo, adscrito a la Universidad Politécnica de Valencia (UPV).

Según Gómez: "Gracias a la tecnología que hemos diseñado y que ahora comienza su primera campaña, no solo van a eliminarse esos residuos altamente contaminantes, sino que se van a convertir en productos que serán vendidos a otras industrias, con lo que además de cuidar el medio ambiente, se genera riqueza".

Otros países han mostrado ya su interés por esta tecnología española. Es el caso de Colombia, que ha iniciado conversaciones con los responsables del proyecto para desarrollar una planta basada en el mismo principio, para el reciclado de cítricos, cebada y café, o el de Costa Rica, sobre cultivos autóctonos como la piña y el banano.

sábado, 20 de noviembre de 2010

Mercurio en el aire y en las cadenas tróficas

Los ecologistas están en pie de guerra contra la industria del cloro, a la que acusan de generar emisiones de mercurio superiores a las permitidas por la Organización Mundial de la Salud (OMS). La organización Ecologistas en Acción ha presentado un informe sobre las mediciones de mercurio en España. Según este trabajo elaborado por los ecologistas, hay un alto grado de contaminación en zonas como Pontevedra o Tarragona.

FUENTE | El Mundo Digital 17/11/2010


Según declara la organización Ecologistas en Acción tanto en Lourizán (Pontevedra) como en Flix (Tarragona) se han detectado niveles muy elevados de mercurio en aire que superan el límite marcado por la OMS. También se ha encontrado mercurio en los suelos de las huertas.

Según la organización, estos resultados indican que la industria del cloro emite mucho más mercurio del que declara oficialmente, poniendo en riesgo la salud de los vecinos y la calidad del pescado que consumimos.

El informe 'Inmisiones de mercurio de la industria clorocáustica 2006-2010' presenta las mediciones de mercurio realizadas este verano cerca de las fábricas de cloro que utilizan mercurio, comparándolas con las realizadas en 2006 y 2007. Los análisis han sido efectuados por el laboratorio de Biogeoquímica de metales pesados de la Escuela Universitaria Politécnica de Almadén (Ciudad Real) de la Universidad de Castilla-La Mancha.

MERCURIO EN EL PESCADO

Hoy en día, todo el pescado que consumimos está contaminado por mercurio y las cantidades de mercurio presentes en el medio ambiente y en nuestro cuerpo siguen aumentando. Hace años que la ONU y la Unión Europea alertan de la urgencia de controlar este problema de salud pública. Según la organización ecologista, la situación es de máxima alerta en todo el mundo, sin embargo, en nuestro país las autoridades no se deciden a tomar medidas.

El mercurio puede formar metilmercurio, que se acumula y concentra en los ecosistemas acuáticos y en grandes peces (atún, tiburón, pez espada). El metilmercurio es un neurotóxico que puede afectar a la formación del cerebro, por lo que es muy preocupante la exposición durante el embarazo o la lactancia. Asimismo, puede causar daños en el sistema cardiovascular y un incremento en la mortalidad.

El mercurio también provoca trastornos neurológicos y de comportamiento. Las principales consumidoras de mercurio en España son las plantas de cloro-sosa con celdas de mercurio, una tecnología obsoleta, inventada en el siglo XIX y superada desde hace tiempo por el proceso de membrana, de producción limpia y que consume un 30% menos de energía.

En una rueda de prensa celebrada en Madrid, la asociación ecologista "ha exigido" que no se siga autorizando la producción de cloro con tecnología de celdas de mercurio (que no es una Mejor Técnica Disponible, según la Directiva IPPC), que se obligue a las empresas a limpiar los suelos y aguas que hayan contaminado y a indemnizar a las personas afectadas.

jueves, 4 de noviembre de 2010

Antibióticos si, pero con cautela

De sobra es conocido que los antibióticos pueden alterar la flora intestinal. Lo que no se sabía con certeza es que algunos de estos tratamientos pudieran alargar este desequilibrio hasta dos años después de su administración. Así lo desvela una investigación sueca, publicada en la revista 'Microbiology'.
FUENTE El Mundo Digital
04/11/2010

¿Qué significa esto? Según Cecilia Jernberg, autora principal de dicho trabajo, "aumenta el riesgo de infecciones, se reduce el éxito de futuros tratamientos con antibióticos y se producen nuevas cepas de bacterias resistentes a estos fármacos.

Según los especialistas, la flora intestinal es un conjunto de bacterias 'buenas' y 'malas' localizadas en el aparato digestivo, fundamentales para proteger al intestino de infecciones. Con el uso de antibióticos, "el equilibro de la flora se rompe y se modifica su composición", explica Miguel Rivero, especialista de digestivo del Hospital Sureste de Madrid. Hasta ahora, "pensábamos que la flora se restablecía [de forma natural] en unas dos semanas, como mucho un mes".

Sin embargo, este estudio demuestra que el desequilibrio bacteriano podría "extenderse hasta dos años, incluso con tratamientos cortos, de tan sólo siete días", apuntan los autores suecos. Esto significaría, añaden, que "se pueden desencadenar nuevas enfermedades y los microorganismos resistentes a los antibióticos se desarrollarían aún más".

"A diferencia de los anteriores trabajos, éste se centra en métodos moleculares, no en cultivos. Es decir, no analiza tanto la cantidad de las bacterias como la calidad e incluye especies descartadas en anteriores ocasiones. Además, los autores han utilizado técnicas más sensibles para detectar alteraciones", señala el doctor Rivero.

Dados los resultados, los responsables de la investigación sugieren que "se utilicen los antibióticos con cautela, ya que no hay nada para la resistencia a estos fármacos". Y agrega: "El desarrollo de nuevos antibióticos es lento, por lo que deberíamos hacer un buen uso de los existentes".

Lo mismo piensa Rivero: "Es importante ser más racional en el uso de estos medicamentos y restringirlos a las personas que realmente lo necesitan".

Casualmente, se han reunido en Barcelona especialistas en Microbiología, Infectología e Inmunología. Al igual que los investigadores suecos y el doctor Rivero, alertan de la necesidad "urgente" de que los españoles limiten su consumo de antibióticos, para preservar su eficacia futura. Subrayan, además, que ya "no es excepcional" que los hospitales atiendan a pacientes infectados por microorganismos totalmente resistentes a estos medicamentos, lo que constituye un problema para los sistemas de salud.
En la actualidad, concluyen, "el uso prudente y adecuado de los antibióticos disponibles ya no es una recomendación, sino una urgencia".
Autor: Laura Tardón

lunes, 25 de octubre de 2010

Vegetación autóctona para recuperar territorios contaminados

Investigadores de la Universidad Autónoma de Madrid (UAM) estudian la utilidad de la vegetación autóctona y sus dinámicas naturales para la recuperación de territorios con un elevado contenido de metales pesados. Utilizan la cuenca del Río Tinto como ejemplo fundamental para su estudio.

FUENTE UAM - mi+d 25/10/2010

Un grupo de investigadores perteneciente a la Unidad de Botánica del Departamento de Biología de la UAM, y dirigido por la Dra. Vicenta de la Fuente, estudia las dinámicas de vegetación y las modificaciones en los suelos de uno de los territorios más ácidos y con mayor contenido en metales de la Península: la cuenca del Río Tinto (Huelva).



En un trabajo publicado recientemente en Arid Land Research and Management, los investigadores presentan un compendio de la vegetación autóctona de la cuenca del Río Tinto y de las dinámicas temporales regresivas y progresivas de la misma. En el trabajo se muestra que la evolución progresiva (desde las comunidades de vegetación colonizadora de suelos pobres y terrenos desnudos hasta alcanzar la fase madura del bosque) implica un enriquecimiento en especies autóctonas y un cambio gradual en los suelos, donde disminuye la acidez y se tiende a reducir la concentración de alguno de los elementos predominantes del territorio (S, Fe, As y Pb).

Estos resultados constituyen una clave de vital importancia a la hora de plantear programas de restauración de territorios contaminados con metales pesados. El empleo de la vegetación autóctona, respetando la secuencia de la serie de vegetación del territorio afectado, garantiza una reforestación efectiva (aunque lenta), contribuye a la protección de la flora y vegetación autóctona, favorece el enriquecimiento progresivo de la biodiversidad vegetal, modifica el paisaje y evita pérdidas económicas por la muerte de especies alóctonas no aclimatadas.

DINÁMICAS DE VEGETACIÓN Y MODIFICACIONES EN LOS SUELOS

Desde el punto de vista climático, edáfico y biogeográfico, la vegetación de un territorio homogéneo evoluciona temporalmente hasta alcanzar lo que se considera la comunidad vegetal clímax o permanente, que generalmente suele ser un bosque. Partiendo de una roca desnuda, el esquema teórico que seguiría la vegetación hasta alcanzar la comunidad clímax sería: comunidades vegetales pioneras, pastos, matorrales, pre-bosques y bosques. El conjunto de todas estas comunidades constituiría lo que se denomina serie de vegetación. El cambio sucesivo de las comunidades vegetales que componen la serie de vegetación conlleva una evolución en los suelos sobre los que se asienta desde el punto de vista físico y químico.

RÍO TINTO

El río nace en el corazón de la comarca minera del Andévalo, situada sobre uno de los depósitos de sulfuros metálicos más extensos del mundo. En este ambiente dominan el ácido sulfúrico, el hierro férrico y numerosos metales que se encuentran químicamente biodisponibles en concentraciones tóxicas dada la elevada acidez de las aguas y los suelos del territorio. Además, la histórica e intensa actividad minera en la comarca, tanto a cielo abierto como subterránea, ha provocado la pérdida de suelos y por ende la eliminación de la cubierta vegetal, quedando una gran extensión de terreno desnudo, taludes, desmontes y escombreras.

--------------------------------------------------------------------------------

Lourdes Rufo; Vicenta de la Fuente. Successional Dynamics of the Climatophile Vegetation of the Mining Territory of the Río Tinto Basin (Huelva, Spain): Soil Characteristics and Implications for Phytoremediation, en: "Arid Land Research and Management", Volume 24, Issue 4, 2010, Pages 301 - 327.

viernes, 22 de octubre de 2010

El anticiclón de las últimas dos semanas eleva los niveles de contaminación

El mismo tráfico de siempre, pero con unas condiciones meteorológicas excepcionales. La combinación de los dos factores ha provocado que la pasada noche, la segunda consecutiva, se haya superado el umbral de aviso a la población por la alta contaminación en Madrid.

FUENTE | El País Digital 22/10/2010

El dióxido de nitrógeno, un gas irritante de las vías respiratorias generado por los tubos de escape, ha vuelto a dispararse. El buen tiempo que ha hecho estos últimos días en la capital ha ayudado a concentrar la contaminación: mucha estabilidad y, por tanto, poca ventilación.

Los problemas empezaron hacia las nueve de la noche. A esa hora, en la estación de medición de Cuatro Caminos marcaban 261 microgramos por metro cúbico y en la de Méndez Álvaro, unos altísimos 367. La normativa establece que se ha superado el umbral de aviso a la población cuando dos estaciones de la misma zona superan los 250 mg/m3 al menos durante dos horas consecutivas. A las dos de la mañana, la nueva aplicación informática que presentó la semana pasada el Ayuntamiento (información en tiempo real) marcaba con un punto rojo la estación de Escuelas Aguirre. Significado: calidad del aire "muy mala".

En Escuelas Aguirre se midieron 288 mg/m3 a las once y a medianoche. En Méndez Álvaro, se superaron los 250 entre las ocho y las diez. En Cuatro Caminos, entre las nueve y medianoche. El Ayuntamiento de Madrid avisó: "Debido a las condiciones meteorológicas previstas para las próximas horas, se prevé que se repitan episodios similares". También recomendaba utilizar el transporte público. El mensaje pudo verse por la tarde en los paneles luminosos de la M-30.

Cuando se supera el umbral de aviso, el Consistorio debe informar a los ciudadanos. Si llegara a superarse el umbral de alerta -algo que el Ayuntamiento descartaba - se tomarían "medidas de restricción o suspensión de las actividades que contribuyan a la contaminación", entre ellas "restricciones a la circulación de vehículos privados y en la entrada de vehículos de fuera del término municipal", según el procedimiento, que se puede consultar en la página web municipal. El umbral de alerta que fija el protocolo es la superación de los 400 microgramos por metro cúbico de NO2 durante dos horas consecutivas en todas las estaciones de una zona. Es muy improbable que un escenario así llegue a producirse, pero lo cierto es que anoche Méndez Álvaro marcó 367 microgramos, es decir que en el entorno de esta estación los niveles de contaminación eran altísimos.

Autor: Elena G. Sevillano

miércoles, 20 de octubre de 2010

Una mutación marcó la evolución

¿Una mutación genética es siempre un fallo de la naturaleza? Si las consecuencias no son dramáticas para quienes la sufren, no tiene porqué. Al contrario, un pequeño cambio, una casualidad o un error en el código de barras biológico puede permitir que el mundo sea variado y generoso. Una nueva investigación publicada en la revista Proceedings of the National Academy of Sciences (PNAS) muestra cómo la diversidad biológica y la evolución en el planeta pueden ser fruto de un «error» genético.

FUENTE | ABC Periódico Electrónico S.A. 20/10/2010

Científicos de la Universidad de Leeds han descubierto que una mutación ocurrida hace más de 100 millones de años llevó a las flores a desarrollar sus órganos sexuales, masculinos y femeninos, de diferentes formas, algo que ha marcado de forma manera importante su forma de reproducirse.

En un determinado número de plantas, el gen involucrado en la «fabricación» de órganos femeninos y masculinos se duplicó para crear dos copias muy similares. Por ejemplo, en la variedad Arabidopsis, un género de plantas herbáceas, una copia se encarga de hacer las partes femeninas y masculinas de la flor, pero la otra asume un rol completamente nuevo: hace añicos las vainas de semillas abiertas. Por el contrario, en las plantas conocidas como Boca de dragón (género Antirrhinum), ambos genes están relacionados con los órganos sexuales. Una copia desarrolla principalmente las partes femeninas -aunque también desempeña un pequeño trabajo en las masculinas-, pero la otra sólo puede hacer flores masculinas.

«Las bocas de dragón están en la cúspide de la división del trabajo entre los dos genes para hacer órganos masculinos y femeninos, un momento clave en el proceso evolutivo", explica el investigador Brendan Davies, de la facultad de Ciencias Biológicas de Leeds. «Más genes con diferentes funciones producen un organismo más complejo y abren la puerta a la diversificación y la creación de nuevas especies», apunta.

Tras realizar el árbol evolutivo de diferentes plantas con flores, los investigadores ha calculado que la duplicación de genes ocurrió hace 120 millones de años. Pero la mutación de cómo las flores utilizan este gen extra ocurrió 20 millones de años después.

UN MUNDO PERFECTO, UN MUNDO ABURRIDO

Los investigadores creen que el uso diferente del gen en cada planta se debe a un aminoácido. Aunque los genes son muy parecidos, las proteínas que codifican no siempre tienen este aminoácido en cuestión. Cuando está presente, la actividad de la proteína está limitada a fabricar sólo partes masculinas. Cuando no está, la proteína es capaz de relacionarse con otras proteínas implicadas en la producción de flores, lo que le permite sacar adelante ambas partes masculinas y femeninas.

«Una pequeña mutación en los genes engaña a la maquinaria de la planta para insertar un aminoácido extra, y este pequeño cambio ha creado una gran diferencia en cómo las plantas controlan sus órganos reproductivos», explica el profesor Davies. «Esto es evolución en marcha, aunque no sabemos todavía si esta mutación ha llegado a su final o si conduce a nuevas complejidades».

A su juicio, la investigación es «un ejemplo excelente de cómo una imperfección ha producido chispas en el cambio evolutivo. Si viviéramos en un mundo perfecto, sería todo mucho menos interesante, sin diversidad y sin posibilidad del desarrollo de nuevas especies».

Autor: J. de J.

El atún rojo ¿visto? desde el espacio

El vertido de crudo en el Golfo de México no podría haber ocurrido en peor momento para el atún rojo: en las fechas de la catástrofe, miles de ejemplares se habían acercado al golfo a desovar. Las imágenes tomadas desde el espacio permiten evaluar el impacto de la catástrofe sobre esta especie protegida.
FUENTE Agencia Europea del Espacio (ESA)
20/10/2010

El majestuoso atún rojo del Atlántico, capaz de alcanzar el tamaño de un Volkswagen Beetle, se acerca al Golfo de México entre los meses de Enero y Junio para desovar. El pico de mayor actividad reproductiva de esta especie se alcanza entre los meses de Abril y Mayo - justamente cuando se estaban vertiendo al océano unos 10 millones de litros de petróleo al día, como consecuencia de la explosión de la plataforma petrolífera 'Deepwater Horizon' el pasado 20 de Abril.

Las huevas del atún contienen una gota de grasa que les permite flotar, siendo fecundadas por los machos cerca de la superficie del océano. La presencia de petróleo en las aguas del golfo podría afectar a las huevas, a las larvas e incluso a los ejemplares adultos. La población occidental del atún atlántico ha disminuido un 82% en los últimos 30 años, por lo que resulta imperativo garantizar su reproducción para poder preservar la especie.

Dentro del Golfo de México hay dos zonas prioritarias de desove: una situada al noroeste y otra al noreste del golfo, coincidiendo esta segunda con la región más afectada por el vertido de crudo.

La 'Ocean Foundation' - una organización sin ánimo de lucro dedicada a la protección de los océanos y de las especies marinas - necesitaba conocer qué hábitats de la zona noreste del golfo habían resultado afectados por el vertido, con el fin de evaluar el impacto del desastre sobre esta especie protegida.

Para ello, era necesario conocer por una parte la extensión del vertido y por otra las zonas más favorables para la reproducción del atún rojo.

Los datos adquiridos por varios satélites radar, entre los que se encuentra el satélite Envisat de la ESA, permitieron elaborar mapas semanales de la ubicación, forma y tamaño de la mancha de crudo en el Golfo de México.

Para estimar las zonas de desove y de desarrollo de las larvas del atún rojo, los científicos emplearon datos reales, obtenidos con ejemplares marcados, sobre un modelo del océano basado en mediciones de la temperatura del agua, en datos de la altura de la superficie, obtenidos con los altímetros radar embarcados en los satélites Envisat (ESA) y Jason (NASA), y en información sobre el color de las aguas, obtenida con el instrumento MERIS a bordo de Envisat y MODIS a bordo del satélite Aqua de la NASA. El color del agua permite estimar la presencia de plancton, del que se alimenta el atún.

Al superponer los mapas de la extensión del vertido con el 'índice del hábitat de cría' calculado, fue posible analizar dónde y por cuánto tiempo el vertido de crudo había afectado a las zonas de cría del atún rojo, entre el 20 de Abril y el 29 de Agosto.

Tras la eclosión, las larvas del atún buscan alimento cerca de la superficie, por lo que la presencia de petróleo flotando en las aguas del golfo podría acabar con la vida de estos frágiles organismos.

La extensión del vertido coincidió con el hábitat más favorable para la reproducción del atún a finales de la temporada de cría. Los investigadores han evaluado el efecto letal del petróleo durante este periodo, concluyendo que la presencia de crudo redujo el número de crías en más de un 20%.

Afortunadamente, la zona de cría del oeste parece no haber sido afectada por la contaminación, tal y como se observa en las imágenes tomadas por los satélites.

"Este análisis nos ayudará a comprender el impacto de estas catástrofes a otro nivel, con lo que podremos guiar el desarrollo de nuevas políticas y recomendaciones", explica el Dr. David Guggenheim, de la Ocean Foundation.

"Por otra parte, este análisis y la forma en que ha sido desarrollado representan una herramienta de nueva generación que puede ayudar en los procesos de investigación y de toma de decisiones, en caso de que nos tengamos que enfrentar a una catástrofe ecológica similar en el futuro".

Cuando por fin se consiguió sellar el pozo del que se alimentaba la plataforma 'Deepwater Horizon' el día 15 de Julio, ya se habían vertido 750 millones de litros de crudo a las aguas del golfo.

Los satélites de observación de la Tierra han jugado un papel fundamental para comprender el desastre. A los pocos días de la explosión, los satélites comenzaron a monitorizar la situación y a proporcionar datos casi en tiempo real a las autoridades estadounidenses encargadas de la limpieza del vertido.

Ahora los satélites están ayudando a los científicos a evaluar las consecuencias a largo plazo de la catástrofe. Los mapas basados en los datos obtenidos por la ESA también se están utilizando para evaluar los daños en los hábitats de la costa y en las zonas de desove de las tortugas marinas.

La protección de los hábitats naturales es el tema principal de la Décima Conferencia de las Partes (COP10) del Convenio sobre la Diversidad Biológica de las Naciones Unidas, que está siendo celebrado esta semana en Nagoya, Japón. La ESA participa en esta conferencia con un stand en la exposición y organizando un evento paralelo.

Las células del cáncer y el ARNm

Según un estudio coordinado por Manel Esteller que se publica en Cancer Cell, los tumores de colon, estómago y útero presentan una alteración de la proteína Exportina-5, que es la encargada de llevar los microARNs del núcleo de la célula al citoplasma.

FUENTE IDIBELL 20/10/2010

En un subgrupo de tumores del colon, estómago y útero las células cancerosas secuestran un grupo de moléculas antitumorales dentro de sus núcleos impidiendo que maduren y realicen su función en la célula, según el trabajo del programa de Epigenética y Biología del Cáncer del Instituto de Investigación Biomédica de Bellvitge (IDIBELL) que se publica en la prestigiosa revista Cancer Cell.

Todas las células del cuerpo humano poseen un núcleo central donde se encuentra el ADN (nuestro material genético), un medio acuoso (citoplasma) donde se producen las proteínas y tienen lugar los procesos metabólicos, y una capa periférica que rodea a toda la célula y le da forma (membrana plasmática). Existe un tráfico continuo de moléculas entre estos tres compartimentos para permitir el buen funcionamiento de la célula.

El reciente descubrimiento del equipo dirigido por Manel Esteller, investigador ICREA en Barcelona, demuestra que este tráfico se interrumpe en las células cancerosas. El grupo de pequeñas moléculas secuestradas por la célula tumoral en su núcleo son los llamados microARNs que no pueden ejercer su actividad normal de inhibir el desarrollo del cáncer.

"Los tumores descritos", explica Manel Esteller, "presentan una mutación en una proteína denominada Exportina-5, cuya función en una célula sana es la de hacer de taxista y transportar los microARNs desde el núcleo al citoplasma. Pero en estos cánceres es incapaz de conducirlos fuera del núcleo, por lo que se pierde su capacidad protectora antitumoral".

"Estos resultados tienen consecuencias para mejorar el conocimiento de las causas del cáncer, pero también para posibles nuevos tratamientos, pues por un lado se descubre una nueva vía alterada en cáncer que se desconocía por completo; y, por otro, se dispone de una nueva diana molecular, lo que debería estimular la búsqueda de nuevos fármacos que ayuden a mejorar el transporte de moléculas desde el núcleo".


Melo SA, Moutinho C, Ropero S, Calin GA, Rossi S, Spizzo R, Fernandez AF, Davalos V, Villanueva A, Montoya G, Yamamoto H, Schwartz Jr, Esteller M. A Genetic Defect in Exportin-5 Traps Precursor MicroRNAs in the Nucleus of Cancer Cells. Cancer Cell

jueves, 14 de octubre de 2010

Se necesitan tres Españas para soportar nuestro ritmo de vida

La capacidad de carga del planeta es un término que se acuñó a finales de los años 60 para definir el límite de un ecosistema natural para absorber impactos o soportar un determinado uso.

FUENTE | ABC Periódico Electrónico S.A. 14/10/2010

De ella se deriva un indicador de carácter global, la llamada «huella ecológica», esto es, el territorio necesario para producir los recursos que el hombre necesita y para asimilar los residuos que genera. Y las hectáreas necesarias para mantener a un solo español ascienden ya a 5,4.

Estos números no dejarían de ser precisamente eso si no fuera porque la «biocapacidad» (la capacidad de carga y regeneración) de nuestro territorio para abastecernos y para «absorber» nuestros residuos es sólo de 1,6 hectáreas por persona, según los resultados (referidos a 2007) del informe Planeta Vivo, elaborado por WWF, la Red de la Huella Global y la Sociedad Zoológica de Londres.

Por tanto, estamos superando el nivel considerado sostenible porque consumimos más de lo que tenemos. Tanto es así que la población española necesitaría a día de hoy 3,5 Españas para satisfacer la demanda de recursos y para absorber el CO2 emitido. O lo que es lo mismo: nuestro país consume y contamina tres veces por encima de su «capacidad biológica».

Esto nos sitúa en el puesto número 19 de entre los países con mayor huella ecológica global (se han analizado unos 200 países), pero en cambio estamos en el lugar 71 en cuanto a biocapacidad. No obstante, como explica Miguel Ángel Valladares, de WWF, «España ha mejorado algo, puesto que en el anterior informe (con datos de 2005) se aupó hasta el puesto 12 entre los de mayor huella ecológica».

Hemos mejorado también en la huella hídrica (demanda de agua que hay detrás de todo lo que consumimos, por ejemplo, 200 litros detrás de un café), pasando del puesto número 10 al 25. Si nos comparamos con los países de nuestro entorno, España es el séptimo país europeo con mayor déficit ecológico, por detrás de Bélgica, Chipre, Malta, Holanda, Macedonia e Italia.

Más allá de nuestras fronteras, el informe pone de manifiesto la constante tendencia de pérdida de biodiversidad que se mantiene desde los años 70, como recordó Juan Carlos del Olmo, secretario general de WWF. Así, el Índice Planeta Vivo, que mide la tendencia de la biodiversidad a partir del estudio de 8.000 poblaciones de 2.500 especies, arroja un descenso del 30% en los últimos 40 años, sobre todo en zonas tropicales, mientras nuestra huella en el planeta no para de crecer, un 50% desde 1966.

SIN CAPACIDAD REGENERATIVA

En estos momentos el consumo mundial de recursos ha superado tanto la capacidad regenerativa de la Tierra que se necesitan 1,5 años para regenerar los recursos utilizados sólo en el año 2007. Dicho de otra forma, la población mundial utilizó el equivalente a 1,5 planetas en 2007 para sostener sus actividades. En este sentido, el informe advierte que si se continúa con la actual gestión, la humanidad necesitaría dos planetas en 2030 y casi tres en 2050.

Si en este ranking de huella ecológica España ocupa el puesto 19, el primer puesto es para los Emiratos Árabes Unidos. Como explica Del Olmo, si toda la humanidad viviera como un ciudadano medio de ese país harían falta 4,5 planetas para mantenernos en la actualidad. En segundo lugar se sitúa Qatar, y le siguen Dinamarca, Bélgica y Estados Unidos. Unos puestos de cabeza que eran previsibles pues los países con mayores ingresos tienen una huella cinco veces mayor que los de bajos ingresos. Así, por ejemplo, un ciudadano indio cubre sus necesidades con 0,8 hectáreas, frente a las 10 de uno de Qatar o las ocho de un estadounidense.

Uno de los factores que más influye en la presión sobre el planeta es la huella de carbono, por lo que habría que modificar nuestro modelo energético y basarlo en fuentes renovables. Pero el informe también apunta a que habría que cambiar nuestra dieta alimenticia. Cuanta menos carne y productos lácteos consumamos menos tierra deberemos transformar para ello y la huella ecológica del planeta se reduciría un 35%.

Autor: Araceli Acosta

miércoles, 13 de octubre de 2010

Tratamiento con células madre embrionarias

Los médicos de EE.UU. han comenzado a tratar al primer paciente con células madre embrionarias del mundo, en lo que supone la primera y, hasta el momento, única prueba clínica autorizada por la Agencia Estadounidense del Medicamento (FDA), según ha informado Geron Corporation, la compañía que llevará a cabo la hazaña y que también ha indicado que los detalles del paciente y del ensayo se mantendrán en secreto.

FUENTE | El Mundo Digital 13/10/2010

El paciente procede del Shepherd Center, un centro de investigación y de rehabilitación para personas con lesiones en la médula espinal y lesiones cerebrales con sede en Atlanta (Georgia) y uno de los siete lugares en Estados Unidos que puede reclutar participantes para este tipo de ensayos.

El objetivo principal de la primera fase del estudio no es curar al paciente sino analizar si el uso de estas células madre embrionarias es seguro y si las personas las toleran sin problema.

La compañía Geron es la primera en tener la aprobación de la FDA para usar estas células en humanos, exclusivamente para aquellas personas con lesiones medulares muy recientes. Se trata de pacientes clasificados de "grado A" (lesión completa) por la Asociación Americana de Lesión de la Médula Espinal (ASIA) y deben recibir las inyecciones de células en un plazo de 14 días después de haber sufrido el daño.

Las células utilizadas por Geron provienen de embriones humanos sobrantes de los tratamientos de fertilidad. La idea es que estas células viajen al punto clave de la lesión medular y ayuden a los nervios dañados a regenerarse.

"Cuando empezamos a trabajar con las células humanas embrionarias en 1999, muchos predijeron que pasarían muchas décadas hasta que esta terapia pudiera usarse en un ensayo con humanos", ha admitido el presidente de Geron, el doctor Thomas Okarma. La predicción se cumplió en parte. Ha pasado una década desde entonces. "Lo que ahora empezamos es un hito de la medicina", declara Okarma.

La parte positiva para la investigación es que Geron no depende del dinero gubernamental para sus estudios, ya que todos sus trabajos los hace con fondos propios, por lo que se escapa de la batalla por la financiación sobre estos trabajos en la que está inmersa el gobierno.

LA POLÉMICA

Quienes se oponen a su uso dicen que está mal utilizar embriones para extraer sus células y, de hecho, dos investigadores han demandado a los Institutos Nacionales de Salud (NIH) de EE.UU. Pero hasta que el caso sea juzgado, una corte de apelaciones federal ha permitido continuar con la financiación pública de estos trabajos.

Las células madre tienen capacidad para dar lugar a todo tipo de tejidos y células. Aquellas que se extraer de embriones con pocos días de vida son las más potentes de todas. Mientras que los científicos tienen la esperanza de que estas células transformen la medicina, proporcionando la cura para enfermedades como el Parkinson o la diabetes, la realidad es que es difícil trabajar con ellas y que es complicado transformarlas en el tejido adecuado.

Otro de los temores que existen alrededor de esta terapia y que ha retrasado su aplicación en la práctica clínica es su potencial para dar origen a la formación de tumores, aunque la mayoría benignos.

Además de Geron, sólo hay otra compañía cuyo tratamiento con células madre embrionarias está cerca de lograr la aprobación de la FDA, Massachusetts-based Advanced Cell Technology.

Su producto consiste en células madre embrionarias tratadas para transformarse en células de la retina. La empresa ha pedido permiso a la agencia del medicamente estadounidense para utilizarlo en pacientes con distrofia macular de Stargardt, una enfermedad genética de los ojos que provoca ceguera.

Mecanismo celular necesario para formar tejidos epiteliales

Un equipo de investigadores, con participación del Consejo Superior de Investigaciones Científicas (CSIC), ha descrito el mecanismo celular que interviene en la formación de tejidos epiteliales, capas celulares que recubren el organismo y que constituyen el 60% de las células del cuerpo humano.

FUENTE | CSIC - mi+d 11/10/2010

Los investigadores creen que esta maquinaria que provoca que los epitelios adquieran, durante el desarrollo embrionario, polaridad celular, o lo que es lo mismo, "identidad funcional", podría intervenir en la formación de tumores. Según los científicos, el trabajo supone "un aporte fundamental" en la búsqueda de posibles dianas terapéuticas contra el cáncer.

Los epitelios adquieren polaridad celular con la formación de dos regiones muy diferenciadas que ejercen funciones distintas: una membrana celular apical, que los separa del exterior, y una membrana basal, que los conecta con los vasos sanguíneos y la matriz extracelular subyacente.

La mayor parte de los tumores con peor diagnóstico se originan en estos tejidos. "El 80% de los cánceres fatales proceden de carcinomas (tumores de origen epitelial).

Precisamente, una de las características más importantes para la progresión tumoral es la pérdida de la polaridad celular de las células epiteliales", explica el investigador del CSIC Fernando Martín‐Belmonte, que trabaja en el Centro de Biología Molecular Severo Ochoa, un centro mixto del CSIC y la Universidad Autónoma de Madrid.

En el trabajo, que publica la revista Nature Cell Biology, también han participado el investigador del mismo centro Alejo Ezequiel Rodríguez‐Fraticelli y dos equipos de las universidades de California (EE.UU.) y Helsinki (Finlandia).

Los investigadores han logrado identificar los oncogenes Rab8 y Rab11 y las proteínas del exocisto (un complejo proteico implicado en la fusión y en la secreción) como componentes esenciales de la maquinaria para la formación de la membrana apical de los epitelios y el lumen (interior de los tubos epiteliales).

Según los científicos, esta ruta controla la activación del la GTPasa monomérica Cdc42, un regulador esencial de la polaridad celular conservado evolutivamente desde las levaduras hasta los humanos. Rab8 y Rab11 pertenecen a la familia de GTPasas monoméricas relacionadas con el oncogén Ras, implicado en la ploriferación de tumores, y funcionan como interruptores moleculares que regulan el transporte vesicular en las células eucariotas.





--------------------------------------------------------------------------------

David M. Bryant, Anirban Datta, Alejo E. Rodriguez‐Fraticelli, Johan Peränen, Fernando Martin‐Belmonte y Keith E. Mostov. "A molecular network for de novo generation of the apical surface and lumen". Nature Cell Biology (2010) 12:1‐

miércoles, 6 de octubre de 2010

El atún será la próxima especie en caer

Entrevista a Daniel Pauly, director del Centro de Pesquerías de la Universidad British Columbia de Canadá, que recibió el IV premio Ramón Margalef de Ecología que concede la Generalitat de Cataluña.
FUENTE El País Digital
07/10/2008

El pescado es un alimento cada vez más popular, pero también más escaso. Desde 1950, su consumo en todo el mundo se ha multiplicado por cinco. Sin embargo, el mar no puede dar respuesta a tanta voracidad. El 90% del daño que sufren nuestros mares y océanos se debe a la sobrepesca, explica el biólogo Daniel Pauly.

Calificado por la revista Scientific American como "uno de los 50 científicos más influyentes", Daniel Pauly es una autoridad mundial en el estudio del declive de las reservas pesqueras y la respuesta de los ecosistemas ante la presión humana. Las grandes flotas han arrasado hasta los caladeros más recónditos y han desmontado el equilibrio del ecosistema marino. Los mercados de los países desarrollados demandan, sobre todo, grandes depredadores como el bacalao o los túnidos. "Si no se hace algo, el atún será la próxima especie en desaparecer", afirma taxativo Pauly.

Critica los subsidios pesqueros, que no hacen más que legitimar una pesca que dedica demasiados recursos para capturar poco pescado. "Si ofreces subsidios, resulta rentable continuar pescando".

Daniel Pauly defiende la pesca artesanal y el consumo de especies más pequeñas y abundantes, como la anchoa. Y cree urgente establecer reservas marinas efectivas. Un 10% de los bosques están protegidos. Tan sólo un 0,7% de los mares lo está, apunta. Así las cosas, propone crear reservas marinas, y "una caja negra" en los barcos que permita detectar y penalizar su actividad en estas zonas. Concluye que la crisis del sector ofrece una oportunidad para repensar la pesca en todo el mundo.

sábado, 2 de octubre de 2010

Células reprogramadas

Las propuestas de mejora en el proceso de fabricación de células iPS (células que retroceden en su madurez hasta un estado similar al de las embrionarias) no cesan. La última, procedente de los laboratorios de la Universidad de Harvard (EE.UU.), elimina uno de los componentes más problemáticos de la reprogramación -los virus- y logra, además, mejorar su eficiencia. La técnica acerca un poco más estas células a la práctica clínica, según los autores.

FUENTE | El Mundo Digital 01/10/2010


La reprogramación es un proceso mediante el cual una célula adulta retorna a un estado de inmadurez similar al de una célula madre y que le confiere, por tanto, la capacidad de dar lugar a cualquier tipo celular. Esta regresión se logra mediante la introducción de varios factores en el núcleo de la célula, que son transportados hasta allí por virus (vectores). Éste es, a grandes rasgos, el protocolo original.

A pesar de que ha pasado poco tiempo desde que el investigador japonés Shinya Yamanaka fabricara las primeras iPS, la actividad en este campo de investigación es constante y varios grupos científicos han presentado vías alternativas al protocolo nipón, tratando de minimizar los riesgos de las células reprogramadas. Un trabajo publicado en la revista 'Cell Stem Cell' y desarrollado por expertos del Instituto de Células Madre de Harvard elimina uno de estos obstáculos: los vectores virales.

UN PROCESO MÁS EFICIENTE

"La aplicación clínica de las iPS está amenazada por la baja eficacia de la generación de estas células y los protocolos que alteran de forma permanente el genoma", explica Derrick Rossi, principal autor del estudio. Él y sus colegas se centraron, precisamente, en eliminar los vectores virales que, al introducir los factores en el núcleo, se integran en el ADN celular poniendo en riesgo su seguridad.

En lugar de estos virus, emplearon unas moléculas de ARN modificadas para codificar las proteínas adecuadas pero sin introducirse en el genoma de la célula. "Cuando penetran en la célula, siguen el curso normal de cualquier molécula de ARN para fabricar proteínas -en este caso, aquellas que hacen que la célula se reprograme- y después son degradadas", ha explicado Rossi a ELMUNDO.es. Así, mediante la administración repetida de estos ARNs se logró la producción de los factores de reprogramación necesarios para la conversión de las células maduras en iPS.

Aunque ha habido otros intentos de prescindir de los vectores, el uso de estos ARN tuvo un efecto colateral inesperado: el aumento de la eficacia del proceso. "No esperábamos que los ARN modificados funcionaran tan bien, pero lo cierto es que la eficiencia que observamos en la reprogramación con nuestra estrategia era muy alta", subraya Rossi.

MÁS CERCA DE LA CLÍNICA

Pero su investigación fue un paso más allá al utilizar estos mismos ARNs para diferenciar las iPS. "Hemos inventado una nueva técnica para fabricar células iPS pero, y quizás sea más importante, hemos usado los ARN para diferenciar las células", señala Rossi. "Nuestra tecnología es extremadamente versátil ya que podemos fabricar ARNs que codifiquen casi para cualquier proteína", añade, "incluidas aquellas que dirigen el destino de las células iPS hacia otras clínicamente útiles".

De este modo, sólo tuvieron que escoger el tipo celular que querían obtener a partir de estas iPS -en este caso, células musculares- y sintetizar los ARN adecuados para que la diferenciación se diera en esa dirección. Y lo hicieron de forma satisfactoria y "fácil", según el propio Rossi.

El entusiasmo inicial provocado por las células iPS, que tienen características muy similares a las células madre, ha ido menguando con el paso del tiempo y la falta de soluciones útiles a los problemas que impiden la aplicación clínica de estos 'diamantes en bruto'. Aunque es pronto, ya que su descubrimiento no ha cumplido ni siquiera un lustro, su capacidad para generar tumores, la ineficacia de los procesos de producción y las dudas acerca de su seguridad despiertan ciertas reticencias. Sin embargo, Rossi está convencido de que "se utilizarán en la clínica".

"Nuestro estudio no es más que una prueba de concepto para enseñarles a los investigadores que esto se puede hacer con esta tecnología", indica el investigador de Harvard. "Supongo que cientos de laboratorios del mundo la adoptarán para dirigir la diferenciación de las células madre hacía tipos celulares útiles".

Autor: Cristina de Martos

lunes, 27 de septiembre de 2010

Geólogos calculan dónde habrá una erupción volcánica

Un equipo internacional de geólogos ha encontrado una forma de calcular dónde puede ocurrir una erupción volcánica. La clave de su trabajo ha sido relacionar distintas erupciones.
FUENTE Público
27/09/2010
Los científicos, pertenecientes a las universidades de Leeds Purdue, Indiana y Addis Abeba, investigaron la actividad volcánica en la depresión de Afar, al norte de Etiopía, durante los años 2005 y 2009. Al estudiar una secuencia de 13 fenómenos magmáticos en los que la piedra fundida circulaba por una fisura entre las placas tectónicas africana y asiática, comprobaron que la localización de las intrusiones de magma no eran al azar. De hecho, a cada evento le sucedía un cambio concreto en la tensión de la corteza terrestre. Su trabajo, publicado por Nature Geoscience, ayudará a los científicos a calcular no cuándo se va a producir una erupción pero sí dónde.Uno de los investigadores, Ian Hamling, explica: "Se sabía que tras un gran terremoto podían venir otros seísmos pero, hasta ahora, nuestro conocimiento de los eventos volcánicos estaba basado en casos aislados".El equipo analizó la erupción de septiembre de 2005 en el desierto de Afar. El magma atravesó entre dos y nueve kilómetros de estratos provocando una alteración de la tensión terrestre. Después se sucedieron otras 12 menores intrusiones en cuatro años. Midiendo los niveles de tensión en cada zona de intrusión magmática, vieron que las erupciones a la superficie se producían en las zonas de mayor presión.

viernes, 17 de septiembre de 2010

Mejoran el uso del suelo reduciendo un 50% el abono de sus cultivos

La Universidad Nacional (UN) ha elaborado fijadores y solubilizadores mediante los cuales los cultivos requieren un 50% menos de abono.
FUENTE | Agencia de noticias Universidad Nacional de Colombia 14/09/2010

Colombia

Los cultivos requieren hasta 200 bultos de urea (abono) por hectárea para llegar a buen término. Con el uso de fijadores y solubilizadores elaborados en la UN, el ahorro es hasta del 50%. Estos productos son parte de algunos insumos agrícolas elaborados en el Instituto de Biotecnología de la UN (IBUN) que ya se encuentran en la industria y buscan mejorar el uso del suelo y sus cultivos.

Entre estos insumos se encuentran los solubilizadores de fosfato, que reemplazan el fósforo químico del suelo. Su acción consiste en disponer el fósforo que está en el suelo para que la planta lo pueda tener como nutriente esencial y, a su vez, es parte de los macronutrientes que necesitan las plantas para evolucionar (carbono, nitrógeno y potasio).

"Lo que hace el solubilizador es coger el fósforo fijado en el suelo y a través de su metabolismo lo liberan para que las plantas lo puedan utilizar", explicó la ingeniera química de la UN Nubia Moreno, magíster en ingeniería química y en biotecnología, actual investigadora del IBUN.

Otro insumo elaborado son los fijadores biológicos de nitrógeno, microorganismos que transforman el nitrógeno atmosférico en formas amoniacales para ser utilizados y aprovechados en un alto porcentaje por las plantas. Adicionalmente, en el IBUN también se diseñó un nuevo controlador biológico para acabar el hongo que ataca los cultivares de arroz (Rhizoctonia solani).

"Desde hace 10 años estamos desarrollando insumos agrícolas para una empresa, hemos ido avanzando en la búsqueda de productos que necesitan los agricultores para tecnificar sus cultivos".

Dos lustros lleva el grupo de investigación, liderado por la ingeniera Moreno, trabajando con estos insumos en laboratorio, que pasaron luego por estudios en planta piloto y actualmente tienen su desarrollo industrial.

Esta investigación fue financiada por Colciencias para el diseño de una planta en Ibagué, y la empresa privada colaboró para su construcción y puesta en marcha desde 2009. "Actualmente estamos produciendo 20 mil dosis de biofertilizantes y biocontroladores, de los cuales ya se tienen 6 productos registrados, desarrollados en el IBUN, y aspiramos a tener 40 mil", aseguró la ingeniera Moreno. El trabajo de la ingeniera Moreno ha sido destacado y reconocido en el sector, particularmente en el campo de los biofertilizantes, pues logró pasar de la investigación básica y el escalado a una planta de carácter industrial.

sábado, 11 de septiembre de 2010

Rocas almacén de CO2 en Burgos

El anhelo de almacenar el dióxido de carbono (CO2) bajo tierra, con el fin de mitigar el calentamiento, está algo más cerca. Los planes para que las futuras plantas térmicas de carbón limpio no emitan estos gases de efecto invernadero avanzan con rapidez. Y los primeros pasos se están dando también en España, de la mano de la fundación pública Ciudad de la Energía (Ciuden), radicada en Ponferrada (León), en colaboración con Endesa. La iniciativa promueve una planta piloto de captura de CO2 de 30 MW en Compostilla (León) y la primera planta de investigación sobre almacenamiento subterráneo en Hontomín (Burgos).

FUENTE | La Vanguardia Digital 09/09/2010

Este es uno de los seis proyectos europeos para demostrar la viabilidad de las modernas tecnologías para producir electricidad con carbón limpio (con captura y almacenamiento de CO2) y combatir el cambio climático. El CO2 generado en la planta piloto de Compostilla será inyectado bajo tierra en Hontomín, en donde se llevan ya a cabo las tareas de investigación sobre el terreno.

Los trabajos para desarrollar estos primeros desarrollos tecnológicos en materia de almacenamiento de CO2 avanzan "a buen ritmo", explica Modesto Montoto, director del programa de almacenamiento de CO2 de Ciuden. La instalación de Hontomín deberá estar concluida el año próximo, de manera que las primeras experiencias de inyección del CO2 en el subsuelo podrían iniciarse a finales del 2011.

El lugar elegido es un subsuelo con aguas salobres (que no se usan para abastecimiento) en la cuenca del Duero. Concretamente, el CO2 se inyectará en una formación de rocas calizas para ser almacenado a unos 1.400 metros de profundidad. El gas, sometido a presión, deberá alojarse en los poros de la roca caliza, empapada de agua salobre. Ésta deberá actuar como una esponja. Allí, el CO2 deberá disolverse y reaccionar con los minerales de la roca para formar nuevas mineralizaciones y quedar confinado. En los huecos de esas rocas porosas deberá, pues, incrustarse el CO2 que no queremos que salga en la atmósfera. Y, por encima, existe una capa geológica no porosa ni permeable para garantizar el sellado y evitar que el CO2 salga a la superficie.

Montoto precisa que el objetivo prioritario de Ciuden es "conocer todas las actividades que rodean una planta de almacenamiento de CO2 y desarrollar la tecnología para que los futuros almacenamientos industriales sean factibles, seguros y económicos". En los próximos años, las térmicas de carbón deberán enterrar el CO2 en el subsuelo; y por eso se trata de conocer todas las circunstancias que esto supone en cuanto a viabilidad técnica, tecnológica y económica.

Al elegir el emplazamiento de Hontomín, Ciuden ha buscado una estructura geológica óptima y poder contrastar todas las variantes de las tecnologías que deberán ser empleadas en este tipo de operaciones de almacenamiento. Sólo se inyectará un máximo de 100.000 toneladas de CO2 atendiendo la normativa europea para estas investigaciones.

"Nuestra misión es imitar la naturaleza, que ya ha hecho almacenamientos de este tipo, de gas o de petróleo. Se trata de ver qué tipos de ensayos permiten garantizar que se va a actuar de la misma manera que lo ha hecho la naturaleza", dice Montoto.

Los primeros trabajos han consistido en caracterizar el terreno con reconocimientos sísmicos en tres dimensiones, tras lo cual podrán empezarse los sondeos. A partir de ellos, se podrá conocer mejor la rocas que van a actuar como almacén o como sello, detectar las posibles vías de fuga, concretar la capacidad de almacenamiento o analizar cómo se mueve esa agua salada en la que debe quedar atrapada el CO2.

Completa el ciclo del carbón limpio que se iniciará en la planta de captura de CO2 de Compostilla, en donde se incorporará un sistema de combustión del carbón con oxígeno (en lugar de aire), lo que permite obtener una corriente pura de gran concentración de estos gases. Así, se evitará su emisión a la atmósfera, conducirlos y enterrarlos. Los primeros envíos del CO2 hasta Hontomín se harán en camión, aunque en el futuro, la previsión es que este tipo de transporte de CO2 -desde las térmicas de carbón limpio hasta los lugares de almacenamiento- se haga mediante grandes conductos (como los actuales gasoductos u oleoductos), según los planes esbozados por la UE.

La planta de captura de CO2 de Compostilla tendrá 30 MW, pero el acuerdo de colaboración firmado entre Ciuden y Endesa pretende avanzar hacia la posible construcción de una planta industrial de 300 MW con esta tecnología (en una segunda fase). Sería la primera planta industrial del mundo en su especialidad (oxicombustión y en lecho fluido) y estaría lista en el 2015. Sin embargo, la financiación europea sólo cubre 180 millones de euros hasta el 2012, mientras que la futura planta industrial de 300MW costaría 1.400 millones. El almacenamiento del CO2 generado a partir del 2015 en la planta industrial no tiene destino definido.

Autor: Antonio Cerrillo

miércoles, 8 de septiembre de 2010

Adecuada gestión del agua

Huracanes, desprendimientos, sequías y terremotos son sólo algunos de los fenómenos naturales que azotan nuestro planeta.

FUENTE CORDIS: Servicio de Información en I+D Comunitario
08/09/2010

Además, un nuevo informe advierte de que el aumento de la aleatoriedad de las lluvias ligado al cambio climático afectará de forma negativa a la seguridad alimentaria y el crecimiento económico, y que África y Asia se llevarán la peor parte.

El Instituto Internacional de Gestión del Agua (IWMI, Sri Lanka) ha identificado una acción clave que podría ayudar a detener este proceso y a la vez aumentar la producción agrícola de secano: impulsar la inversión en distintas formas de almacenamiento de agua.

«Millones de agricultores de secano están a merced de la disponibilidad de agua, impredecible y menguante», explicó Colin Chartres, Director General del IWMI. «El cambio climático afectará en extremo a estas personas, por lo que es necesario realizar con rapidez grandes inversiones en medidas de adaptación.»

Algunas acciones, como la construcción de presas de gran tamaño, suponen un alivio rápido, pero no garantizan del todo la sostenibilidad a largo plazo. A pesar de su capacidad para controlar inundaciones y mejorar la productividad agrícola, tales presas generan problemas de índole social y medioambiental. El IWMI explica que los cambios en los cursos de los ríos han obligado a hasta 80 millones de personas a desplazarse de sus hogares y afectan a cerca de 470 millones que viven río abajo de presas.

En lugar de centrarse en acciones de este tipo es necesario emplear un método integrado que combine opciones de almacenado de agua a pequeña y gran escala. Por ejemplo, el agua subterránea, almacenada en el subsuelo, y el agua recogida en estanques, embalses y tanques podría utilizarse para solucionar los problemas que pudieran surgir.

«Al igual que los consumidores modernos diversifican sus posesiones para reducir riesgos, los pequeños agricultores precisan una gama amplia de "reservas de agua" para amortiguar los impactos del cambio climático», indicó Matthew McCartney del IWMI, primer firmante del informe. «De esta forma si se seca una fuente de agua podrán utilizar las demás», añadió.

«Para los millones de personas que dependen de la agricultura de secano, el acceso estable al agua puede marcar la diferencia entre el hambre crónica y un progreso constante hacia la seguridad alimentaria. Incluso pequeñas cantidades de agua almacenada pueden propiciar grandes aumentos de la productividad agrícola y del bienestar de las comunidades rurales al permitir que tanto cultivos como ganado sobrevivan a periodos secos.»

Según el IWMI, una mejor gestión agrícola del agua podría mejorar enormemente la situación de casi 500 millones de personas en África e India. La agricultura de secano supone el 94% del total de la superficie de cultivo en el África subsahariana y el 66% en Asia, según datos del IWMI. El problema reside en que las infraestructuras de almacenaje de agua son prácticamente inexistentes en estas zonas.

«Si no reducimos la incertidumbre en la agricultura de secano mediante la mejora de los medios para almacenar agua, muchos agricultores de países en desarrollo se enfrentarán indefensos a un clima mucho más hostil e impredecible», señala el IWMI.

Es necesario meditar en profundidad y adoptar medidas seguras como el desarrollo y la creación de más opciones de almacenado a pequeña escala, pues beneficiarían enormemente a la seguridad alimentaria y la economía local. En resumen, la solución radica en la eficacia en la planificación y la gestión.

El Dr. McCartney advierte que «ninguna de las opciones propuestas es una panacea». «Todas entrañan beneficios y desventajas en función de sus características inherentes, la forma en la que se planifican y gestionan y las condiciones que se pueden dar en emplazamientos concretos.»

En declaraciones realizadas el 30 de agosto durante el Foro Estratégico 2010 en Bled (Eslovenia), que llevó por título «El reto del agua», el Comisario europeo de Medio Ambiente Janez Potocnik indicó que la «aceleración rápida» del siglo XX permitió la cuadruplicación de la población mundial y la multiplicación por cuarenta de la producción económica. No obstante, también multiplicamos por dieciséis y por nueve el empleo de combustibles fósiles y agua respectivamente.

El Comisario Potocnik indicó que la correcta gestión del agua es uno de los principales retos a los que nos enfrentamos. «No hay más que dirigir la vista a cualquiera de los millones de paquistaníes en peligro de muerte debido a las inundaciones y enfermedades derivadas de ellas», subrayó. «Agentes de todo el mundo son conscientes de la importancia de abordar de frente este reto.»

Los Objetivos de Desarrollo del Milenio (ODM) y la Cumbre Mundial sobre Desarrollo Sostenible (CMDS) trabajan para reducir a la mitad la proporción de personas que no poseen un acceso sostenible a agua potable y alcantarillado básico.

Por su parte, la Comisión Europea ha creado la Iniciativa de la Unión Europea sobre el Agua, que pretende implantar la gestión integrada de recursos hídricos abarcando cada cuenca hidrográfica en su totalidad. Con cerca de 1.500 millones de euros de financiación para proyectos relacionados con el agua, esta iniciativa reúne a grupos y personas procedentes de una enorme variedad de sectores con el fin de asegurar una mejor gobernanza en el sector hídrico y atraer una mayor cantidad de inversiones regionales. Con ella se espera fortalecer la cooperación regional y aumentar la eficacia de los mecanismos financieros para la financiación de programas de desarrollo.

martes, 7 de septiembre de 2010

Energía y medio ambiente: la búsqueda del planeta que necesitamos

Dentro del contexto actual de energía y medio ambiente, la Universidad Rey Juan Carlos (URJC) propone un conjunto de actividades para su Campus de Móstoles que en un ambiente lúdico y placentero llame la atención sobre las soluciones y la complementariedad que pueden aportar la pareja energía/medio ambiente en la futura sostenibilidad del planeta, de forma que se incentive entre los jóvenes el interés por la investigación y el desarrollo tecnológico en estos ámbitos.
FUENTE URJC - mi+d
07/09/2010
Ahora que las sociedades más avanzadas han comprendido por fin que los recursos energéticos clásicos no son ilimitados y que el aprovechamiento de la energía no puede comprometer el futuro del planeta y de las próximas generaciones, el imparable desarrollo en el siglo XXI de los nuevos países emergentes, que conlleva un aumento exponencial del consumo de recursos energéticos, plantea dos grandes retos científicos y tecnológicos a los que debemos enfrentarnos: la generación sostenible de nuevas fuentes de energía y el aprovechamiento medioambientalmente respetuoso de las mismas. En este sentido, las actividades planteadas tratarán de poner de manifiesto todas las anteriores premisas, intentando llamar la atención de forma didáctica y al mismo tiempo lúdica.

Para ello se realizará un recorrido científico-tecnológico por el parque de energías renovables de forma que se pueda valorar la aportación de la energía solar, la energía eólica, etc., como fuentes de energía adicionales a las convencionales. También se plantea dentro de este recorrido una visita a la planta depuradora de aguas residuales con la que cuenta el campus de Móstoles de la Universidad Rey Juan Carlos, así como visitas a las instalaciones de biorremediación y conservación, todo ello enfocado a una correcta gestión medioambiental. Además, teniendo en cuenta el desarrollo tecnológico que se está produciendo en los países desarrollados y las necesidades que van a requerir los países emergentes la biodiversidad se puede ver afectada, y en ese sentido se plantean dos actividades relacionadas con esta problemática: la valoración de la fotosíntesis y respiración del césped del campus de Móstoles, y la biodiversidad de las mariposas nocturnas en el campus de Móstoles.
La proyección de documentales y recreaciones 3D, utilizando medios de realidad virtual, electrónicos, informáticos y audiovisuales, para dar a conocer los problemas actuales en el planeta, y por supuesto, las diferentes tecnologías energéticas y de conservación del medio ambiente para solucionarlos será otra de las propuestas. De igual forma, el intercambio de experiencias mediante la impartición de charlas y mesas redondas abiertas con la presencia de investigadores relevantes del Campus de Móstoles de la URJC, serán otras de las actividades propuestas, finalizando con algo que está entre la ciencia y los pasatiempos: una serie de 25 partidas simultáneas de ajedrez con la presencia de un Gran Maestro Internacional que permita hacerse una idea de la "energía del ajedrez".
--------------------------------------------------------------------------------
ENERGÍA Y MEDIO AMBIENTE: LA BÚSQUEDA DEL PLANETA QUE NECESITAMOS
24 de septiembre de 2010 de 18:00 a 24:00
Campus de Móstoles de la Universidad Rey Juan Carlos
C/ Tulipán, s/n.
Móstoles

viernes, 30 de julio de 2010

¿Y si nunca hubiera habido un Big Bang?

La teoría del Big Bang está tan extendida como el fenómeno al que hace referencia, pero puede existir una alternativa. El investigador Wun-Yi Shu, de la Universidad Nacional Tsing Hua en Taiwán, sugiere un nuevo modelo para explicar el Universo en el que no hay ni un origen ni un final. Según esta teoría del infinito, que sugiere que la masa, el espacio y el tiempo se relacionan de forma diferente a como ahora consideran los científicos, la gran explosión que, según el consenso científico, originó todas las cosas, nunca llegó a producirse.

FUENTE | ABC Periódico Electrónico S.A. 30/07/2010

En un estudio publicado en arXiv.org, Shu explica que el nuevo modelo responde a una nueva perspectiva sobre algunos de los conceptos básicos que se utilizan en astrofísica, como son el tiempo, el espacio, la masa y la longitud. En su propuesta, bastante difícil de entender para la gran mayoría de los mortales que no tenemos un título en Física o en Astronomía, el tiempo y el espacio se pueden convertir el uno en el otro, y la velocidad de la luz es el factor de conversión entre ambas. Como el Universo se expande, el tiempo se transforma en el espacio, y la masa, en longitud. A medida que el Universo se contrae, ocurre lo contrario.

En resumen, la propuesta de Shu tiene cuatro características distintivas. La primera es que la velocidad de la luz y la gravitación no son constantes, sino que varían con la evolución del Universo. En segundo lugar, el tiempo no tiene principio ni fin, es decir, que ni estalló el Big Bang ni se producirá nunca un Big Crunch (el Gran Colapso, una teoría que predice que el Universo irá frenándose poco a poco comprimiéndose hasta que todos sus elementos vuelvan al punto original, destruyendo toda la materia en un único punto de energía). Punto tercero: la sección espacial del Universo es de tres dimensiones curvadas en una cuarta, lo que descarta una geometría plana o hiperboloide, y por último, existen fases de aceleración y desaceleración.

La idea, además de complicada puede parecer arriesgada, pero Shu asegura que sus datos encajan perfectamente con las observaciones realizadas por los astrónomos en la Tierra. Para entender el funcionamiento del Cosmos, su teoría no necesita de la energía oscura, una misteriosa fuerza que, según los científicos, componen el 74% del Universo y cuya existencia es discutida por algunos investigadores. Sin embargo, tiene un punto flaco, y es que sus ideas no pueden explicar la existencia de fondo cósmico de microondas, que se supone la evidencia más sólida de los restos del Big Bang.

sábado, 15 de mayo de 2010

Toda la vida procede de un único ancestro común

Hace más de 150 años, Charles Darwin propuso una teoría que entonces pareció descabellada: todos los seres vivos comparten la herencia genética de un único y remoto antepasado común (UCA, por sus siglas en inglés). Una idea que constituye uno de los pilares sobre los que el genial científico edificó su teoría de la evolución.

FUENTE | ABC Periódico Electrónico S.A. 14/05/2010

A partir de ese único organismo ancestral, la vida se diversificó después en la multitud de formas que hoy pueblan nuestro mundo. Ahora, un bioquímico de la Universidad de Brandeis en Boston, Massachusetts, ha publicado en Nature el primer estudio estadístico a gran escala que se realiza para poner a prueba la verosimilitud de la teoría.

Y los resultados del estudio confirman que Darwin tenía razón. En su «Origen de las especies», el naturalista británico proponía que «todos los seres orgánicos que alguna vez han vivido en la Tierra han descendido de una forma primordial». Desde entonces, las evidencias que confirman la teoría se han multiplicado, bajo la forma de un número creciente de criaturas «de transición» entre unas y otras especies en el registro fósil, pero también de una abrumadora cantidad de similitudes biológicas a nivel molecular.

Sin embargo, muchos biólogos se preguntan en la actualidad si las relaciones evolutivas entre los organismos vivientes se describen mejor con un único «árbol familiar» o, por el contrario, con una red de múltiples árboles evolutivos conectados entre sí, como en una telaraña. En cuyo caso, la vida habría podido expandirse de forma independiente a partir de un número indeterminado de ancestros, y no de uno solo.

Sin embargo, según el bioquímico Douglas Theobald, autor principal del estudio, eso es algo que en realidad no tiene demasiada importancia. «Déjeles decir que la vida surgió de forma independiente en múltiples ocasiones. Es algo que la idea de UCA permite. Y si fue así, la teoría sostiene que se produjo un cuello de botella en la evolución, en el que sólo sobrevivieron hasta el presente los descendientes de uno de los organismos independientes originales.

También es posible que efectivamente emergieran poblaciones separadas, pero por medio del intercambio de genes a lo largo del tiempo se habrían convertido en una única especie que fue el ancestro de todos nosotros. En ambos casos, todo lo que está vivo sigue estando relacionado genéticamente».

Por medio de potentes ordenadores y aplicando rigurosas fórmulas estadísticas, Theobald estudió los varios modelos diferentes de ancestros que existen. Y sus resultados inclinan abrumadoramente la balanza en favor de la hipótesis de UCA, un único antepasado común. De hecho, UCA es por lo menos 102.860 veces más probable que tener múltiples ancestros.

UNA ESPECIE DE ESPUMA

Para realizar su análisis, Theobald seleccionó 23 proteínas comunes a todo el espectro taxonómico, pero cuyas estructuras difieren de unas especies a otras. Buscó esas proteínas en doce especies diferentes, cuatro por cada uno de los tres diferentes dominios de la vida (Bacteria Archaea y Eucaryota). El paso siguiente fue preparar simulaciones informáticas para valorar las probabilidades de los diferentes escenarios evolutivos para producir ese rango de proteínas.

Y fue ahí donde Theobald se dio cuenta de que los escenarios evolutivos que partían de un único antepasado común superaban con mucho a los que se basaban en ancestros múltiples. «Simplemente -explica el científico- los modelos con un único antepasado común explicaban mejor los datos, y además eran los más simples, por lo que ganaban en todos los recuentos». Ahora bien, ¿qué aspecto debe tener ese antepasado común y dónde vivió? El estudio de Theobald no puede responder esas preguntas, aunque el científico sí que se permite especular: «para nosotros, debió parecerse a una especie de espuma, viviendo quizá en los bordes del océano, o quizá en las profundidades, al abrigo de chimeneas geotermales. Aunque a nivel molecular, estoy seguro de que debió tener un aspecto tan complejo y bello como el de la vida moderna».

Autor: José Manuel Nieves

martes, 11 de mayo de 2010

Frenazo al biocarburante

Los biocarburantes se perfilaban como la gran promesa de las energías limpias y como solución a la dependencia del petróleo. A principios de esta década Europa se fijó ambiciosos objetivos y España prometió situarse en la vanguardia.

FUENTE | El País Digital 11/05/2010

La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?

La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE.UU., y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.

La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.

Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".

Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.

Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.

José María López, subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.

La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.

"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".

La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".

Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.

Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.

CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.

El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.

En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.

En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañía Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.

La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.

Autor: Elena Hidalgo

miércoles, 28 de abril de 2010

La Antártida y su biodiversidad

37 minutos de tu vida que merece la pena emplearse en ver este video.



Descubierta una nueva y enorme corriente oceánica

Una nueva "autopista oceánica" de cuya existencia nadie sabía hasta ahora acaba de ser descubierta por un equipo de científicos japoneses y australianos. Tiene un caudal cuarenta veces superior al del río Amazonas y fluye bajo el Océano Índico, a más de tres mil metros de profundidad. El hallazgo, que ayudará a comprender mejor el clima de la Tierra, acaba de ser publicado en Nature Geoscience.

FUENTE ABC Periódico Electrónico S.A. 28/04/2010

La corriente transporta aguas muy densas y ricas en oxígeno que se hunden cerca de la Antártida a grandes profundidades y se dirigen hacia el lejano norte", explica Steve Rintoul, uno de los autores del estudio. "De hecho, sin esta aportación de agua antártica, las capas más profundas del océano tendrían muy poco oxígeno".

El papel y la influencia de las corrientes oceánicas en el clima son bien conocidas. En efecto, se encargan de almacenar y transportar una enorme cantidad de calor y dióxido de carbono, que de esta forma no se libera a la atmósfera y frena el proceso de calentamiento global. "La profunda corriente de la meseta submarina de Kerguelen forma parte de un sistema global de corrientes oceánicas que resultan determinantes a la hora de conocer cuánto calor y carbono puede almacenar el océano", añade el investigador.

Otras expediciones habían detectado antes evidencias de este complejo sistema de corrientes, pero ninguna de ellas había sido capaz de determinar la cantidad de agua que transportaban. El equipo australiano-japonés utilizó para sus experimentos distintos medidores de corriente anclados al fondo oceánico, a profundidades superiores a los 4.500 metros. Durante un periodo de dos años, los detectores enganchados al fondo flotaron a una profundidad de cerca de tres mil metros, midiendo sistemáticamente la velocidad de la corriente, su temperatura y salinidad.

DESDE LA ANTÁRTIDA

"Las mediciones continuas nos permitieron, por primera vez, determinar cuánta agua estaba transportando hacia el norte esta profunda corriente", afirma Rintoul. Y resulta que lleva más de doce millones de metros cúbicos por segundo de agua procedente de la Antártida, a menos de cero grados de temperatura y sin llegar a congelarse, ya que está mezclada con sales y minerales. "Fue una auténtica sorpresa comprobar lo fuerte que es esta corriente", dice el investigador. "Con una velocidad media durante dos años de 20 cm por segundo, se trata de la corriente más fuerte jamás medida a profundidades de tres km bajo la superficie marina".

Para Rintoul, "Disponer de un mapa de estos sistemas de corrientes profundas es un paso muy importante hacia la comprensión de la red global de corrientes que influye sobre el clima, tanto presente como futuro. Y nuestros resultados muestran que las corrientes de la Meseta Kerguelen realizan una gran contribución a esta circulación oceánica global".

Autor: José Manuel Nieves

martes, 13 de abril de 2010

El impacto de la actividad humana sobre la desertificación

El Análisis de Ciclo de Vida (ACV) es una metodología científica que analiza de manera objetiva los impactos ambientales de una actividad o proceso abarcando todo su ciclo, esto es, desde la extracción de las materias primas hasta la gestión de los residuos generados al final de su vida útil.

Montserrat Núñez
Instituto de Investigación y Tecnologías Agroalimentarias
IRTA

En ACV, el impacto ambiental del sistema estudiado se expresa en categorías de impacto ambiental (calentamiento global, destrucción de la capa de ozono, acidificación, etc.). En los últimos años se han realizado importantes avances metodológicos en el ACV, por ejemplo, definiendo unas normas estándares de aplicación en las ISO 14040 y 14044.

Pese a la evolución del ACV, una de las principales debilidades metodológicas actuales es la ausencia de categorías que midan los impactos que las actividades humanas, como el cultivo de tierras o el pastoreo, ejercen sobre el uso del suelo.

El uso insostenible del suelo puede llevar a su degradación. Si esta degradación se produce en zonas áridas, semi-áridas y sub-húmedas secas[1] , como España, la degradación se denomina desertificación y los efectos pueden ser irreversibles, dando lugar a áreas totalmente improductivas. A pesar de la importancia de la desertificación a nivel mundial, que afecta especialmente a los países áridos en desarrollo, hasta la fecha no se habían desarrollado propuestas encaminadas a incluir este importante impacto ambiental en el ACV. A raíz de esta situación, un grupo de investigadores del IRTA de Cabrils (Barcelona), de la Universidad Autónoma de Barcelona y de la Universidad Tecnológica Nacional de Mendoza (Argentina) han realizado una propuesta metodológica con el fin de que el ACV cuente con una categoría de impacto ambiental que mida el potencial de desertificación de cualquier actividad humana sobre el territorio. La propuesta ha sido publicada recientemente en una revista científica de ámbito internacional.

Para poder calcular el impacto de desertificación que tiene una actividad humana en una región concreta, la metodología precisa información de cuatro importantes indicadores biofísicos de desertificación: aridez, erosión, sobreexplotación de acuíferos y riesgo de incendios. Estos indicadores abarcan los principales factores que causan desertificación.

Una vez medido el impacto de desertificación de la actividad, éste se pone en relación con la calidad del suelo que se está degradando, ya que el efecto puede ser muy distinto dependiendo del estado de degradación del suelo sobre el que se actúa. De este modo, mediante el uso de sistemas de información geográfica (GIS, en sus siglas en inglés), se clasificaron 15 áreas naturales según su riesgo de desertificación. Según los resultados obtenidos, el 38% de la superficie de la Tierra, correspondiente a la superficie de ocho regiones naturales, tienen un clima árido y por tanto pueden sufrir desertificación. En la Figura 1 se muestra un mapa de estas regiones con riesgo de desertificación, que son: desierto tropical o subtropical, estepa tropical o subtropical, Mediterránea, sabana, desierto templado, estepa templada, praderas y zonas marinas, ordenadas de mayor a menor riesgo.

El método permite evaluar satisfactoriamente el impacto de desertificación de una actividad humana, comparar el impacto de una misma actividad en lugares distintos o entre actividades distintas que se desarrollen en el mismo lugar. La metodología publicada se está poniendo actualmente en práctica en varios casos de estudio en España y Argentina, cuyos resultados serán publicados una vez finalizada la investigación.



Cuestiones:

1.- Investiga qué es ISO 14040 y 14044.
2.- ¿Qué es desertificación?
3.- Cita dos actividades humanas que lleven a desertificación.
4.- ¿En qué se basa el ACV para determinar el poder de desertificación de una actividad humana?
5.- Investiga qué es un SIG, qué información nos da y cita algunos ejemplos