A sólo dos semanas de que comience la decimocuarta Cumbre del Clima, que este año se celebra en Poznan (Polonia), la Secretaría de Cambio Climático de la ONU hizo públicos los datos de emisiones de gases de efecto invernadero de los países industrializados.
FUENTE | ABC Periódico Electrónico S.A. 18/11/2008
Entre éstos, los más relevantes son los de los 41 países que forman parte del Anexo I de la Convención de Cambio Climático. Estos son los países que tienen compromiso de reducción en el Protocolo de Kioto, si bien Estados Unidos y Turquía no han ratificado dicho Tratado, por lo que el nivel de cumplimiento queda restringido a 39 países.
España vuelve a situarse como el país que más ha aumentado sus emisiones desde 1990, año considerado base en el protocolo de Kioto. Los datos se refieren a 2006. En ese periodo de tiempo nuestro país ha aumentado sus emisiones un 49,5%, cuando nuestro objetivo en el Protocolo es el de no aumentarlas más de un 15 por ciento hasta 2012.
ACCIÓN URGENTE
En conjunto, los países desarrollados han disminuido sus emisiones desde 1990 en un 5%. A pesar de que este dato es positivo, lo cierto es que esconde una tendencia preocupante. Si el análisis se hace desde el año 2000 las emisiones han aumentado un 2,3 por ciento. Según señaló el secretario ejecutivo de la Convención del Cambio Climático, Yvo de Boer, «estos datos son motivo de preocupación y una señal de que se necesita una acción política urgente». Y es que aunque las emisiones se hayan reducido en un 5% desde 1990, ese retroceso se debió en buena medida a la caída de la Unión Soviética y de sus economías y menos a los esfuerzos en materia ambiental. Además, son precisamente estos países emergentes los que han experimentado un mayor crecimiento de sus emisiones (un 7,4%) entre 2000 y 2006.
No obstante, Yvo de Boer se mostró optimista en cuanto a las posibilidades de alcanzar los objetivos del protocolo de Kioto hasta 2012, si bien afirmó que la crisis económica internacional tendrá efectos importantes en la lucha contra el cambio climático.
POSICIÓN DE EE.UU.
Por ello, De Boer consideró positivo que aún quede más de un año, hasta diciembre de 2009, para perfilar el acuerdo que debe sustituir a Kioto y que deberá contener los esfuerzos que el mundo debe hacer en materia de mitigación hasta 2020. En este sentido, el representante de Naciones Unidas admitió tener grandes expectativas en la posición que tomará el presidente electo de Estados Unidos, Barack Obama, respecto a la lucha contra el cambio climático.
Autor: A. Acosta
HOME LA PELÍCULA
Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas Yann Arthus-Bertrand realizó la película HOME.Compártelo. Y actúa.
Buscar en este blog
jueves, 20 de noviembre de 2008
El vapor de agua multiplicará por dos el calentamiento del planeta
Una de las verdades más conocidas para los climatólogos es que el vapor de agua es el más potente gas de efecto invernadero. Es fácilmente comprobable por cualquiera que se duche y sienta que el cuarto de baño se ha recalentado, o cuando se viaja a un país tropical y la humedad aumenta la intensidad del calor.
FUENTE | El Mundo Digital 19/11/2008
Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.
Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).
Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.
Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.
Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.
El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.
Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.
Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.
"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.
LOS BOSQUES REGULAN EL CLIMA
Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).
Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.
Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.
Autor: Tana Oshima
FUENTE | El Mundo Digital 19/11/2008
Pero las obviedades del agua se acaban ahí. Para casi todo lo demás, el agua, en sus tres estados (sólido, líquido y gaseoso), plantea innumerables dudas, casi siempre más apasionantes que frustrantes para la ciencia.
Una de ellas es en qué medida el vapor de agua afecta al clima. Cuando se entra en el terreno de las predicciones precisas de un sistema complejo no lineal (como es el clima), las moléculas volátiles de agua resultan muy escurridizas: el mayor desafío para los meteorólogos a la hora de predecir el tiempo de la próxima semana es la imprevisible configuración de las nubes (que son vapor de agua condensado en torno a partículas).
Pero la ciencia ha avanzado prodigiosamente y los modelos matemáticos para las predicciones a largo plazo han demostrado ser lo suficientemente certeros como para que den una orientación clara de lo que va a ocurrir. Muchas de las anticipaciones hechas por esos complejísimos cálculos basados en numerosas variables se han cumplido con asombrosa fidelidad. Pero precisamente porque la ciencia sigue avanzando, los modelos informáticos van incorporando un número cada vez mayor de variables.
Esta semana, dos nuevos estudios arrojan luz sobre fenómenos naturales que forman parte del sistema terrestre y climático y que corroboran o aportan variables que contribuyen a ser más precisos. En uno de ellos, investigadores de Texas A&M University han querido zanjar el viejo debate de si el vapor de agua potenciará o no el calentamiento global, y si es así, en qué medida.
Con el aumento de temperaturas en el planeta, se espera que también se incremente la cantidad de vapor de agua en la atmósfera (otra regla sencilla: con el calor, se evapora más agua). El citado estudio, publicado en Geophysical Research Letters, concluye que el efecto amplificador que tendrá la humedad sobre el calor hará que se multiplique por dos el calentamiento climático.
El agua concentrada en el aire atrapa más calor, por lo que el círculo vicioso (la retroalimentación positiva, en la jerga técnica) está garantizado. Hasta ahora, los modelos climáticos han tenido en cuenta esta retroalimentación, pero el registro de datos sobre agua no era suficiente para poder sacar conclusiones más precisas y, sobre todo, corroborables.
Pero la tecnología ha ayudado a confirmar experimentalmente lo que muchos modelos habían augurado en el campo de la teoría. Con la ayuda de un satélite de la NASA, Andrew Dessler y colegas han logrado medir con precisión la humedad contenida en los primeros 16 kilómetros de la atmósfera.
Los datos obtenidos han venido a reforzar la capacidad predictiva de los modelos climáticos al comprobar que, a mayor CO2, mayor calor, mayor concentración de humedad, y viceversa. Es decir, el vapor de agua potencia a otros gases de invernadero.
"Este estudio confirma que lo que han predicho los modelos está ocurriendo realmente", dice Eric Fetzer, un científico atmosférico citado en el comunicado de la NASA.
LOS BOSQUES REGULAN EL CLIMA
Un segundo estudio, que será publicado en Proceedings of the National Academy of Sciences (PNAS), añade nuevas claves sobre la capacidad que tiene la vegetación de regular el clima (y de enfriarlo).
Investigadores de la Universidad de New Hampshire en EE.UU. han descubierto que la cantidad de radiación solar que es devuelta al espacio con respecto a la que entra (esta proporción es técnicamente llamada albedo) guarda relación con los niveles de nitrógeno que contienen las hojas de los árboles. Así, los árboles con más cantidad de nitrógeno multiplican por dos el efecto sumidero al mejorar simultáneamente sus dos tareas clave en el sistema climático: absorben más CO2 y devuelven más calor al espacio.
Los niveles de nitrógeno son, a su vez, influidos por el cambio climático, la contaminación, los usos del suelo y la composición de las especies; es decir, que la tendencia que tienen los bosques es a perder nitrógeno, y no a ganarlo. En cualquier caso, será una nueva retroalimentación que los modelos climáticos tendrán que añadir al complejo sistema.
Autor: Tana Oshima
jueves, 13 de noviembre de 2008
Desenmascarando al VIH
Para el VIH siempre es Halloween. O Carnaval. Se ha convertido en un auténtico maestro del disfraz, capaz de cambiar rápidamente de identidad para permanecer oculto en el organismo y propagarse a sus anchas. Sin embargo, esta habilidad a la que ahora saca tanto rendimiento podría servirle de poco en un futuro, ya que unos investigadores han manipulado unas células inmunes que, en cultivos celulares, han sido capaces de identificar todos los disfraces del virus.
FUENTE | El Mundo Digital 10/11/2008
Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).
Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.
Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.
Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.
"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.
UNA ESTRATEGIA DE DESGASTE
Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.
"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.
No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.
Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.
Autor: Isabel F. Lantigua
FUENTE | El Mundo Digital 10/11/2008
Los autores de este trabajo, de las Universidades de Cardiff (Reino Unido) y Pensilvania (EE.UU.), explican que las células del cuerpo, cuando son infectadas por el VIH, dejan pequeñas partes del virus en su superficie, como una señal de alarma, una pista para que los linfocitos T, los encargados de la respuesta defensiva, puedan identificar al invasor (en este caso el virus de la inmunodeficiencia humana).
Esto ocurre así con todos los virus, pero la particularidad del VIH es que tiene la capacidad de mutar rápidamente, de ponerse un disfraz para despistar a las células T. "Cuando el organismo está armando al ejército de linfocitos T para dar una respuesta al VIH, el virus altera su identidad, de forma que la pista que tenían los defensores del sistema inmune para identificarlo ya no es válida", indica a elmundo.es Andy Sewell, de la Universidad de Cardiff y uno de los coordinadores de la investigación que se publica en 'Nature Medicine'.
Y aunque el sistema inmune "tiene memoria de elefante para acordarse de los patógenos que ya ha visto en algún momento, si el VIH cambia constantemente, es imposible que lo recuerde", añade Sewell.
Lo que han hecho los científicos ha sido manipular el receptor de células T -el encargado de avisar a los linfocitos de la presencia del VIH- para que pueda reconocer todos los 'disfraces' que utiliza el virus con tal de no ser detectado. Después han unido este receptor a las células T y han obtenido 'asesinos biónicos' genéticamente manipulados, capaces de destruir las células infectadas por el VIH en cultivos.
"Por ahora hemos conseguido que el receptor detecte las identidades del virus y que se eliminen las células infectadas en el laboratorio. Si podemos trasladar estos buenos resultados a la práctica clínica, podríamos tener en nuestras manos una terapia muy poderosa", reconoce el doctor Bent Jakobsen, otro de los autores. El descubrimiento tiene, además, importantes implicaciones para desarrollar nuevos fármacos contra un virus que afecta a 33 millones de personas en todo el mundo.
UNA ESTRATEGIA DE DESGASTE
Los investigadores consideran que esta cualidad camaleónica del VIH puede impedir que el virus sea eliminado por completo del organismo. Sin embargo, creen que cada vez que muta, cada vez que cambia de disfraz para esconderse de los linfocitos T, pierde un poco de energía, se vuelve menos potente.
"Ante la presencia de nuestros 'asesinos biónicos', pueden pasar dos cosas. O que el VIH muera o bien que se vea obligado a cambiar otra vez de vestido, debilitándose cada vez más en el proceso", señala Sewell. "Evidentemente preferiríamos la primera opción, pero sospechamos que ocurrirá lo segundo", añade.
No obstante, "incluso si sólo conseguimos ir paralizando al virus sería un gran paso, ya que se haría cada vez más lento y, por tanto, más fácil de combatir", aclara el experto. "De momento, lo que hemos averiguado es que las células T pueden modificarse para que sean mucho más efectivas en su lucha contra el VIH", indica a elmundo.es James L. Riley, de la Universidad de Pensilvania.
Según explican, el siguiente paso de la investigación es probar, en los próximos años, esta técnica de manipulación genética en ratones y, luego en seropositivos con la infección muy avanzada. Si tiene éxito se probará en pacientes en las primeras fases de la enfermedad. Pero el objetivo de estos ensayos es probar que los linfocitos T manipulados son seguros y a qué dosis, más que su efectividad.
Autor: Isabel F. Lantigua
Crece el agujero de la capa de ozono pero no alcanza el récord de 2006
Un grupo de científicos del Centro Aeroespacial Alemán (DLR) ha descubierto que el agujero de la capa de ozono en la Antártida ha aumentado este año respecto al 2007 pero es menor que en 2006.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008
La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.
A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.
El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.
Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.
Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".
El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".
Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".
El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.
Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.
1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?
2.- ¿Qué es el agujero de la caopa de ozono?
3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.
4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?
5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 10/11/2008
La capa de ozono es una capa de la atmósfera que protege a la Tierra de los nocivos rayos ultravioleta. La ausencia de esta capa protectora desencadenaría multitud de problemas de salud en las personas y perjudicaría a la biodiversidad.
A pesar de que el agujero de la capa de ozono ha alcanzado los 27 millones de km2 en 2008, un aumento respecto a los 25 millones de km2 del año anterior, se ha mantenido por debajo de los 29 millones de km2 que se alcanzaron en 2006, una superficie equivalente a Norteamérica.
El frío extremo a altitudes elevadas hace estragos en la capa de ozono, como también lo hacen diversos gases atmosféricos nocivos como el bromo. Algunos productos desarrollados por el hombre en la década de los años treinta, como los clorofluorocarbonos (CFC), contribuyeron en gran medida a este problema. Según los científicos, una sola molécula de CFC puede causar la destrucción de 100.000 moléculas de ozono.
Los CFC, que se encuentran en los disolventes de limpieza y los aerosoles, se han ido retirando progresivamente en virtud del «Protocolo de Montreal relativo a las sustancias que agotan la capa de ozono» de 1987. Este acuerdo internacional para proteger la capa de ozono estratosférico se rubricó hace veintiún años y fue modificado en 1990 y 1992.
Según comentó el profesor del DLR Julian Meyer-Arnek, refiriéndose a las condiciones meteorológicas de la zona y su relación con el crecimiento y el tamaño relativos del agujero de la capa de ozono en 2007 y 2008, "en 2007, un menor transporte meridional de calor provocó temperaturas más bajas en la estratosfera de la Antártida y, por tanto, se formaron más NEP en la misma. Por consiguiente, el agujero de la capa ozono se agrandó a mayor velocidad a principios de septiembre de 2007".
El científico del DLR explicó también que un transporte meridional de calor mayor de lo habitual provocó temperaturas más cálidas en la estratosfera de la Antártida, lo que limitó la formación de NEP y "en consecuencia, redujo la conversión de halógenos inactivos químicamente en sustancias destructoras de ozono".
Por tanto, el tamaño del agujero de la capa de ozono fue menor de lo que suele ser habitual hacia finales del verano. Asimismo, en palabras del profesor Meyer-Arnek, "debido al largo periodo de estabilidad del vórtice polar, en 2008 el tamaño del agujero en la capa de ozono fue uno de los más grandes que se hayan observado".
El DLR basó sus investigaciones en el sensor SCIAMACHY (Espectrómetro de Absorción de Exploración e Imágenes para Cartografía Atmosférica) a bordo del satélite Envisat de la Agencia Espacial Europea (ESA); en el Experimento de Observación del Ozono Global (GOME) a bordo del ERS-2 de la ESA; y en el instrumento GOME-2, a bordo del satélite MetOp de EUMESTAT.
Los expertos consideran que, a pesar de que la oscilación anual de las temperaturas y las dinámicas atmosféricas son factores determinantes en el tamaño y crecimiento del agujero de la capa de ozono, es complicado definir los indicadores de la recuperación de ésta. Sin embargo, los científicos del DLR afirman que, en el futuro, cuestiones como la recuperación de la capa de ozono y el efecto de las dinámicas atmosféricas sobre posibles nuevos agujeros en ésta figurarán entre los objetivos de la comunidad científica.
1.- ¿Qué es la capa de ozono? ¿Donde está? ¿Para qué sirve?
2.- ¿Qué es el agujero de la caopa de ozono?
3.- Cita algiuno de los componentes que dañan la capa de ozono y sus fuentes de emisión.
4.- ¿Cuando y como comienza la preocupación por preservar esta capa de la atmósfera?
5.- ¿Como se explica en el texto la formación del agujero en la capa de ozono?
A un paso del colapso de los océanos
Todos los datos apuntan "con aplastante evidencia" a que los océanos están sufriendo, especialmente durante este lustro, una degradación acelerada que los está llevando al "umbral del colapso", en palabras de Carlos M. Duarte, uno de los biólogos más reconocidos en ecosistemas marinos y codirector del Primer Congreso Mundial de Biodiversidad Marina, que reúne en Valencia a más de 500 investigadores.
FUENTE | El País 12/11/2008
Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".
¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".
Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.
Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.
La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.
Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.
También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.
En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.
Autor: Jaime Prats
1.- ¿Cuales son las principales muestras de deterioro oceánico?
2.- ¿Qué efectos del cambio climático son observables en los océanos?
3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?
4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?
FUENTE | El País 12/11/2008
Duarte no ahorró adjetivos para destacar que las agresiones que soporta el medio marino conducen a una erosión global de su biodiversidad "que puede encontrar en el cambio climático su golpe de gracia que cause un deterioro catastrófico".
¿Estamos de nuevo ante el clásico discurso apocalíptico del ecologismo más militante? Para Duarte, no. Y para justificarlo, este investigador del Instituto Mediterráneo de Estudios Avanzados del CSIC se remite a la historia económica más reciente. "Hace ya varios meses, destacados economistas advertían de que nos enfrentábamos a una crisis financiera sin precedentes. Les tacharon de agoreros y catastrofistas, de trasladar un estado de pesimismo social generalizado, y mira cómo estamos ahora".
Tanto Duarte como la mayoría de los investigadores que presentan sus ponencias en la Ciudad de las Artes y las Ciencias de Valencia sostienen que las muestras del deterioro oceánico son tan importantes que "banalizarlas es un ejercicio de irresponsabilidad". Y reclaman, como el holandés Carlo Heip, copresidente del congreso, la puesta en marcha de medidas coordinadas de protección.
Por un lado está la sobreexplotación pesquera y el progresivo agotamiento de los grandes caladeros. Los datos indican que las reservas actuales representan el 10% de las existentes a principios del siglo XX y el ritmo de extracción sólo se mantiene gracias a la ingente inversión en medios y tecnología. Además, está el cambio climático y el aumento de la temperatura del agua, cuyos efectos ya son observables. La Asociación de Biología Marina del Reino Unido ha constatado en especies invasoras de microalgas marinas un recorrido de 50 kilómetros por década hacia entornos que antes les eran hostiles.
La interferencia de la actividad humana también es responsable del aumento de las llamadas zonas muertas, aquellas bolsas de agua con niveles de oxígeno tan bajos -por debajo de los cuatro miligramos por litro- que hacen imposible la existencia de vida. Se encuentran sobre todo en las franjas oceánicas costeras y están creciendo a un ritmo del 5% anual. Este incremento está relacionado con los vertidos de nitrógeno -en buena medida debido a los fertilizantes-, materia orgánica -desechos humanos- y sedimentos, que provocan la proliferación de algas y la caída en picado de la concentración de oxígeno. También influye en este descenso el incremento de CO2 ambiental, que interactúa con el agua, reduce el pH oceánico (incrementa la acidificación marina) y compromete a las especies que tienen esqueletos basados en carbonatos, como bivalvos o corales.
Las heridas abiertas por todos estos factores ya son una realidad en el ecosistema ártico, los arrecifes de coral tropicales o las praderas submarinas, entre las que destacan, por su riqueza, las mediterráneas.
También se presentan en el congreso los nuevos hallazgos de especies vinculados a los distintos programas (Censo de la Vida Marina, Deep Sea, entre otros) que trabajan en ambiciosos proyectos de inventario. La exposición Más profundo que la luz muestra algunos de los fascinantes hallazgos en la dorsal mesoatlántica.
En los dos grandes reservorios existentes -el sureste asiático y el océano profundo- están puestas las mayores esperanzas de encontrar compuestos de utilidad para aplicaciones farmacológicas, médicas o para biocombustibles. Como ejemplo de lo que queda por descubrir, se estima que existen unos 1.000 millones de tipos de bacterias marinas y actualmente apenas hay registradas 6.000. Además, al ritmo actual -2.000 nuevas especies al año- harían falta 700 años para contar con un censo completo de los océanos. "Esto no puede ser, hay que potenciar la investigación", afirman Duarte y Heip.
Autor: Jaime Prats
1.- ¿Cuales son las principales muestras de deterioro oceánico?
2.- ¿Qué efectos del cambio climático son observables en los océanos?
3.- ¿Cómo es posible que exista vida en las "zonas muertas" del océano?
4.- ¿Cómo interacciona el CO2 ambiental sobre los ecosistemas marinos?
martes, 11 de noviembre de 2008
Los niveles de metano en la atmósfera se dispararon a partir de 2007
La cantidad de metano en la atmósfera terrestre se disparó en el año 2007, poniendo fin a casi diez años en que los niveles atmosféricos de este potente gas de efecto invernadero se mantuvieron estables. Así lo revela un estudio publicado en la revista de la Unión Geofísica Americana, a partir de una red de medición de la NASA. Los niveles en la atmósfera de ese gas se han más que triplicado desde la era preindustrial, y actualmente suponen una quinta parte de la contribución humana al calentamiento global.
FUENTE | ABC Periódico Electrónico S.A. 03/11/2008
Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.
BALANCE DESCOMPENSADO
El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.
Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.
Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.
TEMPERATURAS ALTAS EN SIBERIA
De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.
Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.
MÁS ESTUDIOS
Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.
Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.
«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.
Autor: A. Acosta
1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?
2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?
3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?
4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?
5.- ¿Son estos estudios definitivos? Explica tu respuesta.
FUENTE | ABC Periódico Electrónico S.A. 03/11/2008
Hasta hace muy poco se creía que la emisión de este gas generada por las industrias era neutralizada por su propio grado de destrucción en la atmósfera. Sin embargo, ese equilibrio se ha visto alterado desde principios de 2007, lo que ha agregado varios millones de toneladas métricas de metano adicional a la atmósfera, según Matthew Rigby y Ronald Prinn, del Instituto Tecnológico de Massachusetts y autores del estudio.
BALANCE DESCOMPENSADO
El metano es producido por los humedales, arrozales, el ganado y las industrias de gas y carbón, pero en buena parte es destruido en la atmósfera por la reacción con radicales libres. Pero a partir de 2007 este balance se descompensa. Y sorprendentemente este aumento del metano se ha dado en todas las estaciones de medida que existen por todo el mundo.
Sin embargo, la mayoría de las emisiones de metano se producen en el Hemisferio Norte, y se calcula que para que los gases del Norte y del Sur se mezclen hace falta más de un año. Por eso, un análisis teórico de las mediciones revela que, si la única responsable es el aumento de las emisiones, éstas han debido aumentar en una cantidad similar en ambos hemisferios al mismo tiempo.
Los científicos analizaron muestras de aire recogida por una red de la NASA entre 1997 y abril de 2008. Esta red fue creada en los años 70 en respuesta a la preocupación internacional sobre determinadas sustancias químicas en la capa de ozono.
TEMPERATURAS ALTAS EN SIBERIA
De acuerdo a los investigadores, el aumento en el Hemisferio Norte podría ser el resultado de un aumento de las temperaturas en Siberia durante todo 2007, que provocó una mayor emisión bacteriana en los humedales de esa región. Hace pocas semanas científicos que viajaban a bordo de un barco ruso afirmaron tener pruebas de que millones de toneladas de metano estaban escapando a la atmósfera desde los fondos marinos del Ártico. Según sus declaraciones, depósitos masivos de metano encerrado bajo esos fondos marinos suben en forma de grandes burbujas a la superficie, fenómeno que coincide con un calentamiento de la región ártica y la desaparición de los bloques de hielo de sus aguas.
Otra explicación, podría ser, al menos parcialmente, una caída de las concentraciones de radicales libres en la atmósfera, en lo que podría estar involucrada la recuperación de la capa de ozono, según apunta Paul Fraser, quien también ha participado en el estudio.
MÁS ESTUDIOS
Para saberlo con exactitud hará falta un nuevo estudio usando un modelo de circulación atmosférica de muy alta resolución y mediciones adicionales procedentes de otras redes, según señaló Ronald Prinn a la revista de la Unión Geofísica Americana. «La clave es determinar con mayor precisión los roles relativos de las emisiones crecientes de metano frente a un descenso en el nivel de eliminación de la atmósfera. Aparentemente hay una mezcla de estas dos causas, pero queremos saber cuánto contribuye cada una a este aumento del metano», añadió Prinn.
Todavía es muy pronto para saber si este incremento representa un retorno a un crecimiento sostenido del metano o el comienzo de una anomalía relativamente corta, según los investigadores Rigby y Prinn. Teniendo en cuenta que el metano es unas 25 veces más potente como gas de efecto invernadero que el dióxido de carbono, se hacen necesarias más investigaciones que permitan entender mejor cuál puede ser el impacto del metano en el cambio climático.
«Este aumento del metano es inquietante porque la reciente estabilidad había ayudado a compensar el rápido incremento de las emisiones de CO2», señaló Drew Shindell, del Instituto Goddard de Estudios del Espacio en la NASA.
Autor: A. Acosta
1.- ¿Qué efecto nocivo puede tener el metano en la atmófera?
2.- ¿Dónde se produce de forma natural el metano? ¿Y cómo se destruye?
3.-¿Se produce la misma cantidad en el Norte y en el Sur? ¿Cual crees que es la causa?
4.- ¿Cuales son las causas propuestas por los investigadores para exlicar el aumento de las temperaturas del Ártico?
5.- ¿Son estos estudios definitivos? Explica tu respuesta.
lunes, 10 de noviembre de 2008
Investigadores estadounidenses proponen un método para almacenar CO2 de forma natural
Si dejamos de lado la vacuna del sida o la cura del cáncer, quizá el descubrimiento científico más perseguido en la actualidad sea el invento que permita almacenar el exceso de CO2 que emitimos a la atmósfera. Esto supondría poner un punto final a los problemas derivados del calentamiento global.
FUENTE | El Mundo Digital 04/11/2008
En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.
Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.
En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.
Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).
Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.
Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.
"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.
Autor: Miguel G. Corral
FUENTE | El Mundo Digital 04/11/2008
En los últimos años, muchos de los más influyentes científicos del mundo han propuesto soluciones para el cambio climático que no han llegado a ser consideradas de forma real. Algunas resultaban irrealizables a escala tecnológica, otras eran más caras que la transición a una economía independiente del petróleo y las menos tenían efectos impredecibles sobre la atmósfera. El caso es que ninguna de ellas llegó a gozar del apoyo de la comunidad científica internacional.
Ahora, una nueva investigación ha sacado a la luz una nueva forma de almacenar de una manera natural el exceso de CO2 que emitimos a la atmósfera y que está calentando el clima global. Los científicos Peter B. Kelemen y Jürg Matter, de la Universidad de Columbia (Nueva York, EE.UU.), han estudiado los procesos de carbonatación de una parte del manto interno de la Tierra que se encuentra expuesto al exterior en una zona del Sultanato de Omán llamada Samail.
En este lugar, la formación de peridotita, una roca que se forma allí de manera natural, supone la absorción de un buen número de toneladas de CO2. El problema, para los intereses de quienes buscan una solución al calentamiento, son los miles de años que lleva la formación de este tipo de rocas.
Sin embargo, Kelemen y Matter han dado un paso más y han estudiado algunos mecanismos que podrían acelerar os procesos de formación de este mineral rico en carbono. "La carbonatación de la peridotita puede ser acelerada mediante la perforación de la corteza, la fractura hidráulica, la inyección de CO2 purificado a altas presiones o aumentando la temperatura en las capas profundas", afirman en el trabajo publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS).
Debido a una propiedad física de la reacción química que se produciría, que hace que el proceso libere energía en lugar de consumirla, el método no requeriría un gran aporte de energía para lograr secuestrar el CO2.
Según los autores, este procedimiento de carbonatación de peridotita podría secuestrar más de 1.000 millones de toneladas de CO2 cada año sólo en el estrato estudiado en Omán. La cifra equivale a más del doble de las emisiones de este gas de efecto invernadero que produce cada año un país como España, que emite 400 millones de toneladas. Matter y Kelemen aseguran que el método es seguro, barato y permanente.
"Es necesario hacer más investigaciones de campo, pero el método que proponemos para acelerar el secuestro natural de dióxido de carbono ofrece una prometedora alternativa para el almacenamiento de CO2", aseguran en la investigación los autores del trabajo.
Autor: Miguel G. Corral
miércoles, 29 de octubre de 2008
Los primeros aviones con biocombustible volarán dentro de cinco años
Los primeros aviones 'verdes' impulsados por biocombustibles empezarán a volar a lo largo del próximo lustro. La compañía Boeing ha anunciado que dentro de entre tres y cinco años obtendrán la licencia administrativa federal en Estados Unidos para poder llenar los depósitos de sus aeronaves con biocombustible.
FUENTE | El Mundo Digital 29/10/2008
Darrin Morgan, experto ambiental de Boeing ha declarado al diario británico The Guardian que «la certificación llegará mucho más pronto de lo que pensamos», y concretó que ese plazo se sitúa entre los tres y cinco años.
Aún así, aunque los motores de los aviones son capaces de quemar mezclas de hasta el 30% de biocombustible con el tradicional queroseno sin modificar los motores, el problema que no tiene perspectivas de solución tan cercanas es el aprovisionamiento regular del biocombustible.
El cambio de combustible para los 13.000 aviones comerciales que despegan cada día requeriría tierras de cultivo de soja del tamaño de toda Europa. Este sí que es el mayor freno que se presenta a la expansión del cambio de modelo.
Actualmente, la navegación comercial aérea requiere 386.000 millones de litros de queroseno anuales, que al quemarse emiten el 2% del total del CO2 mundial. También emiten otros gases de efecto invernadero, por lo que el transporte aéreo se ha convertido en un gigante de la contaminación mundial que, además, aumenta con el gran crecimiento que mantiene hace años.
De ahí que una docena de grandes aerolíneas hayan fundado la asociación de Usuarios de Combustible de Aviación, que ha invitado a organizaciones ecologistas mundiales como WWF y Natural Resources Defense Council a asesorarles. «Agradecemos la voluntad del sector de la aviación de reducir las emisiones de gases de efecto invernadero», declaró recientemente Jean-Philippe Denruyter, coordinador de Global Bioenergy de WWF.
No obstante, la ONG Amigos de la Tierra cree que el sector aéreo debe limitar los vuelos antes de introducir los biocombustibles. Añaden que todavía «hay verdaderas dudas acerca de si los biocombustibles son sostenibles y contribuyen a reducir las emisiones».
Los detractores de los biocombustibles sostienen que su producción masiva eleva los precios de los alimentos básicos, al utilizar el terreno agrícola que se dedicaba a producir cereales. También señalan que para despejar suelo para cultivar biocombustibles se arrasan zonas y bosques que cumplen mejor la función de absorción de CO2.
El Panel Intergubernamental para el cambio Climático (IPCC) ha estimado que la quema de bosques tropicales para producir masivamente aceites destinados a biocombustibles, son responsables de hasta el 20% de las emisiones totales de CO2.
Las investigaciones apuntan ahora a producir biocombustibles a partir de algas, cuyo contenido de materia grasa es muy superior al de los aceites vegetales. Las algas se pueden cultivar en espacios mucho más pequeños establecidos en tierra o en el mar, dependiendo de su origen.
De hecho, Virgin utilizará una mezcla del 20% de este tipo de biocombustible en un vuelo de demostración. El biocombustible será inyectado a uno de los motores a través de un sistema independiente para no mezclarse con el combustible normal que va a los otros tres motores. En enero, tendría lugar el vuelo de prueba sin pasajeros entre Heathrow, en Londres y el aeropuerto de Schipol, en Ámsterdam.
Autor: Gustavo Catalán Deus
Comenta este artículo respondiendo a las preguntas:
1.-¿Qué son los biocombustibles?
2.- En cuanto a ocupación del territorio se considera apropiado el cambio de combustibles fósiles por biocombustibles?
3.- ¿Cual es la forma en la que la navegación comercial aérea produce contaminación atmosférica?
4.- ¿Por qué hay detractores del uso de los biocombustibles?
5.- Echale un vistazo a la página del IPCC y aclara cuales son sus principales objetivos.
6.- ¿Qué alternativas en cuanto a materias primas se plantean para su utilización en los vuelos comerciales?
FUENTE | El Mundo Digital 29/10/2008
Darrin Morgan, experto ambiental de Boeing ha declarado al diario británico The Guardian que «la certificación llegará mucho más pronto de lo que pensamos», y concretó que ese plazo se sitúa entre los tres y cinco años.
Aún así, aunque los motores de los aviones son capaces de quemar mezclas de hasta el 30% de biocombustible con el tradicional queroseno sin modificar los motores, el problema que no tiene perspectivas de solución tan cercanas es el aprovisionamiento regular del biocombustible.
El cambio de combustible para los 13.000 aviones comerciales que despegan cada día requeriría tierras de cultivo de soja del tamaño de toda Europa. Este sí que es el mayor freno que se presenta a la expansión del cambio de modelo.
Actualmente, la navegación comercial aérea requiere 386.000 millones de litros de queroseno anuales, que al quemarse emiten el 2% del total del CO2 mundial. También emiten otros gases de efecto invernadero, por lo que el transporte aéreo se ha convertido en un gigante de la contaminación mundial que, además, aumenta con el gran crecimiento que mantiene hace años.
De ahí que una docena de grandes aerolíneas hayan fundado la asociación de Usuarios de Combustible de Aviación, que ha invitado a organizaciones ecologistas mundiales como WWF y Natural Resources Defense Council a asesorarles. «Agradecemos la voluntad del sector de la aviación de reducir las emisiones de gases de efecto invernadero», declaró recientemente Jean-Philippe Denruyter, coordinador de Global Bioenergy de WWF.
No obstante, la ONG Amigos de la Tierra cree que el sector aéreo debe limitar los vuelos antes de introducir los biocombustibles. Añaden que todavía «hay verdaderas dudas acerca de si los biocombustibles son sostenibles y contribuyen a reducir las emisiones».
Los detractores de los biocombustibles sostienen que su producción masiva eleva los precios de los alimentos básicos, al utilizar el terreno agrícola que se dedicaba a producir cereales. También señalan que para despejar suelo para cultivar biocombustibles se arrasan zonas y bosques que cumplen mejor la función de absorción de CO2.
El Panel Intergubernamental para el cambio Climático (IPCC) ha estimado que la quema de bosques tropicales para producir masivamente aceites destinados a biocombustibles, son responsables de hasta el 20% de las emisiones totales de CO2.
Las investigaciones apuntan ahora a producir biocombustibles a partir de algas, cuyo contenido de materia grasa es muy superior al de los aceites vegetales. Las algas se pueden cultivar en espacios mucho más pequeños establecidos en tierra o en el mar, dependiendo de su origen.
De hecho, Virgin utilizará una mezcla del 20% de este tipo de biocombustible en un vuelo de demostración. El biocombustible será inyectado a uno de los motores a través de un sistema independiente para no mezclarse con el combustible normal que va a los otros tres motores. En enero, tendría lugar el vuelo de prueba sin pasajeros entre Heathrow, en Londres y el aeropuerto de Schipol, en Ámsterdam.
Autor: Gustavo Catalán Deus
Comenta este artículo respondiendo a las preguntas:
1.-¿Qué son los biocombustibles?
2.- En cuanto a ocupación del territorio se considera apropiado el cambio de combustibles fósiles por biocombustibles?
3.- ¿Cual es la forma en la que la navegación comercial aérea produce contaminación atmosférica?
4.- ¿Por qué hay detractores del uso de los biocombustibles?
5.- Echale un vistazo a la página del IPCC y aclara cuales son sus principales objetivos.
6.- ¿Qué alternativas en cuanto a materias primas se plantean para su utilización en los vuelos comerciales?
martes, 28 de octubre de 2008
Ciencia para evitar catástrofes
El Consejo Internacional para la Ciencia (ICSU) se ha embarcado en un programa internacional de investigación de diez años de duración que se propone subsanar las lagunas de conocimiento que existen entre la aplicación de la ciencia y la evitación de catástrofes, a fin de reducir los riesgos de que éstas se produzcan. Esta decisión fue anunciada durante la XXIX Asamblea General del ICSU, celebrada en Maputo (Mozambique). Se trata de la primera Asamblea General celebrada por este organismo en un país subsahariano.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 27/10/2008
El nuevo programa, denominado Integrated Research on Disaster Risk (IRDR, Investigación integrada sobre el riesgo de catástrofes), se basará en diversas actividades de investigación ya en marcha y abordará el impacto de las catástrofes a cualquier escala (desde local hasta mundial).
«El programa IRDR fortalecerá las capacidades en todo el mundo para afrontar riesgos de catástrofes y tomar medidas más adecuadas para mitigar sus repercusiones», declaró el climatólogo Gordon McBean, presidente del Grupo de Planificación contra Riesgos del ICSU. Se prevé que el IRDR reunirá conocimientos técnicos y experiencias procedentes de todas partes del mundo y que brindará una oportunidad sin precedentes para que las ciencias naturales y sociales trabajen codo con codo como nunca antes.
«Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil», añadió el Dr. McBean.
El programa IRDR abarcará todo peligro de tipo geofísico, oceanográfico y climático, así como todo fenómeno que pueda ser provocado por la meteorología. Se engloba incluso la meteorología espacial y el posible impacto de objetos espaciales sobre la Tierra. Cabe destacar que este programa tendrá en cuenta el impacto de las actividades humanas por lo que concierne a provocar peligros o agudizarlos.
Los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres, al estar peor equipados para afrontar catástrofes. Se calcula que cada año las catástrofes naturales matan a cientos de miles de personas y que dañan de alguna forma a millones de ellas. Los supervivientes a dichas catástrofes suelen quedar desplazados y perder su medio de sustento. La comunidad científica ha observado un incremento en la frecuencia de las catástrofes naturales en los últimos años. Desde el comienzo del siglo XXI se han registrado más de 470 catástrofes al año, mientras que en la década de los cincuenta la cifra anual era apenas de 30.
Filipe Domingos Freires Lucio, miembro del Grupo de Planificación del ICSU y antiguo director general del Instituto Nacional de Meteorología de Mozambique, se refirió extensamente al posible impacto de las catástrofes sobre las poblaciones humanas. «En África una catástrofe puede tener un impacto enorme sobre las actividades económicas y los medios de sustento de la población. Mozambique es especialmente vulnerable a las catástrofes, y sobre todo a las asociadas a fenómenos meteorológicos y climáticos. El IRDR generará conocimientos que contribuirán a que en cada país se tomen mejores medidas, lo que redundará en una mejor gestión del riesgo de catástrofes», aseguró.
El ICSU, con sede central en París (Francia), es una organización no gubernamental a la que están afiliados organismos científicos nacionales (114 miembros) y uniones científicas internacionales (29 miembros).
Me gustaría que respondieras a las siguientes preguntas sobre el artículo anterior:
1.- ¿Cual es el objetivo del programa IRDR, Investigación integrada sobre el riesgo de catástrofes ?
2.- ¿A qué factor de riesgo se refiere el dr.McBean cuando dice «Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil»?
3.- ¿Qué tipo de riesgos abarcará el programa IRDR?
4.- ¿Por qué los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres? ¿Qué factor de riesgo va a cambiar en estos paises?
¿Qué es el ICSU? Pinchando aquí tienes el enlace a su página, puedes echarle un vistazo.
FUENTE | CORDIS: Servicio de Información en I+D Comunitario 27/10/2008
El nuevo programa, denominado Integrated Research on Disaster Risk (IRDR, Investigación integrada sobre el riesgo de catástrofes), se basará en diversas actividades de investigación ya en marcha y abordará el impacto de las catástrofes a cualquier escala (desde local hasta mundial).
«El programa IRDR fortalecerá las capacidades en todo el mundo para afrontar riesgos de catástrofes y tomar medidas más adecuadas para mitigar sus repercusiones», declaró el climatólogo Gordon McBean, presidente del Grupo de Planificación contra Riesgos del ICSU. Se prevé que el IRDR reunirá conocimientos técnicos y experiencias procedentes de todas partes del mundo y que brindará una oportunidad sin precedentes para que las ciencias naturales y sociales trabajen codo con codo como nunca antes.
«Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil», añadió el Dr. McBean.
El programa IRDR abarcará todo peligro de tipo geofísico, oceanográfico y climático, así como todo fenómeno que pueda ser provocado por la meteorología. Se engloba incluso la meteorología espacial y el posible impacto de objetos espaciales sobre la Tierra. Cabe destacar que este programa tendrá en cuenta el impacto de las actividades humanas por lo que concierne a provocar peligros o agudizarlos.
Los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres, al estar peor equipados para afrontar catástrofes. Se calcula que cada año las catástrofes naturales matan a cientos de miles de personas y que dañan de alguna forma a millones de ellas. Los supervivientes a dichas catástrofes suelen quedar desplazados y perder su medio de sustento. La comunidad científica ha observado un incremento en la frecuencia de las catástrofes naturales en los últimos años. Desde el comienzo del siglo XXI se han registrado más de 470 catástrofes al año, mientras que en la década de los cincuenta la cifra anual era apenas de 30.
Filipe Domingos Freires Lucio, miembro del Grupo de Planificación del ICSU y antiguo director general del Instituto Nacional de Meteorología de Mozambique, se refirió extensamente al posible impacto de las catástrofes sobre las poblaciones humanas. «En África una catástrofe puede tener un impacto enorme sobre las actividades económicas y los medios de sustento de la población. Mozambique es especialmente vulnerable a las catástrofes, y sobre todo a las asociadas a fenómenos meteorológicos y climáticos. El IRDR generará conocimientos que contribuirán a que en cada país se tomen mejores medidas, lo que redundará en una mejor gestión del riesgo de catástrofes», aseguró.
El ICSU, con sede central en París (Francia), es una organización no gubernamental a la que están afiliados organismos científicos nacionales (114 miembros) y uniones científicas internacionales (29 miembros).
Me gustaría que respondieras a las siguientes preguntas sobre el artículo anterior:
1.- ¿Cual es el objetivo del programa IRDR, Investigación integrada sobre el riesgo de catástrofes ?
2.- ¿A qué factor de riesgo se refiere el dr.McBean cuando dice «Nuestra meta es que dentro de diez años, gracias a este programa, haya menos muertes, menos gente que sufra consecuencias graves, y mejores inversiones y decisiones por parte de los gobiernos, el sector privado y la sociedad civil»?
3.- ¿Qué tipo de riesgos abarcará el programa IRDR?
4.- ¿Por qué los países que saldrán más beneficiados de este programa serán en todo caso los países más pobres? ¿Qué factor de riesgo va a cambiar en estos paises?
¿Qué es el ICSU? Pinchando aquí tienes el enlace a su página, puedes echarle un vistazo.
lunes, 27 de octubre de 2008
viernes, 24 de octubre de 2008
Identifican una nueva vía de dispersión del virus del sida en el sistema inmune
Jaque al sida. Un estudio liderado por científicos del Instituto de Investigación del Sida (IrsiCaixa) del Hospital Germans Trias de Badalona ha identificado una nueva vía que utiliza el VIH para infectar las células del sistema inmune. La importancia del hallazgo reside en que el virus utiliza como «caballos de Troya» las células dendríticas, las mismas que, en condiciones normales, se encargan de erradicarlo.
FUENTE | ABC Periódico Electrónico S.A. 23/10/2008
El descubrimiento, publicado en la revista «Blood», abre la puerta al desarrollo de nuevas terapias para combatir la enfermedad. El estudio, elaborado con la colaboración de las Unidades de Inmunología y Anatomía Patológica del Hospital Germans Trias i Pujol de Badalona (Barcelona) y del Departamento de Microbiología de la Universidad de Boston (EE.UU.), y con la financiación del Ministerio de Ciencia, revela que cuando un patógeno entra en el organismo, las células dendríticas juegan un papel clave en la organización de la respuesta inmune. Su función consiste en patrullar el organismo y capturar a los agentes infecciosos que lo invaden.
Destrucción del agente invasor De este modo, en condiciones normales, una vez que las células dendríticas han capturado a patógenos tales como el VIH, las células maduran y son capaces de degradarlos y presentarlos a su principal diana: los linfocitos T CD4+, que se encargarán de organizar la destrucción del agente invasor.
El estudio demuestra, por primera vez, que el VIH se aprovecha de la misma vía de entrada de las células dendríticas que unas partículas denominadas exosomas, generadas por el sistema inmune para amplificar la información sobre el tipo de agente infeccioso que ataca al organismo. Según Javier Martínez-Picado, de la Institució de Recerca i Estudis Avançats (ICREA), «las similitudes detectadas entre el mecanismo de entrada del VIH y el mecanismo de entrada de los exosomas, debería guiarles en el diseño de terapias que permitan frenar uno de los mecanismos de diseminación de la infección».
Autor: E. Armora
FUENTE | ABC Periódico Electrónico S.A. 23/10/2008
El descubrimiento, publicado en la revista «Blood», abre la puerta al desarrollo de nuevas terapias para combatir la enfermedad. El estudio, elaborado con la colaboración de las Unidades de Inmunología y Anatomía Patológica del Hospital Germans Trias i Pujol de Badalona (Barcelona) y del Departamento de Microbiología de la Universidad de Boston (EE.UU.), y con la financiación del Ministerio de Ciencia, revela que cuando un patógeno entra en el organismo, las células dendríticas juegan un papel clave en la organización de la respuesta inmune. Su función consiste en patrullar el organismo y capturar a los agentes infecciosos que lo invaden.
Destrucción del agente invasor De este modo, en condiciones normales, una vez que las células dendríticas han capturado a patógenos tales como el VIH, las células maduran y son capaces de degradarlos y presentarlos a su principal diana: los linfocitos T CD4+, que se encargarán de organizar la destrucción del agente invasor.
El estudio demuestra, por primera vez, que el VIH se aprovecha de la misma vía de entrada de las células dendríticas que unas partículas denominadas exosomas, generadas por el sistema inmune para amplificar la información sobre el tipo de agente infeccioso que ataca al organismo. Según Javier Martínez-Picado, de la Institució de Recerca i Estudis Avançats (ICREA), «las similitudes detectadas entre el mecanismo de entrada del VIH y el mecanismo de entrada de los exosomas, debería guiarles en el diseño de terapias que permitan frenar uno de los mecanismos de diseminación de la infección».
Autor: E. Armora
miércoles, 22 de octubre de 2008
La vida surgió de una chispa hace medio siglo
En 1953, un joven licenciado en Química construyó un artefacto digno del doctor Frankenstein. Como el personaje de Shelley, Stanley Miller pretendía en su laboratorio de la Universidad de Chicago prender una chispa para crear vida. Pero su experimento no era un cuento gótico, sino la puesta en práctica de una teoría científica promovida por su mentor, el premio Nobel de Química Harold Urey.
FUENTE | Público 21/10/2008
Urey defendía que la vida terrestre se cocinó a la lumbre de las tormentas eléctricas a partir de ingredientes básicos disueltos en la sopa del océano. En términos más precisos: en una Tierra primitiva con una atmósfera reductora compuesta por hidrógeno, metano y amoniaco, la energía eléctrica pudo activar estos gases para formar los aminoácidos de las proteínas, un primer escalón en la química de la vida.
Para recrear el proceso en el laboratorio, Miller diseñó un circuito cerrado y sin aire que emulaba la Tierra prebiótica: un mechero calentaba agua en un matraz -el océano-, el vapor se mezclaba con los gases -la atmósfera primitiva- y la mezcla atravesaba un arco eléctrico -la tormenta- para regresar al matraz dejando en su camino, si el experimento funcionaba, un residuo de moléculas biológicas simples.
PRUEBA DE UN COSMOS POBLADO
Aunque Miller mantuvo el experimento una semana, a las 24 horas el agua se había teñido de rojo y amarillo, la firma de algo nuevo. En un breve artículo en Science, el científico demostraba que su Tierra había creado cinco aminoácidos, que se elevaron a 14 con nuevas técnicas en décadas posteriores.
El ensayo de Miller se convirtió en canon de la astrobiología; para el astrónomo y divulgador Carl Sagan, era "la mejor prueba de la abundancia de vida en el cosmos".
Para desgracia de Miller, la hipótesis de la atmósfera reductora cayó en desuso. Hoy se cree que en la Tierra prebiótica abundaban el CO2 y el nitrógeno, lo que invalida el experimento. En una entrevista a Astrobiology Magazine en 2003, Miller confesaba: "Aún no he encontrado la alternativa a la necesidad de una atmósfera reductora".
Miller falleció en 2007, pero sus sucesores le siguen los pasos. Sus antiguos becarios, James Cleaves y Jeffrey Bada, hallaron muestras del experimento original y las han analizado. Según la edición de Science, una segunda versión del aparato, que Miller no publicó, engendró 22 aminoácidos.
La mayor sorpresa está en la clave de esta variante: una espita que concentra los gases simula un volcán, que muchos sugieren como la cuna de la vida en la Tierra prebiótica. Si la atmósfera de entonces no era reductora, los gases volcánicos sí lo son. Y, por si fuera poco, el vulcanismo produce tormentas eléctricas. Miller pudo tener más razón de la que sospechaba.
Autor: Javier Yanes
los volcanes originaron la vida en la Tierra
FUENTE | Público 21/10/2008
Urey defendía que la vida terrestre se cocinó a la lumbre de las tormentas eléctricas a partir de ingredientes básicos disueltos en la sopa del océano. En términos más precisos: en una Tierra primitiva con una atmósfera reductora compuesta por hidrógeno, metano y amoniaco, la energía eléctrica pudo activar estos gases para formar los aminoácidos de las proteínas, un primer escalón en la química de la vida.
Para recrear el proceso en el laboratorio, Miller diseñó un circuito cerrado y sin aire que emulaba la Tierra prebiótica: un mechero calentaba agua en un matraz -el océano-, el vapor se mezclaba con los gases -la atmósfera primitiva- y la mezcla atravesaba un arco eléctrico -la tormenta- para regresar al matraz dejando en su camino, si el experimento funcionaba, un residuo de moléculas biológicas simples.
PRUEBA DE UN COSMOS POBLADO
Aunque Miller mantuvo el experimento una semana, a las 24 horas el agua se había teñido de rojo y amarillo, la firma de algo nuevo. En un breve artículo en Science, el científico demostraba que su Tierra había creado cinco aminoácidos, que se elevaron a 14 con nuevas técnicas en décadas posteriores.
El ensayo de Miller se convirtió en canon de la astrobiología; para el astrónomo y divulgador Carl Sagan, era "la mejor prueba de la abundancia de vida en el cosmos".
Para desgracia de Miller, la hipótesis de la atmósfera reductora cayó en desuso. Hoy se cree que en la Tierra prebiótica abundaban el CO2 y el nitrógeno, lo que invalida el experimento. En una entrevista a Astrobiology Magazine en 2003, Miller confesaba: "Aún no he encontrado la alternativa a la necesidad de una atmósfera reductora".
Miller falleció en 2007, pero sus sucesores le siguen los pasos. Sus antiguos becarios, James Cleaves y Jeffrey Bada, hallaron muestras del experimento original y las han analizado. Según la edición de Science, una segunda versión del aparato, que Miller no publicó, engendró 22 aminoácidos.
La mayor sorpresa está en la clave de esta variante: una espita que concentra los gases simula un volcán, que muchos sugieren como la cuna de la vida en la Tierra prebiótica. Si la atmósfera de entonces no era reductora, los gases volcánicos sí lo son. Y, por si fuera poco, el vulcanismo produce tormentas eléctricas. Miller pudo tener más razón de la que sospechaba.
Autor: Javier Yanes
los volcanes originaron la vida en la Tierra
Genoma humano: progreso científico para el avance de la civilización
Han sido muchos los acontecimientos ocurridos, desde que se hiciera público el primer borrador del genoma humano, a principios del año 2001. Como es sabido, el citado borrador, notablemente perfeccionado desde entonces, pues los errores y lagunas eran muchos, representa el patrón de la información genética detallada que define la especie humana.
FUENTE | ABC Periódico Electrónico S.A. 21/10/2008
Su conocimiento abrió la posibilidad de detallar también, hasta un nivel muy profundo, la individualidad genética de cada ser humano. Se trata de una cuestión, la de cada ser humano como único e irrepetible, que tiene múltiples facetas; de alguna forma, la dignidad intrínseca, que la verdadera civilización atribuye a cada uno de los integrantes de nuestra especie, también se ejemplifica en los datos que hoy nos aporta la Ciencia más avanzada.
Disponer de esta información sobre el genoma humano permite plantear una enorme cantidad de nuevos programas científicos, destinados a aprovechar ese conocimiento, que actualmente están en pleno desarrollo en muchos lugares del mundo. Entre ellos, los destinados a desarrollar una Medicina individualizada que no es otra cosa que utilizar los datos de la individualidad genética de cada cual, para mejorar la atención sanitaria a lo largo de la vida. Se trata, por ejemplo, de plantear medidas preventivas que beneficien a cada persona, en función de lo que se pueda deducir de sus datos genéticos. Se trata, igualmente, de que la atención farmacéutica que reciba tenga en cuenta qué fármacos son los más adecuados para el propio individuo, o cuáles no lo son en absoluto, aunque puedan ser útiles para otros. En definitiva, se pretende conocer hasta qué punto los genes de los que somos portadores -dotación que cada uno recibe a partes iguales de su padre y de su madre- influyen en nuestra salud, así como cuál es el alcance del ambiente en el que nuestra vida se desarrolla. No sólo somos genes, sino que a partir de esta dotación genética nuestro ser biológico se materializa en interacción con el ambiente. Por ambiente se debe entender todo nuestro entorno vital, desde el clima a la alimentación o la educación que recibimos.
El brillante premio Nobel Sidney Brenner ha llegado a escribir que todo este conocimiento define un nuevo paradigma científico, porque la Humanidad como tal representa un nuevo modelo. No cabe duda de que los avances en el genoma humano son una nueva fuente de conocimiento y de posibilidades. Sin embargo, la especie humana hace muchos años que ha llegado a esa conclusión. El reconocimiento de dignidad de la persona es la medida de la civilización; los nuevos hallazgos no hacen sino confirmar algo que está escrito en nuestra propia naturaleza, y que como seres humanos hemos podido ir materializando. Claro que a lo largo de la Historia ha habido ejemplos de lo contrario, momentos oscuros para esa civilización humana. También está claro que el propio concepto de vida humana -y la dignidad que le corresponde- pretende ser revisado por algunos en estos momentos, especialmente en lo que representan sus inicios o su final natural.
Pero, interesa mucho a todos considerar algunos aspectos del conocimiento nuevo, para que de cada avance científico se pueda derivar un verdadero progreso. Los avances de la Ciencia suponen un recorrido por un camino plagado de hallazgos ciertos, pero entremezclado de territorios de incertidumbre. La honradez más elemental demanda tanto establecer la verdad científica, como analizar sus alcances en términos precisos. Las interpretaciones carentes de base pueden ser -han sido, algunas veces- el origen de grandes conflictos.
Una conclusión que los datos genómicos establecen con claridad es que no existen razas humanas, si por razas se entiende grupos de seres humanos separados, entre los que pueda caber una distinción biológica clara. La especie humana es única, no hay fronteras que separen en grupos a quienes la integramos. Es ésta una cuestión en la que los descubrimientos científicos no hacen otra cosa que confirmar a quienes propusieron reconocer ese hecho fundamental, desde el ámbito religioso, político o social. Las observaciones son contundentes; hay una variabilidad genética, todos somos diferentes. Esas variaciones, en parte, son heredadas de nuestros antepasados que mezclaron sus genes, lo que sigue potenciando esa variabilidad. La variación hoy existente se puede datar a los inicios de la especie. Las diferencias de color de piel, así como de otras características externas muy visibles, son debidas a meras adaptaciones. Si se cuantifican las diferencias genéticas entre dos individuos, incluso considerados como de la misma raza, su valor alcanza niveles muy superiores a aquellas que puedan determinar las diferencias raciales o étnicas.
La Ciencia biológica asesta un duro golpe a todas aquellas posiciones -sostenidas en el pasado, pero también en el presente, no nos engañemos- que hacen énfasis en la significación de la etnicidad. Se podrán buscar explicaciones culturales o sociales sobre la existencia de grupos étnicos, así como a su proyección en la situación actual para demandar determinados derechos de grupos, por encima del individuo. De hecho, sabemos que esta búsqueda ha contaminado el cultivo de la Historia, desde sus fundamentos arqueológicos, cuando ésta se ha pervertido al servicio de determinadas ideologías y propuestas nacionalistas. Sin embargo, los avances sobre el genoma humano y la individualidad genética, tan útiles para la Medicina, representan una oportunidad más para la civilización. Un grupo multidisciplinar de académicos de la Universidad de Stanford insistía acertadamente en esta idea. La utilización de categorías raciales o étnicas, que sigue siendo empleada en Medicina, por ejemplo, para establecer la incidencia de determinadas patologías en caucasianos o personas de color, debe hacerse con precaución y con conocimiento de causa. Los grupos étnicos tal como se definen tienen un sustrato cultural y social, que con frecuencia va mucho más allá de lo biológico. Es preciso estar alerta frente a explicaciones genéticas de diferencias entre grupos humanos, en especial cuando se trata de caracteres de determinación compleja como la conducta o la capacidad intelectual.
Conocer la naturaleza es parte del progreso humano, que se asienta y avanza aun más a través del conocimiento de nuestra propia naturaleza como seres vivos. A nuestra propia libertad le es dado aprovechar ese conocimiento para profundizar en lo que más nos dignifica, el respeto a los derechos de todos, pero también de cada persona como única e irrepetible. Cada vez que sabemos en qué consiste ese ser único de cada individuo, nuestra civilización puede seguir avanzando sobre estas bases.
Autor: César NombelaNace en España el primer bebe modificado geneticamente
FUENTE | ABC Periódico Electrónico S.A. 21/10/2008
Su conocimiento abrió la posibilidad de detallar también, hasta un nivel muy profundo, la individualidad genética de cada ser humano. Se trata de una cuestión, la de cada ser humano como único e irrepetible, que tiene múltiples facetas; de alguna forma, la dignidad intrínseca, que la verdadera civilización atribuye a cada uno de los integrantes de nuestra especie, también se ejemplifica en los datos que hoy nos aporta la Ciencia más avanzada.
Disponer de esta información sobre el genoma humano permite plantear una enorme cantidad de nuevos programas científicos, destinados a aprovechar ese conocimiento, que actualmente están en pleno desarrollo en muchos lugares del mundo. Entre ellos, los destinados a desarrollar una Medicina individualizada que no es otra cosa que utilizar los datos de la individualidad genética de cada cual, para mejorar la atención sanitaria a lo largo de la vida. Se trata, por ejemplo, de plantear medidas preventivas que beneficien a cada persona, en función de lo que se pueda deducir de sus datos genéticos. Se trata, igualmente, de que la atención farmacéutica que reciba tenga en cuenta qué fármacos son los más adecuados para el propio individuo, o cuáles no lo son en absoluto, aunque puedan ser útiles para otros. En definitiva, se pretende conocer hasta qué punto los genes de los que somos portadores -dotación que cada uno recibe a partes iguales de su padre y de su madre- influyen en nuestra salud, así como cuál es el alcance del ambiente en el que nuestra vida se desarrolla. No sólo somos genes, sino que a partir de esta dotación genética nuestro ser biológico se materializa en interacción con el ambiente. Por ambiente se debe entender todo nuestro entorno vital, desde el clima a la alimentación o la educación que recibimos.
El brillante premio Nobel Sidney Brenner ha llegado a escribir que todo este conocimiento define un nuevo paradigma científico, porque la Humanidad como tal representa un nuevo modelo. No cabe duda de que los avances en el genoma humano son una nueva fuente de conocimiento y de posibilidades. Sin embargo, la especie humana hace muchos años que ha llegado a esa conclusión. El reconocimiento de dignidad de la persona es la medida de la civilización; los nuevos hallazgos no hacen sino confirmar algo que está escrito en nuestra propia naturaleza, y que como seres humanos hemos podido ir materializando. Claro que a lo largo de la Historia ha habido ejemplos de lo contrario, momentos oscuros para esa civilización humana. También está claro que el propio concepto de vida humana -y la dignidad que le corresponde- pretende ser revisado por algunos en estos momentos, especialmente en lo que representan sus inicios o su final natural.
Pero, interesa mucho a todos considerar algunos aspectos del conocimiento nuevo, para que de cada avance científico se pueda derivar un verdadero progreso. Los avances de la Ciencia suponen un recorrido por un camino plagado de hallazgos ciertos, pero entremezclado de territorios de incertidumbre. La honradez más elemental demanda tanto establecer la verdad científica, como analizar sus alcances en términos precisos. Las interpretaciones carentes de base pueden ser -han sido, algunas veces- el origen de grandes conflictos.
Una conclusión que los datos genómicos establecen con claridad es que no existen razas humanas, si por razas se entiende grupos de seres humanos separados, entre los que pueda caber una distinción biológica clara. La especie humana es única, no hay fronteras que separen en grupos a quienes la integramos. Es ésta una cuestión en la que los descubrimientos científicos no hacen otra cosa que confirmar a quienes propusieron reconocer ese hecho fundamental, desde el ámbito religioso, político o social. Las observaciones son contundentes; hay una variabilidad genética, todos somos diferentes. Esas variaciones, en parte, son heredadas de nuestros antepasados que mezclaron sus genes, lo que sigue potenciando esa variabilidad. La variación hoy existente se puede datar a los inicios de la especie. Las diferencias de color de piel, así como de otras características externas muy visibles, son debidas a meras adaptaciones. Si se cuantifican las diferencias genéticas entre dos individuos, incluso considerados como de la misma raza, su valor alcanza niveles muy superiores a aquellas que puedan determinar las diferencias raciales o étnicas.
La Ciencia biológica asesta un duro golpe a todas aquellas posiciones -sostenidas en el pasado, pero también en el presente, no nos engañemos- que hacen énfasis en la significación de la etnicidad. Se podrán buscar explicaciones culturales o sociales sobre la existencia de grupos étnicos, así como a su proyección en la situación actual para demandar determinados derechos de grupos, por encima del individuo. De hecho, sabemos que esta búsqueda ha contaminado el cultivo de la Historia, desde sus fundamentos arqueológicos, cuando ésta se ha pervertido al servicio de determinadas ideologías y propuestas nacionalistas. Sin embargo, los avances sobre el genoma humano y la individualidad genética, tan útiles para la Medicina, representan una oportunidad más para la civilización. Un grupo multidisciplinar de académicos de la Universidad de Stanford insistía acertadamente en esta idea. La utilización de categorías raciales o étnicas, que sigue siendo empleada en Medicina, por ejemplo, para establecer la incidencia de determinadas patologías en caucasianos o personas de color, debe hacerse con precaución y con conocimiento de causa. Los grupos étnicos tal como se definen tienen un sustrato cultural y social, que con frecuencia va mucho más allá de lo biológico. Es preciso estar alerta frente a explicaciones genéticas de diferencias entre grupos humanos, en especial cuando se trata de caracteres de determinación compleja como la conducta o la capacidad intelectual.
Conocer la naturaleza es parte del progreso humano, que se asienta y avanza aun más a través del conocimiento de nuestra propia naturaleza como seres vivos. A nuestra propia libertad le es dado aprovechar ese conocimiento para profundizar en lo que más nos dignifica, el respeto a los derechos de todos, pero también de cada persona como única e irrepetible. Cada vez que sabemos en qué consiste ese ser único de cada individuo, nuestra civilización puede seguir avanzando sobre estas bases.
Autor: César NombelaNace en España el primer bebe modificado geneticamente
España espera generalizar la captura y almacenamiento de CO2 a partir de 2020
«Quitar de la circulación el CO2 que emiten las industrias». Esto es, muy gráficamente, el objetivo último de la Plataforma Tecnológica Española del CO2 (PTECO2), formada por 34 entidades privadas del sector industrial y tecnológico, incluidas en el Sistema de Comercio de Emisiones de la Unión Europea, y por 36 organismos públicos del ámbito educativo e investigación.
FUENTE | ABC Periódico Electrónico S.A. 22/10/2008
Una vez que han terminado lo que ellos llaman «el itinerario tecnológico para España», un plan a ejecutar a corto y medio plazo y que comprende 14 propuestas para la realización de estudios, proyectos y líneas de investigación en las áreas de reducción y captura, uso y almacenamiento de CO2 e infraestructuras. Para su desarrollo, la Plataforma cree que es necesaria una inversión de 304 millones de euros.
Según explicó Santiago Sabugal, presidente de PTECO2, el objetivo es que en el año 2010 esté operativa la planta experimental de captura y almacenamiento de carbono de CIUDEN en El Bierzo; en 2015 haya al menos una planta operativa de demostración a nivel comercial y que, a partir de 2020, se produzca la transformación a escala masiva del parque técnico incorporando centrales de alta eficiencia con esta tecnología.
EXPORTAR Y NO COMPRAR
En contra de los que ven en esta tecnología una forma de esconder bajo la alfombra las emisiones de gases de efecto invernadero, en lugar de evitarlas, Sabugal dijo que aunque se apueste por un modelo basado en las energías renovables siempre va a haber procesos en muchos sectores industriales que necesiten de la quema de combustibles fósiles. Por tanto, «ésta es una tecnología clave y nuestro objetivo es que España sea desarrolladora y exportadora y no compradora» de esta técnica.
En este sentido, Juan Carlos Abanades, investigador del Instituto del Carbón, del CSIC, aseguró que «las tecnologías existen ya, esto no es ciencia ficción». Se refiere, sobre todo, a la fase de captura, donde lo que se intenta ahora es reducir el coste por tonelada de CO2 evitada. Actualmente está entre 30 y 60 euros y el objetivo para las dos próximas décadas es que se sitúe por debajo de los 15 euros por tonelada de CO2 que deja de emitirse.
El mayor reto ahora es el estudio del subsuelo para caracterizar los emplazamientos donde pueda inyectarse con seguridad este gas ya llevado al estado supercrítico. «Ya sabemos que hay un tercio del territorio que no sirve por ser suelo granítico y metamórfico y no tener porosidad, pero es necesario un estudio geológico más profundo y esto cuesta mucho dinero», dijo a ABC Cecilio Quesada, del Instituto Geológico y Minero. Por eso, la inversión necesaria para los proyectos dentro del área de uso y almacenamiento de CO2 es la de mayor cuantía, más de 184 millones de euros.
En cuanto al almacenamiento se recoge la propuesta de realizar un mapa de las zonas de potencial de almacenamiento en España, pero el CO2 capturado también puede volver a utilizarse, por ejemplo transformándolo en biocombustibles, o el ejemplo de la planta de Elcogas en Puertollano, donde se separa el CO2 y se produce hidrógeno.
Desde la Plataforma del CO2 estiman que la captura y el almacenamiento podría suponer una reducción de las emisiones de los países industrializados de entre un 50 y un 80 por ciento para 2050.
Autor: Araceli Acosta
FUENTE | ABC Periódico Electrónico S.A. 22/10/2008
Una vez que han terminado lo que ellos llaman «el itinerario tecnológico para España», un plan a ejecutar a corto y medio plazo y que comprende 14 propuestas para la realización de estudios, proyectos y líneas de investigación en las áreas de reducción y captura, uso y almacenamiento de CO2 e infraestructuras. Para su desarrollo, la Plataforma cree que es necesaria una inversión de 304 millones de euros.
Según explicó Santiago Sabugal, presidente de PTECO2, el objetivo es que en el año 2010 esté operativa la planta experimental de captura y almacenamiento de carbono de CIUDEN en El Bierzo; en 2015 haya al menos una planta operativa de demostración a nivel comercial y que, a partir de 2020, se produzca la transformación a escala masiva del parque técnico incorporando centrales de alta eficiencia con esta tecnología.
EXPORTAR Y NO COMPRAR
En contra de los que ven en esta tecnología una forma de esconder bajo la alfombra las emisiones de gases de efecto invernadero, en lugar de evitarlas, Sabugal dijo que aunque se apueste por un modelo basado en las energías renovables siempre va a haber procesos en muchos sectores industriales que necesiten de la quema de combustibles fósiles. Por tanto, «ésta es una tecnología clave y nuestro objetivo es que España sea desarrolladora y exportadora y no compradora» de esta técnica.
En este sentido, Juan Carlos Abanades, investigador del Instituto del Carbón, del CSIC, aseguró que «las tecnologías existen ya, esto no es ciencia ficción». Se refiere, sobre todo, a la fase de captura, donde lo que se intenta ahora es reducir el coste por tonelada de CO2 evitada. Actualmente está entre 30 y 60 euros y el objetivo para las dos próximas décadas es que se sitúe por debajo de los 15 euros por tonelada de CO2 que deja de emitirse.
El mayor reto ahora es el estudio del subsuelo para caracterizar los emplazamientos donde pueda inyectarse con seguridad este gas ya llevado al estado supercrítico. «Ya sabemos que hay un tercio del territorio que no sirve por ser suelo granítico y metamórfico y no tener porosidad, pero es necesario un estudio geológico más profundo y esto cuesta mucho dinero», dijo a ABC Cecilio Quesada, del Instituto Geológico y Minero. Por eso, la inversión necesaria para los proyectos dentro del área de uso y almacenamiento de CO2 es la de mayor cuantía, más de 184 millones de euros.
En cuanto al almacenamiento se recoge la propuesta de realizar un mapa de las zonas de potencial de almacenamiento en España, pero el CO2 capturado también puede volver a utilizarse, por ejemplo transformándolo en biocombustibles, o el ejemplo de la planta de Elcogas en Puertollano, donde se separa el CO2 y se produce hidrógeno.
Desde la Plataforma del CO2 estiman que la captura y el almacenamiento podría suponer una reducción de las emisiones de los países industrializados de entre un 50 y un 80 por ciento para 2050.
Autor: Araceli Acosta
sábado, 18 de octubre de 2008
'Homo sapiens' pudo salir de África a través del Sahara
El Sahara no siempre ha sido tan árido como hoy lo conocemos. Imágenes de radar y análisis geoquímicos de sedimentos en varias localizaciones del desierto han permitido el hallazgo de rastros de antiguos ríos que lo atravesaban y llegaban al Mediterráneo en la zona de la actual Libia. Ese corredor verde fue utilizado por las primeras migraciones de homo sapiens, cuya aparición se calcula que ocurrió hace entre 150.000 y 200.000 años en el África subsahariana, de acuerdo con una investigación realizada por científicos británicos.
FUENTE | ABC Periódico Electrónico S.A. 17/10/2008
Hasta ahora se creía que la dispersión del hombre moderno desde el centro de África se había producido siguiendo la ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo no avalaban del todo la vía egipcia.
La nueva investigación, dirigida por Anne H. Osborne, de la Universidad de Bristol, aporta por primera vez pruebas de que la expansión de las primeras oleadas de nuestros antepasados pudo hacerse a través del Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo no debería ser ni la única ni, tal vez, la ruta potencial más probable de dispersión».
UN CORREDOR DE AGUA DULCE
Las pruebas realizadas con radar detectan lechos fósiles de ríos ahora enterrados que cruzan el desierto y desembocan en la costa mediterránea. La existencia de esos canales explicaría el disperso hallazgo en algunos oasis de ciertas artesanías datadas a mediados de la Edad de Piedra relacionadas con otras halladas cerca del mar.
El estudio presenta datos geoquímicos que demuestran que el agua en esos sistemas fósiles derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor de agua dulce a través de la actualmente hiperárida región del Sahara en el momento de las tempranas migraciones del hombre moderno hacia el norte de África y fuera de ella», asevera el equipo investigador.
CORREDORES VERDES
De hace aproximadamente 130.000 años datan los restos de homo sapiens más antiguos encontrados en la zona más occidental de Oriente Medio. Hasta ahora se suponía que la especie había llegado allí a través del valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han revelado una amplia distribución de homo sapiens a lo largo de la costa del norte de África y el norte del Sahara durante ese mismo período, lo que apoyaría la tesis del uso de los corredores verdes del Sahara.
«Utilizando análisis geoquímicos hemos demostrado que esos canales estaban activos durante el último periodo interglacial. Eso ofrece importante cauce en esa región que de otro modo sería árida», según Anne H. Osborne.
Para Derek Vance, otro de los autores del estudio, en el que también han participado geólogos libios, se muestra por primera vez que «las lluvias monzónicas alimentaron los ríos que se extienden desde el Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron con el valle del Nilo como rutas potenciales para las migraciones humanas hasta el Mediterráneo».
Autor: Emili J. Blasco
FUENTE | ABC Periódico Electrónico S.A. 17/10/2008
Hasta ahora se creía que la dispersión del hombre moderno desde el centro de África se había producido siguiendo la ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo no avalaban del todo la vía egipcia.
La nueva investigación, dirigida por Anne H. Osborne, de la Universidad de Bristol, aporta por primera vez pruebas de que la expansión de las primeras oleadas de nuestros antepasados pudo hacerse a través del Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo no debería ser ni la única ni, tal vez, la ruta potencial más probable de dispersión».
UN CORREDOR DE AGUA DULCE
Las pruebas realizadas con radar detectan lechos fósiles de ríos ahora enterrados que cruzan el desierto y desembocan en la costa mediterránea. La existencia de esos canales explicaría el disperso hallazgo en algunos oasis de ciertas artesanías datadas a mediados de la Edad de Piedra relacionadas con otras halladas cerca del mar.
El estudio presenta datos geoquímicos que demuestran que el agua en esos sistemas fósiles derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor de agua dulce a través de la actualmente hiperárida región del Sahara en el momento de las tempranas migraciones del hombre moderno hacia el norte de África y fuera de ella», asevera el equipo investigador.
CORREDORES VERDES
De hace aproximadamente 130.000 años datan los restos de homo sapiens más antiguos encontrados en la zona más occidental de Oriente Medio. Hasta ahora se suponía que la especie había llegado allí a través del valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han revelado una amplia distribución de homo sapiens a lo largo de la costa del norte de África y el norte del Sahara durante ese mismo período, lo que apoyaría la tesis del uso de los corredores verdes del Sahara.
«Utilizando análisis geoquímicos hemos demostrado que esos canales estaban activos durante el último periodo interglacial. Eso ofrece importante cauce en esa región que de otro modo sería árida», según Anne H. Osborne.
Para Derek Vance, otro de los autores del estudio, en el que también han participado geólogos libios, se muestra por primera vez que «las lluvias monzónicas alimentaron los ríos que se extienden desde el Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron con el valle del Nilo como rutas potenciales para las migraciones humanas hasta el Mediterráneo».
Autor: Emili J. Blasco
Los volcanes originaron la vida en la Tierra
Fue tan sencillo como convincente. El experimento que un científico de la Universidad de Chicago llamado Stanley Miller reprodujo una y otra vez en el laboratorio hace más de medio siglo sigue explicando hoy los posibles orígenes de la vida en la Tierra.
FUENTE | El Mundo Digital 17/10/2008
Un ya histórico estudio publicado en 'Science' en 1953 demostraba cómo a partir de los componentes de la atmósfera terrestre inicial podían surgir los aminoácidos, clave para la formación de la vida.
No había ingredientes más conocidos y accesibles para la "sopa primigenia" -como la descrita por Darwin-: metano, hidrógeno, amoniaco, agua y electricidad.
El experimento de Miller, hoy común en las clases de química de los institutos, consistió en juntar todos estos ingredientes y descargar electricidad, simulando así el océano, la atmósfera y los rayos de hace 4.500 millones de años.
El resultado fue una sopa de aminoácidos. Un simple experimento había logrado crear 13 de los 21 aminoácidos necesarios para la vida. El célebre astrofísico Carl Sagan lo consideró "el paso más significativo para convencer a los científicos de que la vida puede ser abundante en el cosmos".
Cincuenta y cinco años después, la misma revista 'Science' publica una revisión del experimento. Jeffrey Bada, de la Institución Scripps de Oceanografía en la Universidad de California en San Diego, y colegas han reinterpretado el análisis de Miller para concluir que los principales componentes de la vida pudieron surgir de las erupciones volcánicas.
MÁS AMINOÁCIDOS
Durante estas décadas, varias evidencias han cuestionado la validez de la atmósfera recreada por Miller (existen dudas de que ésta fuese tan reductora, es decir, pobre en oxígeno). Sin embargo, el nuevo experimento llevado a cabo por Bada sugiere que "incluso si la atmósfera en su conjunto no era tan reductora, podría haberse dado una síntesis prebiótica localizada" en sistemas volcánicos, dice el estudio.
Se cree que la Tierra, en sus orígenes, era un planeta convulso, sacudido por la actividad volcánica. El estudio actual sugiere que los rayos y las emisiones de gases resultantes de las erupciones volcánicas pudieron producir los componentes químicos necesarios para la vida. Al volver a realizar el experimento con técnicas contemporáneas, los investigadores han logrado crear un total de... ¡22 aminoácidos!
Tras una de las pruebas, los autores del estudio publicado describen que "el vapor [expulsado por los volcanes] inyectado en la chispa [eléctrica] puede haber generado con radicales hidroxilados que reaccionaron o bien con los precursores de los aminoácidos o con los propios aminoácidos".
Tras la muerte de Miller en 2007, Bada, ya veterano, y sus colegas rescataron las muestras químicas originales de aquella "sopa primigenia". "Estábamos seguros de que aún quedaban cosas por descubrir en el experimento original de Miller", dice Bada, coautor del estudio. "Nos dimos cuenta de que una versión moderna" de las pruebas con sistemas volcánicos "produce una variedad más amplia de componentes".
Autor: Tana Oshima
FUENTE | El Mundo Digital 17/10/2008
Un ya histórico estudio publicado en 'Science' en 1953 demostraba cómo a partir de los componentes de la atmósfera terrestre inicial podían surgir los aminoácidos, clave para la formación de la vida.
No había ingredientes más conocidos y accesibles para la "sopa primigenia" -como la descrita por Darwin-: metano, hidrógeno, amoniaco, agua y electricidad.
El experimento de Miller, hoy común en las clases de química de los institutos, consistió en juntar todos estos ingredientes y descargar electricidad, simulando así el océano, la atmósfera y los rayos de hace 4.500 millones de años.
El resultado fue una sopa de aminoácidos. Un simple experimento había logrado crear 13 de los 21 aminoácidos necesarios para la vida. El célebre astrofísico Carl Sagan lo consideró "el paso más significativo para convencer a los científicos de que la vida puede ser abundante en el cosmos".
Cincuenta y cinco años después, la misma revista 'Science' publica una revisión del experimento. Jeffrey Bada, de la Institución Scripps de Oceanografía en la Universidad de California en San Diego, y colegas han reinterpretado el análisis de Miller para concluir que los principales componentes de la vida pudieron surgir de las erupciones volcánicas.
MÁS AMINOÁCIDOS
Durante estas décadas, varias evidencias han cuestionado la validez de la atmósfera recreada por Miller (existen dudas de que ésta fuese tan reductora, es decir, pobre en oxígeno). Sin embargo, el nuevo experimento llevado a cabo por Bada sugiere que "incluso si la atmósfera en su conjunto no era tan reductora, podría haberse dado una síntesis prebiótica localizada" en sistemas volcánicos, dice el estudio.
Se cree que la Tierra, en sus orígenes, era un planeta convulso, sacudido por la actividad volcánica. El estudio actual sugiere que los rayos y las emisiones de gases resultantes de las erupciones volcánicas pudieron producir los componentes químicos necesarios para la vida. Al volver a realizar el experimento con técnicas contemporáneas, los investigadores han logrado crear un total de... ¡22 aminoácidos!
Tras una de las pruebas, los autores del estudio publicado describen que "el vapor [expulsado por los volcanes] inyectado en la chispa [eléctrica] puede haber generado con radicales hidroxilados que reaccionaron o bien con los precursores de los aminoácidos o con los propios aminoácidos".
Tras la muerte de Miller en 2007, Bada, ya veterano, y sus colegas rescataron las muestras químicas originales de aquella "sopa primigenia". "Estábamos seguros de que aún quedaban cosas por descubrir en el experimento original de Miller", dice Bada, coautor del estudio. "Nos dimos cuenta de que una versión moderna" de las pruebas con sistemas volcánicos "produce una variedad más amplia de componentes".
Autor: Tana Oshima
viernes, 17 de octubre de 2008
Explican cómo surgieron los primeros animales terrestres
Hace cuatro años, un grupo de paleontólogos de la Academia Nacional de Ciencias norteamericana realizó uno de esos descubrimientos que convierten en realidad los sueños más ambiciosos de los científicos: entre las heladas rocas devónicas de la isla canadiense de Ellesmere, en pleno círculo polar ártico, hallaron los restos de una extraña y antiquísima criatura. Una como jamás se había visto hasta entonces, un depredador acuático con el cuerpo y la cabeza muy achatados, pero con algunas características que mostraban a las claras que también era capaz de vivir y desenvolverse fuera del agua.
FUENTE | ABC Periódico Electrónico S.A. 16/10/2008
Tiktaalik roseae y su peculiar diseño corporal le convirtió, por derecho propio, en el «eslabón perdido» entre las criaturas acuáticas y las terrestres. Hace 375 millones de años, Tiktaalik, mitad pez mitad tetrápodo fue la criatura que dio los primeros pasos para poblar las tierras emergidas. Hasta entonces, la inmensa mayoría de los seres vivientes vivían en el mar.
Todo en esta criatura es peculiar. La forma del cráneo y del cuello, la disposición de sus costillas y sus extremidades, cuya morfología es compartida por los primeros animales terrestres y los peces. Este auténtico mosaico de características compartidas hacen de Tiktaalik un ejemplo inmejorable de «fósil de transición».
CÓMO SE PRODUJO EL CAMBIO
Ahora, nuevas investigaciones sobre estos fósiles extraordinarios permiten comprender cómo se produjo este complicado proceso. El estudio, que publica la revista Nature, demuestra que la transición de un estilo de vida acuático a otro terrestre conlleva cambios fisiológicos muy complejos y que no se limitan sólo a las aletas (que se convierten en patas), sino también al cráneo y a otras partes del esqueleto.
El trabajo, liderado por Jason Downs, de la citada Academia Nacional de Ciencias, es el primer estudio completo sobre este animal desde que en 2006 se publicara su descripción original.
«El cráneo, el paladar y las branquias de Tiktaalik -explica Downs- revela con toda claridad el patrón seguido por los cambios evolutivos en esta parte del esqueleto». El gráfico que aparece sobre estas líneas compara los rasgos de Tiktaalik con los de un pez y con los de uno de los primeros tetrápodos conocidos. «Podemos observar -prosigue Downs- que los rasgos craneales que están asociados a los primeros animales terrestres fueron antes adaptaciones para la vida en aguas poco profundas».
LA CABEZA SE APLANA
En el linaje que conduce de los peces a los primeros animales terrestres, la cabeza tiende a achatarse y el hocico a alargarse. De la misma forma, durante esta hasta ahora misteriosa fase de transición, la forma en que se relacionan las diferentes partes del cráneo cambian drásticamente. Un ejemplo es la reducción gradual de un hueso (llamado hyomandíbula) que en los peces une el cráneo con el paladar y las escamas y regula sus movimientos relativos durante la respiración y la alimentación bajo el agua.
En la transición hacia el estilo de vida terrestre, este hueso va perdiendo poco a poco sus funciones y queda «disponible» para sumir nuevas funciones (por ejemplo en la audición). En los humanos, igual que en otros mamíferos, la hyomandíbula, o estribo, se ha convertido en uno de los pequeños huesos del oído medio.
De la misma forma, otros rasgos físicos, como la primitiva mandíbula, el cuello, las costillas y las cuatro extremidades, se fueron adaptando. El cuerpo de Tiktaalik, que todavía estaba bien adaptado a su medio acuático, le permitía también sostenerse y desplazarse fuera del agua durante breves periodos de tiempo.
El cuello, por ejemplo, resulta innecesario para los peces, que viven y se mueven en un espacio tridimensional y pueden orientar fácilmente todo el cuerpo hacia un lugar u otro. En tierra, sin embargo, donde el cuerpo permanece fijo y anclado al suelo, tener cuello supone una gran ventaja. Y Tiktaalik es la primera criatura que tiene uno.
Los investigadores subrayan la gran suerte que tuvieron al disponer de varios ejemplares de esta rara criatura, ya que el tipo de preparación necesaria para el estudio de algunos de los rasgos impide comprender bien otros. De esta forma, se han conseguido comprender «con gran detalle» diversas funciones del animal.
Autor: José Manuel Nieves
FUENTE | ABC Periódico Electrónico S.A. 16/10/2008
Tiktaalik roseae y su peculiar diseño corporal le convirtió, por derecho propio, en el «eslabón perdido» entre las criaturas acuáticas y las terrestres. Hace 375 millones de años, Tiktaalik, mitad pez mitad tetrápodo fue la criatura que dio los primeros pasos para poblar las tierras emergidas. Hasta entonces, la inmensa mayoría de los seres vivientes vivían en el mar.
Todo en esta criatura es peculiar. La forma del cráneo y del cuello, la disposición de sus costillas y sus extremidades, cuya morfología es compartida por los primeros animales terrestres y los peces. Este auténtico mosaico de características compartidas hacen de Tiktaalik un ejemplo inmejorable de «fósil de transición».
CÓMO SE PRODUJO EL CAMBIO
Ahora, nuevas investigaciones sobre estos fósiles extraordinarios permiten comprender cómo se produjo este complicado proceso. El estudio, que publica la revista Nature, demuestra que la transición de un estilo de vida acuático a otro terrestre conlleva cambios fisiológicos muy complejos y que no se limitan sólo a las aletas (que se convierten en patas), sino también al cráneo y a otras partes del esqueleto.
El trabajo, liderado por Jason Downs, de la citada Academia Nacional de Ciencias, es el primer estudio completo sobre este animal desde que en 2006 se publicara su descripción original.
«El cráneo, el paladar y las branquias de Tiktaalik -explica Downs- revela con toda claridad el patrón seguido por los cambios evolutivos en esta parte del esqueleto». El gráfico que aparece sobre estas líneas compara los rasgos de Tiktaalik con los de un pez y con los de uno de los primeros tetrápodos conocidos. «Podemos observar -prosigue Downs- que los rasgos craneales que están asociados a los primeros animales terrestres fueron antes adaptaciones para la vida en aguas poco profundas».
LA CABEZA SE APLANA
En el linaje que conduce de los peces a los primeros animales terrestres, la cabeza tiende a achatarse y el hocico a alargarse. De la misma forma, durante esta hasta ahora misteriosa fase de transición, la forma en que se relacionan las diferentes partes del cráneo cambian drásticamente. Un ejemplo es la reducción gradual de un hueso (llamado hyomandíbula) que en los peces une el cráneo con el paladar y las escamas y regula sus movimientos relativos durante la respiración y la alimentación bajo el agua.
En la transición hacia el estilo de vida terrestre, este hueso va perdiendo poco a poco sus funciones y queda «disponible» para sumir nuevas funciones (por ejemplo en la audición). En los humanos, igual que en otros mamíferos, la hyomandíbula, o estribo, se ha convertido en uno de los pequeños huesos del oído medio.
De la misma forma, otros rasgos físicos, como la primitiva mandíbula, el cuello, las costillas y las cuatro extremidades, se fueron adaptando. El cuerpo de Tiktaalik, que todavía estaba bien adaptado a su medio acuático, le permitía también sostenerse y desplazarse fuera del agua durante breves periodos de tiempo.
El cuello, por ejemplo, resulta innecesario para los peces, que viven y se mueven en un espacio tridimensional y pueden orientar fácilmente todo el cuerpo hacia un lugar u otro. En tierra, sin embargo, donde el cuerpo permanece fijo y anclado al suelo, tener cuello supone una gran ventaja. Y Tiktaalik es la primera criatura que tiene uno.
Los investigadores subrayan la gran suerte que tuvieron al disponer de varios ejemplares de esta rara criatura, ya que el tipo de preparación necesaria para el estudio de algunos de los rasgos impide comprender bien otros. De esta forma, se han conseguido comprender «con gran detalle» diversas funciones del animal.
Autor: José Manuel Nieves
miércoles, 15 de octubre de 2008
Nace en España el primer bebé seleccionado genéticamente para curar a su hermano
El primer bebé seleccionado genéticamente para poder curar a su hermano, que sufre una enfermedad hereditaria, ha nacido en el Hospital Virgen del Rocío de Sevilla. Se trata del primer caso en el que todo el procedimiento se ha realizado íntegramente en España.
FUENTE | El Mundo Digital
15/10/2008
El niño, que se llama Javier y pesó al nacer 3.400 gramos, vino al mundo en la mañana del pasado domingo "con la esperanza de poder dar a su hermano Andrés, de 6 años y afectado por una enfermedad hereditaria, beta talasemia mayor [la forma más grave de anemia congénita], una oportunidad para seguir con vida", ha anunciado el Servicio Andaluz de Salud (SAS) en un comunicado.
Según este organismo, la sangre de su cordón umbilical servirá para realizar un trasplante de médula a su hermano para que empiece a fabricar células sanguíneas sin este trastorno.
Los padres de los niños, Soledad Puertas y Andrés Mariscal, se han mostrado, tranquilos y agradecidos con el equipo médico, compuesto por 31 facultativos y 14 investigadores, informa Nacho González. "Estábamos un poco perdidos con este tema. Sabíamos que había algunas investigaciones sobre células madre, pero poco más. Empezamos a preguntar a los médicos y, una vez que llegaron todos los permisos, decidimos que era lo mejor para nuestro hijo".
En cuanto al nacimiento de Javier, Soledad ha asegurado que todo había ido muy bien y que su hijo Andrés, "estaba deseando" ver su hermano recién nacido. Según sus palabras, el pequeño de seis años "es consciente" de que el nuevo miembro de su familia puede salvarle la vida.
Hasta el momento de la intervención la sangre permanecerá almacenada en el Banco de Cordón Umbilical de Málaga. Según ha explicado a elmundo.es el director de la Unidad de Genética, Reproducción y Medicina Fetal del hospital sevillano, Guillermo Antiñolo, "este tipo de trasplante, que podría realizarse en las próximas semanas, tiene una tasa de curación que ronda el 90%" Además, ha añadido, "el cordón obtenido es de muy buena calidad, por lo que somos muy optimistas".
SELECCIÓN GENÉTICA
Después de que la Comisión Nacional de Reproducción Asistida emitiera un informe favorable para iniciar el proceso, los padres, naturales de Cádiz, optaron por el Diagnóstico Genético Preimplantacional, una técnica que permite comprobar si un embrión está sano o no, desde el punto de vista genético, antes de ser transferido al útero materno.
Para llevar a cabo este diagnóstico, se fecundan los embriones (siguiendo el mismo método que en un procedimiento 'in vitro') y, posteriormente, se examina su material genético para comprobar que no son portadores de ninguna enfermedad.
El SAS ha confirmado a elmundo.es que se trata del "primer caso de España en el que todo el proceso, desde el diagnóstico preimplantacional hasta el posterior trasplante, se realiza dentro del sistema público de salud". Concretamente, el procedimiento se ha coordinado desde la Unidad de Genética, Reproducción y Medicina Fetal de Hospitales Universitarios Virgen del Rocío.
Este método ha permitido la concepción y alumbramiento de un bebé que no sólo está libre de la enfermedad hereditaria que sufre su hermano, sino que es un donante idóneo para posibilitar su curación mediante un trasplante de cordón, ya que tiene idéntico perfil de histocompatibilidad (HLA).
Esto, según han explicado los especialistas del Hospital Virgen del Rocío, hace que las posibilidades de que el hermano enfermo no rechace el trasplante de células madre del cordón umbilical se sitúen entre un 70% y un 90%. De hecho, el doctor Urbano ha remarcado que "la única solución" que en la actualidad ofrece la medicina para curar la beta talasemia mayor es un trasplante de médula ósea cuyo perfil de compatibilidad (HLA) sea del 100%.
Según ha explicado a elmundo.es Rafael Matesanz, coordinador de la Organización Nacional de Trasplantes, aunque el éxito del trasplante de células de cordón depende de muchos factores, en casos como este "suele ir bien porque no se trata de una enfermedad tumoral, sino que el paciente es deficitario en algo. Y con el trasplante se le aporta lo que necesita".
Matesanz ha recordado que realizar este tipo de trasplantes no es sencillo ya que, como reconoce el doctor Antiñolo "sólo un 15% de los casos que se tramitan para emplear un diagnóstico preimplatacional con fines terapéuticos tiene éxito, porcentaje que se reduce a menos del 10% en el caso de HLA idéntico".
Para que el procedimiento tenga éxito es necesario someter al receptor a un tratamiento con quimioterapia. "La intensidad no es la misma que se necesita con un cáncer ya que no se necesita eliminar ninguna enfermedad tumoral, pero se emplea para reducir el riesgo de rechazo y permitir que la médula injerte", explica Miguel Ángel Canales, miembro del servicio de Hematología del hospital madrileño de La Paz.
Según este experto, en unos 20 días, dependiendo de distintos factores, puede completarse el proceso de trasplante.
EL TRASTORNO
Bajo el nombre de talasemia se engloba a un número de enfermedades de la sangre hereditarias, que provocan anomalías en la hemoglobina, el componente de los glóbulos rojos encargado de transportar el oxígeno.
La hemoglobina tiene entre sus componentes dos tipos de proteínas, la globulina tipo alfa y la tipo beta. Es la producción insuficiente de esta última proteína -más común en poblaciones de origen mediterráneo- la causante de la beta talasemia.
Para que se dé la forma grave de esta enfermedad (tipo Mayor) es necesario que el feto herede la mutación genética que provoca el trastorno de ambos progenitores.
Al padecer este último tipo -el que sufre Andrés- el niño nace sano, pero desarrolla anemia durante su primer año de vida. A lo largo del tiempo puede tener problemas de crecimiento, deformidad ósea y un aumento del tamaño del hígado y el bazo, entre otros trastornos.
El paciente necesita transfusiones sanguíneas para seguir viviendo, pero éstas provocan la acumulación de grandes depósitos de hierro en el corazón, lo que en la mayoría de los casos conduce a la muerte temprana del paciente.
Además de la beta talasemia, el diagnóstico preimplantacional permite detectar otros trastornos, como la atrofia muscular espinal, la distrofia muscular de Duchenne, la enfermedad de Huntington, la fibrosis quística, la hemofilia A y B, el síndrome de Alport ligado al cromosoma X y enfermedades hereditarias recesivas ligadas al cromosoma X.
Autor: Cristina G. Lucio / Isabel F. Lantigua
FUENTE | El Mundo Digital
15/10/2008
El niño, que se llama Javier y pesó al nacer 3.400 gramos, vino al mundo en la mañana del pasado domingo "con la esperanza de poder dar a su hermano Andrés, de 6 años y afectado por una enfermedad hereditaria, beta talasemia mayor [la forma más grave de anemia congénita], una oportunidad para seguir con vida", ha anunciado el Servicio Andaluz de Salud (SAS) en un comunicado.
Según este organismo, la sangre de su cordón umbilical servirá para realizar un trasplante de médula a su hermano para que empiece a fabricar células sanguíneas sin este trastorno.
Los padres de los niños, Soledad Puertas y Andrés Mariscal, se han mostrado, tranquilos y agradecidos con el equipo médico, compuesto por 31 facultativos y 14 investigadores, informa Nacho González. "Estábamos un poco perdidos con este tema. Sabíamos que había algunas investigaciones sobre células madre, pero poco más. Empezamos a preguntar a los médicos y, una vez que llegaron todos los permisos, decidimos que era lo mejor para nuestro hijo".
En cuanto al nacimiento de Javier, Soledad ha asegurado que todo había ido muy bien y que su hijo Andrés, "estaba deseando" ver su hermano recién nacido. Según sus palabras, el pequeño de seis años "es consciente" de que el nuevo miembro de su familia puede salvarle la vida.
Hasta el momento de la intervención la sangre permanecerá almacenada en el Banco de Cordón Umbilical de Málaga. Según ha explicado a elmundo.es el director de la Unidad de Genética, Reproducción y Medicina Fetal del hospital sevillano, Guillermo Antiñolo, "este tipo de trasplante, que podría realizarse en las próximas semanas, tiene una tasa de curación que ronda el 90%" Además, ha añadido, "el cordón obtenido es de muy buena calidad, por lo que somos muy optimistas".
SELECCIÓN GENÉTICA
Después de que la Comisión Nacional de Reproducción Asistida emitiera un informe favorable para iniciar el proceso, los padres, naturales de Cádiz, optaron por el Diagnóstico Genético Preimplantacional, una técnica que permite comprobar si un embrión está sano o no, desde el punto de vista genético, antes de ser transferido al útero materno.
Para llevar a cabo este diagnóstico, se fecundan los embriones (siguiendo el mismo método que en un procedimiento 'in vitro') y, posteriormente, se examina su material genético para comprobar que no son portadores de ninguna enfermedad.
El SAS ha confirmado a elmundo.es que se trata del "primer caso de España en el que todo el proceso, desde el diagnóstico preimplantacional hasta el posterior trasplante, se realiza dentro del sistema público de salud". Concretamente, el procedimiento se ha coordinado desde la Unidad de Genética, Reproducción y Medicina Fetal de Hospitales Universitarios Virgen del Rocío.
Este método ha permitido la concepción y alumbramiento de un bebé que no sólo está libre de la enfermedad hereditaria que sufre su hermano, sino que es un donante idóneo para posibilitar su curación mediante un trasplante de cordón, ya que tiene idéntico perfil de histocompatibilidad (HLA).
Esto, según han explicado los especialistas del Hospital Virgen del Rocío, hace que las posibilidades de que el hermano enfermo no rechace el trasplante de células madre del cordón umbilical se sitúen entre un 70% y un 90%. De hecho, el doctor Urbano ha remarcado que "la única solución" que en la actualidad ofrece la medicina para curar la beta talasemia mayor es un trasplante de médula ósea cuyo perfil de compatibilidad (HLA) sea del 100%.
Según ha explicado a elmundo.es Rafael Matesanz, coordinador de la Organización Nacional de Trasplantes, aunque el éxito del trasplante de células de cordón depende de muchos factores, en casos como este "suele ir bien porque no se trata de una enfermedad tumoral, sino que el paciente es deficitario en algo. Y con el trasplante se le aporta lo que necesita".
Matesanz ha recordado que realizar este tipo de trasplantes no es sencillo ya que, como reconoce el doctor Antiñolo "sólo un 15% de los casos que se tramitan para emplear un diagnóstico preimplatacional con fines terapéuticos tiene éxito, porcentaje que se reduce a menos del 10% en el caso de HLA idéntico".
Para que el procedimiento tenga éxito es necesario someter al receptor a un tratamiento con quimioterapia. "La intensidad no es la misma que se necesita con un cáncer ya que no se necesita eliminar ninguna enfermedad tumoral, pero se emplea para reducir el riesgo de rechazo y permitir que la médula injerte", explica Miguel Ángel Canales, miembro del servicio de Hematología del hospital madrileño de La Paz.
Según este experto, en unos 20 días, dependiendo de distintos factores, puede completarse el proceso de trasplante.
EL TRASTORNO
Bajo el nombre de talasemia se engloba a un número de enfermedades de la sangre hereditarias, que provocan anomalías en la hemoglobina, el componente de los glóbulos rojos encargado de transportar el oxígeno.
La hemoglobina tiene entre sus componentes dos tipos de proteínas, la globulina tipo alfa y la tipo beta. Es la producción insuficiente de esta última proteína -más común en poblaciones de origen mediterráneo- la causante de la beta talasemia.
Para que se dé la forma grave de esta enfermedad (tipo Mayor) es necesario que el feto herede la mutación genética que provoca el trastorno de ambos progenitores.
Al padecer este último tipo -el que sufre Andrés- el niño nace sano, pero desarrolla anemia durante su primer año de vida. A lo largo del tiempo puede tener problemas de crecimiento, deformidad ósea y un aumento del tamaño del hígado y el bazo, entre otros trastornos.
El paciente necesita transfusiones sanguíneas para seguir viviendo, pero éstas provocan la acumulación de grandes depósitos de hierro en el corazón, lo que en la mayoría de los casos conduce a la muerte temprana del paciente.
Además de la beta talasemia, el diagnóstico preimplantacional permite detectar otros trastornos, como la atrofia muscular espinal, la distrofia muscular de Duchenne, la enfermedad de Huntington, la fibrosis quística, la hemofilia A y B, el síndrome de Alport ligado al cromosoma X y enfermedades hereditarias recesivas ligadas al cromosoma X.
Autor: Cristina G. Lucio / Isabel F. Lantigua
domingo, 12 de octubre de 2008
Google 'cuelga' la polución en sus mapas
Google Maps ya no sólo informa de la forma más rápida para llegar de un lugar a otro. A partir de ahora y también dará el parte de los niveles de contaminación a los que se expondrá cualquier usuario cuando apague el ordenador y salga a la calle. Los habitantes de ciudades españolas con más de 50.000 personas podrán controlar los gases que respirarán durante la jornada.
FUENTE | El País Digital 09/10/2008
Google Earth y Google Maps presentaron, en el Congreso sobre Biodiversidad que se está celebrando en Barcelona, esta nueva herramienta. La Universidad Politécnica de Madrid ha puesto al servicio de Google Earth este sistema, que pronostica la calidad del aire para las 72 horas siguientes a la consulta. El modelo incluye las emisiones del tráfico, de la industria y las biogénicas (que tienen como origen organismos vivos). Cuatro colores cuantifican de mayor a menor la contaminación del aire de 130 ciudades.
Esta iniciativa se presentó en el marco del programa Google Solidario. A partir de ahora, la web abrirá sus mapas de forma gratuita a las ONG e instituciones sin ánimo de lucro para que puedan ilustrar con gráficos su trabajo y darlo a conocer.
Junto con la Politécnica, otras dos organizaciones utilizarán desde el primer día este sistema pionero. El Observatorio de la Sostenibilidad en España aprovechará la perspectiva aérea para mostrar los cambios que ha sufrido el suelo a lo largo de los años. Una comparación de fotografías aéreas antiguas y recientes muestran hasta qué punto el hombre ha sido capaz de modificar la tierra. El sistema cuenta con las primeras imágenes hechas desde un avión en 1956.
Intermón Oxfam es otra de las instituciones que ha colgado su trabajo en Google Earth. En sus mapas evalúa la situación de la higiene y el saneamiento del agua en 18 países en los que tiene presencia. El sistema de capas de Google Earth permite acceder a gran número de informaciones de una manera ordenada, fácil y visual. "Hay que buscar nuevas fórmulas para informar. Situar la información en su contexto geográfico nos ayuda a poner de manifiesto la labor de todos los que trabajan por mejorar la tierra", afirmó Rebecca Moore, directora del Google Earth solidario.
Autor: Maruxa Ruiz del Árbol
FUENTE | El País Digital 09/10/2008
Google Earth y Google Maps presentaron, en el Congreso sobre Biodiversidad que se está celebrando en Barcelona, esta nueva herramienta. La Universidad Politécnica de Madrid ha puesto al servicio de Google Earth este sistema, que pronostica la calidad del aire para las 72 horas siguientes a la consulta. El modelo incluye las emisiones del tráfico, de la industria y las biogénicas (que tienen como origen organismos vivos). Cuatro colores cuantifican de mayor a menor la contaminación del aire de 130 ciudades.
Esta iniciativa se presentó en el marco del programa Google Solidario. A partir de ahora, la web abrirá sus mapas de forma gratuita a las ONG e instituciones sin ánimo de lucro para que puedan ilustrar con gráficos su trabajo y darlo a conocer.
Junto con la Politécnica, otras dos organizaciones utilizarán desde el primer día este sistema pionero. El Observatorio de la Sostenibilidad en España aprovechará la perspectiva aérea para mostrar los cambios que ha sufrido el suelo a lo largo de los años. Una comparación de fotografías aéreas antiguas y recientes muestran hasta qué punto el hombre ha sido capaz de modificar la tierra. El sistema cuenta con las primeras imágenes hechas desde un avión en 1956.
Intermón Oxfam es otra de las instituciones que ha colgado su trabajo en Google Earth. En sus mapas evalúa la situación de la higiene y el saneamiento del agua en 18 países en los que tiene presencia. El sistema de capas de Google Earth permite acceder a gran número de informaciones de una manera ordenada, fácil y visual. "Hay que buscar nuevas fórmulas para informar. Situar la información en su contexto geográfico nos ayuda a poner de manifiesto la labor de todos los que trabajan por mejorar la tierra", afirmó Rebecca Moore, directora del Google Earth solidario.
Autor: Maruxa Ruiz del Árbol
Las doce enfermedades del cambio climático
Glaciares derritiéndose, penosas sequías o lluvias torrenciales, pero también especies animales enfermando. La salud de la madre naturaleza se debilita y, tras ella, irán los humanos. Un informe enumera 12 de las muchas enfermedades mortales a las que nos exponemos por el cambio climático.
FUENTE | El Mundo Digital 09/10/2008
El drástico documento, conocido como 'Deadly Dozen' (o 'Docena Mortal') se ha dado a conocer durante el congreso mundial de la Unión Internacional para la Conservación de la Naturaleza (IUCN, en sus siglas en inglés), que congrega en Barcelona a expertos de todo el mundo.
Los autores del trabajo, miembros de la Sociedad para la Conservación de la Flora y la Fauna, han analizado una docena de patógenos que, de seguir las tendencias actuales, afectarán a animales y personas y, cómo no, a las economías de todo el mundo. Como medida de defensa, quieren impedir que los cambios de la naturaleza pasen desapercibidos.
"Controlando la salud de la naturaleza podremos predecir dónde se centrará el foco de los problemas [...] y planear cómo prepararnos", ha declarado Steven E. Sanderson, presidente de la citada asociación.
Aunque los expertos se centran en 12 enfermedades, como el cólera, el Ébola o la gripe aviar, ellos mismos aclaran que sólo se trata de una muestra ilustrativa de las muchas patologías fruto de los 'atentados' contra la atmósfera. La lista recoge las que con más probabilidad pueden extender sus dominios, aunque advierten de que la clasificación puede cambiar con el tiempo.
Pero, ¿qué cambios se darán para favorecer la transmisión de estas enfermedades? William B. Karesh y su equipo lo tienen claro: Los patógenos proliferarán y sobrevivirán más y, al mismo tiempo, aumentará la susceptibilidad de contraer una infección. Además, los cambios de temperaturas y las alteraciones de los ritmos de las lluvias pueden llevar consigo una expansión de los patógenos que causan enfermedades que, hasta ahora, han estado más confinadas en determinadas áreas.
UNA LISTA INQUIETANTE
1.
Tuberculosis: El Antiguo Testamento ya hacía referencia a una enfermedad que, cada año, afecta a 10 millones de personas. En la actualidad, se distribuye por todo el mundo, aunque es especialmente problemática en África, donde la introdujo el ganado europeo en el siglo XIX. Además de a los humanos, la patología también afecta a poblaciones salvajes, como los leones y búfalos del Parque Nacional Kruger, uno de los lugares más turísticos de Sudáfrica y parte esencial de la economía local. Los expertos temen que el cambio climático pueda favorecer el contacto entre el ganado y los animales salvajes y, así, aumentar la transmisión de la tuberculosis.
2.
Fiebre del Valle del Rift: Tal y como la define la Organización Mundial de la Salud (OMS) se trata de "una zoonosis vírica que afecta principalmente a los animales, pero también puede llegar al ser humano". Cuenta con una alta tasa de mortalidad y morbilidad. El virus que lo causa, que suele transmitirse por las picaduras de mosquito, continúa presente en África subsahariana y el norte de África (a finales del siglo XX, Kenia, Somalia y Tanzania sufrieron brotes). Aunque más aislados, también se han localizado casos en Arabia Saudí y Yemen, "con la consiguiente preocupación por su posible propagación a otras zonas de Asia y a Europa", según la OMS.
3.
Enfermedad del sueño: Conocida principalmente por el insecto que la transmite, la mosca tsé-tsé, la tripanosomiasis es endémica en algunas zonas de África subsahariana y, en total, afecta a 36 países. Los rebaños son los que más suelen infectarse por el protozoo 'Trypanosoma bruceipero', pero también los animales salvajes y las personas. "Los efectos directos o indirectos [...] del clima sobre la distribución de la mosca tsé-tsé -que suele encontrarse en la vegetación que rodea a los ríos y lagos, en los bosques y en la sabana- desempeñan un papel importante en la expansión de la enfermedad mortal", explican los autores del trabajo.
4.
'Mareas rojas': Determinadas algas que florecen en las costas de todo el mundo, un fenómeno conocido como 'mareas rojas', generan toxinas que son peligrosas para los animales marinos y, también, para los seres humanos. "Las variaciones de temperaturas tendrán, sin duda, un impacto, de momento impredecible, en este fenómeno de la naturaleza", asegura el informe.
5.
Gripe Aviar: Las tormentas y las épocas de sequías ya no siguen los ritmos que históricamente tenían establecidos. Nadie sabe ahora a ciencia cierta cuándo descargarán las nubes o cuándo se quedarán sin agua los lagos. Esta alteración influye en los movimientos migratorios de las aves y, por tanto, en la expansión de la gripe aviar, una enfermedad que desde 2003 tiene en alerta a los gobiernos de todo el mundo por la posibilidad de que su cepa más mortífera, la H5N1, mute y sea capaz de transmitirse entre humanos, algo que, de momento, no ha sucedido.
6.
Babebiosis: Es el típico ejemplo de enfermedad que hasta hace poco tenía un impacto limitado pero que ha aumentado su presencia por el cambio climático. Del este de África ha pasado a ser cada vez más común en Europa y América del Norte. Se trata de una patología transmitida por garrapatas y que afecta tanto a animales domésticos y salvajes como a las personas. Aunque no causa problemas graves, sí hace que el afectado sea más susceptible a otras enfermedades.
7.
Cólera: La también conocida como 'enfermedad de los pobres' es un trastorno producido por la bacteria 'Vibrio cholerae', que se transmite con mucha facilidad por el agua y alimentos contaminados. Restringida a los países en vías de desarrollo, el aumento generalizado de la temperatura de las aguas hace prever un incremento de la incidencia de esta enfermedad, que se caracteriza por fuertes vómitos, calambres y diarrea y puede llegar a causar la muerte.
8.
Ébola: Famosa por la película a la que da título y por ser una amenaza constante para el continente africano, el virus del Ébola se contagia generalmente por estar en contacto con los fluidos corporales de alguien infectado o con monos enfermos. Al igual que ocurre con su pariente cercano, la fiebre de Marburg, el Ébola mata fácilmente a personas, gorilas y chimpancés y, en la actualidad, no existe cura. El informe destaca que existen evidencias significativas de que los brotes de ambas enfermedades están relacionados con las variaciones inesperadas de las épocas de lluvias. Como el cambio climático influye en estas alteraciones, es probable que los brotes sean más frecuentes y que se registren en nuevas localizaciones.
9.
Fiebre amarilla: Los mosquitos que transmiten este virus se concentran en distintas regiones africanas, de Centroamérica y Sudamérica. Los cambios de temperatura y las lluvias propician la llegada de estos insectos que suelen picar durante el día e infectar a monos y personas. Recientemente, Brasil y Argentina han registrado brotes con un gran impacto en la población de primates. El estudio de la infección de estos animales ha permitido dar con una vacuna que, hasta el momento, protege a los humanos que viajan a las zonas afectadas.
10.
Parásitos intestinales: Multitud de parásitos se transmiten a través de ambientes acuáticos. Los cambios en el nivel del mar y las temperaturas harán que muchos de ellos sobrevivan durante más tiempo y, como consecuencia, puedan infectar a un mayor número de individuos.
11.
Enfermedad de Lyme: Transmitida por una bacteria a través de las picaduras de garrapata, esta patología, al igual que otras transmitidas de la misma forma, puede ampliar sus fronteras debido al aumento de las temperaturas aptas para la vida de estos arácnidos. El trastorno toma su nombre de Lyme, Connecticut, donde se identificó por primera vez en la década de los 70. Se caracteriza por una erupción y síntomas similares a los de la gripe.
12.
Peste: La peste Yersinia, una de las enfermedades infecciosas más antiguas de la que se tiene conocimiento y que ha costado la vida a 200 millones de personas, todavía es causa de mortalidad en algunas localizaciones. La bacteria responsable de esta plaga tiene preferencia por las ratas y se extiende mediante las mordeduras de las pulgas que viven en estos roedores. Pero cuando estos animales escasean, no tienen ningún problema en morder también a las personas y, una vez que esto sucede, se contagian unos a otros por vía aérea. Si el cambio climático afecta a las poblaciones de roedores y a su distribución geográfica, también afectará a la distribución de la peste.
Autor: Isabel F. Lantigua
FUENTE | El Mundo Digital 09/10/2008
El drástico documento, conocido como 'Deadly Dozen' (o 'Docena Mortal') se ha dado a conocer durante el congreso mundial de la Unión Internacional para la Conservación de la Naturaleza (IUCN, en sus siglas en inglés), que congrega en Barcelona a expertos de todo el mundo.
Los autores del trabajo, miembros de la Sociedad para la Conservación de la Flora y la Fauna, han analizado una docena de patógenos que, de seguir las tendencias actuales, afectarán a animales y personas y, cómo no, a las economías de todo el mundo. Como medida de defensa, quieren impedir que los cambios de la naturaleza pasen desapercibidos.
"Controlando la salud de la naturaleza podremos predecir dónde se centrará el foco de los problemas [...] y planear cómo prepararnos", ha declarado Steven E. Sanderson, presidente de la citada asociación.
Aunque los expertos se centran en 12 enfermedades, como el cólera, el Ébola o la gripe aviar, ellos mismos aclaran que sólo se trata de una muestra ilustrativa de las muchas patologías fruto de los 'atentados' contra la atmósfera. La lista recoge las que con más probabilidad pueden extender sus dominios, aunque advierten de que la clasificación puede cambiar con el tiempo.
Pero, ¿qué cambios se darán para favorecer la transmisión de estas enfermedades? William B. Karesh y su equipo lo tienen claro: Los patógenos proliferarán y sobrevivirán más y, al mismo tiempo, aumentará la susceptibilidad de contraer una infección. Además, los cambios de temperaturas y las alteraciones de los ritmos de las lluvias pueden llevar consigo una expansión de los patógenos que causan enfermedades que, hasta ahora, han estado más confinadas en determinadas áreas.
UNA LISTA INQUIETANTE
1.
Tuberculosis: El Antiguo Testamento ya hacía referencia a una enfermedad que, cada año, afecta a 10 millones de personas. En la actualidad, se distribuye por todo el mundo, aunque es especialmente problemática en África, donde la introdujo el ganado europeo en el siglo XIX. Además de a los humanos, la patología también afecta a poblaciones salvajes, como los leones y búfalos del Parque Nacional Kruger, uno de los lugares más turísticos de Sudáfrica y parte esencial de la economía local. Los expertos temen que el cambio climático pueda favorecer el contacto entre el ganado y los animales salvajes y, así, aumentar la transmisión de la tuberculosis.
2.
Fiebre del Valle del Rift: Tal y como la define la Organización Mundial de la Salud (OMS) se trata de "una zoonosis vírica que afecta principalmente a los animales, pero también puede llegar al ser humano". Cuenta con una alta tasa de mortalidad y morbilidad. El virus que lo causa, que suele transmitirse por las picaduras de mosquito, continúa presente en África subsahariana y el norte de África (a finales del siglo XX, Kenia, Somalia y Tanzania sufrieron brotes). Aunque más aislados, también se han localizado casos en Arabia Saudí y Yemen, "con la consiguiente preocupación por su posible propagación a otras zonas de Asia y a Europa", según la OMS.
3.
Enfermedad del sueño: Conocida principalmente por el insecto que la transmite, la mosca tsé-tsé, la tripanosomiasis es endémica en algunas zonas de África subsahariana y, en total, afecta a 36 países. Los rebaños son los que más suelen infectarse por el protozoo 'Trypanosoma bruceipero', pero también los animales salvajes y las personas. "Los efectos directos o indirectos [...] del clima sobre la distribución de la mosca tsé-tsé -que suele encontrarse en la vegetación que rodea a los ríos y lagos, en los bosques y en la sabana- desempeñan un papel importante en la expansión de la enfermedad mortal", explican los autores del trabajo.
4.
'Mareas rojas': Determinadas algas que florecen en las costas de todo el mundo, un fenómeno conocido como 'mareas rojas', generan toxinas que son peligrosas para los animales marinos y, también, para los seres humanos. "Las variaciones de temperaturas tendrán, sin duda, un impacto, de momento impredecible, en este fenómeno de la naturaleza", asegura el informe.
5.
Gripe Aviar: Las tormentas y las épocas de sequías ya no siguen los ritmos que históricamente tenían establecidos. Nadie sabe ahora a ciencia cierta cuándo descargarán las nubes o cuándo se quedarán sin agua los lagos. Esta alteración influye en los movimientos migratorios de las aves y, por tanto, en la expansión de la gripe aviar, una enfermedad que desde 2003 tiene en alerta a los gobiernos de todo el mundo por la posibilidad de que su cepa más mortífera, la H5N1, mute y sea capaz de transmitirse entre humanos, algo que, de momento, no ha sucedido.
6.
Babebiosis: Es el típico ejemplo de enfermedad que hasta hace poco tenía un impacto limitado pero que ha aumentado su presencia por el cambio climático. Del este de África ha pasado a ser cada vez más común en Europa y América del Norte. Se trata de una patología transmitida por garrapatas y que afecta tanto a animales domésticos y salvajes como a las personas. Aunque no causa problemas graves, sí hace que el afectado sea más susceptible a otras enfermedades.
7.
Cólera: La también conocida como 'enfermedad de los pobres' es un trastorno producido por la bacteria 'Vibrio cholerae', que se transmite con mucha facilidad por el agua y alimentos contaminados. Restringida a los países en vías de desarrollo, el aumento generalizado de la temperatura de las aguas hace prever un incremento de la incidencia de esta enfermedad, que se caracteriza por fuertes vómitos, calambres y diarrea y puede llegar a causar la muerte.
8.
Ébola: Famosa por la película a la que da título y por ser una amenaza constante para el continente africano, el virus del Ébola se contagia generalmente por estar en contacto con los fluidos corporales de alguien infectado o con monos enfermos. Al igual que ocurre con su pariente cercano, la fiebre de Marburg, el Ébola mata fácilmente a personas, gorilas y chimpancés y, en la actualidad, no existe cura. El informe destaca que existen evidencias significativas de que los brotes de ambas enfermedades están relacionados con las variaciones inesperadas de las épocas de lluvias. Como el cambio climático influye en estas alteraciones, es probable que los brotes sean más frecuentes y que se registren en nuevas localizaciones.
9.
Fiebre amarilla: Los mosquitos que transmiten este virus se concentran en distintas regiones africanas, de Centroamérica y Sudamérica. Los cambios de temperatura y las lluvias propician la llegada de estos insectos que suelen picar durante el día e infectar a monos y personas. Recientemente, Brasil y Argentina han registrado brotes con un gran impacto en la población de primates. El estudio de la infección de estos animales ha permitido dar con una vacuna que, hasta el momento, protege a los humanos que viajan a las zonas afectadas.
10.
Parásitos intestinales: Multitud de parásitos se transmiten a través de ambientes acuáticos. Los cambios en el nivel del mar y las temperaturas harán que muchos de ellos sobrevivan durante más tiempo y, como consecuencia, puedan infectar a un mayor número de individuos.
11.
Enfermedad de Lyme: Transmitida por una bacteria a través de las picaduras de garrapata, esta patología, al igual que otras transmitidas de la misma forma, puede ampliar sus fronteras debido al aumento de las temperaturas aptas para la vida de estos arácnidos. El trastorno toma su nombre de Lyme, Connecticut, donde se identificó por primera vez en la década de los 70. Se caracteriza por una erupción y síntomas similares a los de la gripe.
12.
Peste: La peste Yersinia, una de las enfermedades infecciosas más antiguas de la que se tiene conocimiento y que ha costado la vida a 200 millones de personas, todavía es causa de mortalidad en algunas localizaciones. La bacteria responsable de esta plaga tiene preferencia por las ratas y se extiende mediante las mordeduras de las pulgas que viven en estos roedores. Pero cuando estos animales escasean, no tienen ningún problema en morder también a las personas y, una vez que esto sucede, se contagian unos a otros por vía aérea. Si el cambio climático afecta a las poblaciones de roedores y a su distribución geográfica, también afectará a la distribución de la peste.
Autor: Isabel F. Lantigua
Suscribirse a:
Entradas (Atom)