30 noviembre 2005

REVELADO UN SECRETO SOBRE COMO ALGUNOS INSECTOS CAMINAN SOBRE EL AGUA

Un equipo de matemáticos ha descubierto cómo ciertos insectos pueden subir lo que son para ellos cuestas empinadas y resbaladizas en la superficie del agua, sin mover sus miembros y además a gran velocidad.
En el mundo de las criaturas diminutas que viven en la superficie de estanques, lagos y otros cuerpos de agua, no funcionan igual ciertas "reglas" aplicables al escenario en que nos movemos los seres de tamaño mayor.
Durante los últimos cuatro años, David Hu, un estudiante graduado en el Departamento de Matemáticas del MIT (Instituto de Tecnología de Massachusetts), y John Bush, un profesor del mismo centro, han estudiado las estrategias que estos insectos usan para navegar en su entorno.
Para hacer esto, grabaron videos de alta velocidad de las criaturas, usando una cámara proporcionada por el Centro Edgerton del MIT. Después, digitalizaron y analizaron las imágenes.En el 2003, dieron a conocer junto a Brian Chan (Departamento de Ingeniería Mecánica) cómo algunas de estas criaturas caminan en el agua.
Ahora, Bush y Hu describen cómo tres especies de insectos pueden subir las cuestas resbaladizas que se levantan cuando el agua se encuentra con la tierra, cuerpos flotantes o vegetación emergente.
Esas cuestas resbaladizas están alrededor de nosotros; observe la suave curva hacia arriba donde el agua de un vaso se encuentra con las paredes de éste.
No nos damos cuenta de estas cuestas porque son muy pequeñas, de sólo unos milímetros de altura.
Pero para una criatura mucho más pequeña que ellas, las cuestas son como montículos o incluso colinas, y además resbaladizas.
En estas condiciones, los modos normales de propulsión de los insectos no sirven.
¿La solución? Las criaturas adoptan posturas especiales que crean fuerzas que los arrastran hacia arriba a velocidades de casi 30 longitudes de su cuerpo por segundo (en comparación, un corredor olímpico se mueve a unas cinco longitudes de su cuerpo por segundo).
Por ejemplo, Hu y Bush encontraron que dos especies de insectos acuáticos tienen garras retráctiles en las patas traseras y delanteras que les permiten "agarrar" la superficie del agua y arrastrarse a una minúscula cresta.
El insecto simultáneamente oprime el agua con su par central de patas, formando hoyuelos que soportan el peso de la criatura.
Dado que los insectos son tan pequeños, estas perturbaciones crean fuerzas de succión que los arrastran cuesta arriba, de modo similar a cómo las burbujas de champán suben hasta el borde de una copa.
En realidad, el insecto está "generando cuestas diminutas" con sus patas traseras y delanteras.
Dado que las pendientes son atraídas a otras pendientes, el efecto acumulativo es arrastrar el insecto hacia arriba y por encima de la cuesta en el borde del agua.
Tomado de NOTICIAS 21.

29 noviembre 2005

LUCHANDO CONTRA LOS MOSQUITOS CON LA WIFI

La compañía AmBio, que vende con gran éxito un dispositivo hogareño para cazar insectos, está desarrollando una plataforma que permitirá proteger campos de golf u otras áreas más extensas, controlando de foram inalambrica una red de estos equipos.
La empresa quiere trasladar el éxito de su dispositivo "MOSQUITO MAGNET" a logros mayores, usando la tecnología WIFI cubriendo áreas más extensas que el patio de una casa.
Mosquito Magnet es un dispositivo desarrollado por esta empresa, que imita que imita a un cuerpo humano emitiendo dióxido de carbono (CO2), calor y aroma con objeto de atrapar a los insectos.
El nuevo paso de la pequeña empresa americana es crear una red inteligente o sistema computerizado de defensa, que permita controlar en forma inalambrica un enorme número de estos aparatos para mantener libre de mosquitos campos de golfs, hoteles o playas.
La red funcionara de forma a una gran LAN, donde sensores registraran datos de calidad del aire, humedad, dirección del viento y contaminantes, para transmitirla a ordenadores que administraran a distancia los "Mosquitos Magnet" digitales.
En estos días la empresa prueb asu sistema en Cayo Oeste, en Florida USA, donde abundan los mosquitos.Pero proximamente hará pruebas en el campo de refugiados Trat Camp de Thailandia.
Mas información aquí.

28 noviembre 2005

CUANDO LOS ÁRBOLES DE LA CIENCIA NO DEJAN DE VER EL BOSQUE DE LA ÉTICA

La invención más sorprendente de 2005 es un perro llamado Snuppy. Eso es lo que reflejaba la revista Time en un número reciente. Snuppy no es un robot, ni una maravilla mecánica; es un perro clonado -heredero de la oveja Dolly-, salido del laboratorio de un científico inconformista y revolucionario: Hwang Woo-suk.

Este James Dean de la ciencia estrelló su coche cargado de experimentos espectaculares y polémicos contra un muro de acusaciones sobre la ética de sus procedimientos. Hwang Woo-suk es un veterinario de formación académica que proviene de una familia humilde, algo que le ha obligado desde niño a ser el mejor en todo cuanto emprendía, pues sólo así podía recibir ayudas para continuar con sus estudios. Sus primeros experimentos en clonación tenían como objetivo obtener vacas de mejor calidad, y en 1999 logró una especie de supervaca con la que Woo-suk creyó que terminarían las penurias de los ganaderos de su país y de muchos otros en vías de desarrollo.
Tras las vacas llegaron los cerdos, un animal-puente que serviría para lograr sus aspiraciones de salvar vidas humanas y curar enfermedades (su intención fue que los órganos porcinos pudieran ser trasplantados en humanos).
El camino recorrido le llevó a convertirse en héroe nacional coreano e investigador archifamoso al convertirse en la primera persona en clonar un embrión humano y tomar células madre del mismo.
Woo-suk reconocía ayer en una rueda de prensa que los esfuerzos científicos le habían hecho olvidarse de los aspectos éticos inherentes a su trabajo.
Toda una declaración que abrirá un debate fundamental en los próximos meses y que, de momento, ha provocado su dimisión como director de la Fundación Mundial de Células Madre, tras admitir que utilizó óvulos de colaboradoras de su equipo para realizar sus experimentos.

UNA PRÁCTICA PROHIBIDA
Aunque es cierto que la donación de óvulos por parte de sus asistentes fue voluntaria, no lo es menos que esta es una práctica prohibida en todo el mundo, que contaba además con el consejo en contra de un funcionario supervisor del proyecto.
No era éste el único opuesto a las prácticas del investigador surcoreano.
El biólogo estadounidense Gerald P. Schatten, uno de sus principales colaboradores, ya había acusado hace algo más de una semana a Woo-suk de violar las normas éticas más fundamentales para obtener los óvulos con los que se crearon los primeros embriones clonados.La cosa no se queda aquí.
Dos días antes de que Woo-suk hablara de su desliz ético, el encargado de suministrar los óvulos al equipo del investigador surcoreano en 2002 admitía haber entregado 1.500 dólares a cada una de las 16 mujeres donantes -15 coreanas y una estadounidense- que facilitaron los 242 óvulos cuyo resultado final fue la clonación de 30 embriones.
Por lo que se refiere a la crítica de su excolaborador Schatten, ésta se basa en que la práctica de las donaciones de óvulos por parte de las asistentes es inaceptable según el código de normas bioéticas: un investigador jamás debería obtener óvulos de una subordinada, para evitar posibles presiones o coacciones.
Esta historia, protagonizada por quien está considerado como uno de los principales impulsores de la investigación biogénetica, tiene una relevancia considerable, como la tienen otras dudas acerca de su proceder, que han sido reflejadas incluso en revistas científicas como Nature.

OTROS HALLAZGOS
Woo-suk no está acostumbrado a que las revistas de referencia se hagan eco de presuntos deslices en su investigación, pues lo normal es que las publicaciones científicas punteras glosaran sus hallazgos.
Así ocurrió con Science, cuando anunció la primera clonación, o cuando su equipo logró una nueva hazaña médica al clonar células madre genéticamente compatibles con los pacientes, por primera vez en la historia.
El investigador surcoreano obtuvo once líneas de células madre embrionarias mediante la clonación de células somáticas de once pacientes, varones y mujeres de diversas edades de 2 a 56 años, que sufren de enfermedades o de una herida en la médula espinal.
El hallazgo fue considerado como un paso decisivo para trasplantar células sanas a seres humanos que permitan reemplazar células dañadas por enfermedades, tales como el mal de Parkinson y la diabetes, sin causar un rechazo por parte del sistema inmunológico del cuerpo. Pocos dudaban del liderazgo de Woo-suk y su equipo en el sector de las células madre, y esa posición llevó al investigador surcoreano a proponer la apertura de un banco de células madre con una red mundial en su país.
La seguridad de Woo-suk quedaba confirmada con otros avances, como el inicio de una investigación de células madre para la diabetes, conjuntamente con un equipo de la Universidad de Harvard dirigido por Douglas Melton, padre de dos niños que sufren de diabetes, que ha estado trabajando por encontrar una cura para la enfermedad.
Quienes conocen a Hwang Woo-suk aseguran que no le mueve la fama, ni el dinero.
Su lucha contra la enfermedad es el motor de sus investigaciones.
Pero ayer, decenas de micrófonos recogieron sus palabras en las que admitía que los árboles de la ciencia le habían ocultado el bosque de la ética.

Escrito por Tino Fernández en EXPANSION.

27 noviembre 2005

LAS PLANTAS TIENEN UN DOBLE SISTEMA DE RESISTENCIA FRENTE A ENFERMEDADES

Investigadores del Instituto Max Planck en Colonia (Alemania) y de la Universidad de Stanford (EEUU) han demostrado la existencia de una doble línea de defensa de las plantas frente a las enfermedades causadas por hongos. De los múltiples patógenos que potencialmente pueden atacar una planta, solamente unos pocos pueden hacerlo porque son parásitos naturales de la misma. La mayor parte de los hongos no pueden atacar la planta que es resistente a los mismos, porque esta no puede hospedarlos (non-host resistance).

En el estudio se ha identificado un gen denominado PEN (penetration) que es un importante componente de la resistencia, que se aislado de mutaciones de la planta modelo Arabidopis thaliana. El gen PEN codifica una proteína denominada PEN2 que se localiza en la membrana celular, relacionada con los peroxisomas que bloquean la entrada de organismos potencialmente peligrosos. Se ha visto que la actividad de PEN 2 es básica en la resistencia frente a varios hongos patógenos, como mildius y oidios, identificándose mutaciones que confieren diferente sensibilidad a las enfermedades.

No obstante, aparte de PEN2, existe otra línea de defensa consistente en la muerte celular inmediata de las células atacadas, protegiendo a las colindantes, en la que juegan un papel importante otras proteínas.

Conocer las bases moleculares de esta resistencia puede ser de gran importancia en el desarrollo de nuevos fungicidas y de métodos de lucha contra las enfermedades más eficaces y más respetuosos con el medio ambiente.
El estudio se publicó hace una semana en SCIENCE.

26 noviembre 2005

NUEVO PLAN PARA SALVAR A VENECIA

Expertos italianos proponen una nueva solución radical para la amenaza acuática que se cierne sobre la ciudad de Venecia.
En vez de pelear contra el avance del mar, quieren usarlo para ayudar a mantener a flote esta ciudad e isla, que está hundiéndose bajo las olas.
El plan sugiere bombear grandes cantidades de agua marina en el suelo bajo Venecia a través de 12 tuberías, cada una de 700 metros de longitud.
Se cree que el agua marina hará que la arena bajo la ciudad se expanda, elevando a Venecia 30 centímetros a lo largo de 10 años.

Ciencia ficción
Venecia es una de las ciudades más visitadas por los turistas.
La ciudad italiana está lentamente ahogándose; el nivel del mar Adriático está subiendo y las mareas altas se hacen más frecuentes.
El gobierno italiano está gastando más de 5.000 millones de dólares USAen un controversial proyecto para construir compuertas contra las inundaciones en la entrada de la laguna que rodea la ciudad, con el fin de mantener el mar a raya.
Ahora, ingenieros y geólogos de la respetada universidad de Padua han ideado un nuevo esquema que costaría apenas una fracción de esa suma: 117 millones de dólares USA.
Los expertos sostienen que el plan ayudaría a elevar a Venecia en casi la misma magnitud en que se ha hundido durante los últimos tres siglos.
El profesor que encabeza el proyecto dice que no es una alternativa a las compuertas, sino que funcionaría a la par con ellas.
Ahora quiere llevar a cabo un ensayo para ver si la teoría funciona en la práctica.

Dudas
El plan utilizaría el agua del mar para proteger a Venecia de las inundaciones.
No todos están convencidos.
Un experto que ayudó a estabilizar la torre inclinada de Pisa describió el plan como pura ciencia ficción, y advirtió que podría dañar la frágil estructura de Venecia.
Pero el alcalde de la ciudad, Massimo Cacciari, está interesado.
Cacciari dice que es tiempo de volver a examinar como se podría elevar la ciudad, y está convencido de que existe la tecnología para hacerlo realidad.
Tomado de BBC Ciencia.

25 noviembre 2005

MARIPOSAS DE "ULTIMA GENERACIÓN"

Hace cuatro años, un grupo de científicos se congratuló por haber desarrollado un artefacto de última generación para emitir luz hace cuatro años. Hoy se sabe que las mariposas utilizan un sistema similar desde hace 30 millones de años...

"Parches" fluorescentes en las alas de un tipo de mariposa africana trabajan en forma muy parecida a los diodos de alta emisión de luz (LED por sus siglas en inglés).
Estos diodos son una variación más eficiente que aquellos utilizados en equipos electrónicos.
La investigación de la Universidad de Exeter, Reino Unido, fue publicada en la revista Science.

Trabajo humano
Alexei Erchak y sus colegas del Instituto de Tecnología de Massachussets (MIT en inglés) demostraron hace años un método para la construcción de un LED más eficiente.
La mayor parte de la luz emitida por los LED no puede escapar, fenómeno que los expertos llaman una "baja eficiencia de extracción de luz".
El LED desarrollado en MIT utiliza cristales fotónicos bidimensionales, una estructura triangular perforada por orificios cilíndricos que ayuda a mejorar su rendimiento.
Otras estructuras, llamadas reflectores Bragg, son usados para controlar la dirección de la emisión.
Ester diseño ofrece un gran avance en el rendimiento de los LED.

Trabajo natural
La estructura del ala mejora la emisión de luz.Pete Vukusic e Ian Hooper, de la Universidad de Exeter, demostraron que la mariposa Princeps nireus que habita en el centro y el este de África, evolucionó un método de señalización idéntico.
Los insectos, de alas oscuras con sectores azules o azul-verdoso, utilizan señales de luz para identificarse en su medio.
Sus alas funcionan como los cristales bidimensionales antes mencionados. Un pigmento en las mariposas absorbe la luz ultravioleta, que luego es reemitida como una luz fluorescente azul-verdoso.
Si no fuera porque el pigmento está ubicado en una zona del ala que contiene micro orificios cilíndricos, la mayoría de la luz se perdería.
Estos orificios tienen un efecto idéntico a los de los cristales.
Y como si fuera poco, las mariposas también tienen una especie de "espejo" natural debajo de sus escamas coloridas. Los mismos reflejan la luz que sale en la dirección opuesta, la misma función que cumplen los reflectores Bragg.
Los expertos Vukusic y Hooper concluyeron que el estudio de diseños naturales puede ayudar a los científicos en el desarrollo de sistemas más eficientes.
Tomado de BBC Ciencia

24 noviembre 2005

E = mc2 CUMPLE CIEN AÑOS

Los físicos del mundo están celebrando el centenario de la ecuación más conocida de Albert Einstein: E=mc2.
Publicada en el cuarto de una serie de documentos científicos que revolucionaron las matemáticas en 1905, E=mc2 está ahora vinculada con el poder de la bomba atómica.
Ninguna otra ecuación, en ninguna parte, es tan reconocida como E=mc2.
Corría 1905, cuando la fórmula se convirtió en la prueba final del genio e imaginación de un joven científico nacido en Alemania que aún no tenía un puesto universitario.
Parece muy simple: tres cartas sobre la energía, la masa y la velocidad de la luz, abrirían la puerta a un universo inexplorado.
Sin embargo, todavía representa un desafío para los científicos descubrir todo lo que está detrás de la simple ecuación.
Einstein demostró en pocas líneas que al acelerar un objeto, éste no sólo se mueve más rápido, sino que también se vuelve más pesado.
Como resultado, seguir empujando el objeto genera cada vez menos beneficios. Eventualmente, nada puede ser acelerado más allá de la velocidad de la luz.
La ecuación vino a completar la teoría de la relatividad que él había comenzado a desarrollar a comienzos de aquel año.
Einstein pronto reconocería con la nueva ecuación, que la energía liberada en radioactividad -un fenómeno difícilmente entendido en esa época- podría llevar a cambios medibles en la masa.
Esa idea sería eventualmente aplicada a la física de la bomba atómica.
Publicado en BBC Ciencia.

23 noviembre 2005

NUEVA TECNOLOGÍA PARA IMPLANTES MÉDICOS

La batería de litio es la principal fuente de energía en implantes, como por ejemplo los estimuladores usados para hacer funcionar el corazón, o los dispositivos que ayudan al sistema nervioso central a hacer las conexiones críticas en quienes padecen la enfermedad de Parkinson o la epilepsia, por ejemplo. Diseñadas para ser extremadamente fiables y trabajar sin interrupción durante años, las diminutas pilas que suministran energía a los implantes son indispensables para todo, desde los marcapasos a los estimuladores electrónicos para funciones cerebrales.

Pero las baterías de litio no duran para siempre y se requiere de nuevas intervenciones quirúrgicas para mantener funcionando muchos dispositivos instalados en el cuerpo, así como para reemplazar a éstos al final de sus vidas útiles. Por otra parte, una nueva generación de diminutos dispositivos eléctricos para estimular el sistema nervioso, tratar la incontinencia y superar el deterioro muscular está llegando a medida que los científicos e ingenieros continúan miniaturizando los componentes que constituyen los dispositivos.

De importancia capital para esta técnica, según el químico Robert West de la Universidad de Wisconsin-Madison, es una nueva tecnología para producir pilas de litio, fabricadas con tamaños más pequeños, mayor duración y que pronto podrán recargarse desde fuera del cuerpo, sin necesidad de emplear la cirugía.

Usando componentes de silicio orgánico, West y sus colegas han desarrollado una nueva generación de pilas de ión de litio recargables, cuya vida útil es dos veces más larga que en las baterías usadas ahora en los diminutos dispositivos médicos.

La nueva tecnología para baterías permite suministrar energía a un "microestimulador" que puede inyectarse cerca de los nervios seleccionados como objetivo, para ayudar a controlar un sistema nervioso defectuoso, situación responsable de enfermedades como el Parkinson, la epilepsia y la incontinencia.

El grupo de West desarrolló el electrolito, el líquido conductor de la electricidad, que es el corazón de la batería.

Los nuevos compuestos de silicio orgánico desarrollados por los químicos de la Wisconsin-Madison tienen numerosas ventajas sobre los productos químicos de las pilas de litio tradicionales: son muy flexibles, no se solidifican, son estables, no inflamables, no tóxicos, y no constituyen ninguna amenaza para el medio ambiente. El silicio es el material del que están hechos los chips de ordenador, y es uno de los elementos más abundantes de la Tierra. Los compuestos de silicio orgánico están constituidos por silicio y otros materiales naturales.

Una ventaja decisiva de la nueva tecnología es su vida útil; las pilas de silicio orgánico están diseñadas para dar energía a implantes durante más de 12 años.

Tomado de aquí.

22 noviembre 2005

MARTE Y LA LEY DE MURPHY

La puerta de la astronave acaba de cerrarse tras de ti, encerrándote junto con tus compañeros astronautas en la pequeña cabina que será vuestro hogar durante el próximo viaje de seis meses a través del espacio interplanetario, al final del cual tú personalmente habrás sido el primer humano en poner el pie en Marte.
Mientras la cuenta regresiva resuena en tus oídos y sientes los cohetes retumbando por debajo de ti, te preguntas: ¿estamos preparados?
De acuerdo a la Ley de Murphy, todo lo que pueda ir mal, irá mal, y supuestamente esto se aplica tanto en Marte como en la Tierra. Así que si las cosas van mal en Marte, ¿estamos preparados para ello? ¿Qué necesitamos saber sobre Marte antes de enviar gente allí?
Esta pregunta es la que el Grupo de Análisis del Programa de Exploración Marciana de la NASA (Mars Exploration Program Analisis Group) o MEPAG, por sus siglas en inglés, planteaba en su informe fechado el 2 de Junio de 2005, el cual lleva el largo título de "Un Análisis de las Mediciones Preliminares en Marte Necesarias para Reducir el Riesgo de la Primera Misión Humana a este Planeta" ("Analisis of the Precursor Measurements of Mars Needed to Reduce the Risk of the First Human Mission to Mars").
El meollo del informe de Junio del MEPAG está en la página 11, una tabla a página completa en la que se listan veinte de los riesgos; "cualquiera de ellos podría destruir una misión", comenta David Beaty, Director de Ciencia del Programa Marciano en el Laboratorio de Propulsión a Chorro (Jet Propulsion Laboratory) y autor principal del informe.
Entre estos posibles riesgos encabezan la lista:
El polvo marciano, su corrosividad, su arenosidad, su efecto en sistemas eléctricos tales como los paneles de control.
Posibles peligros marcianos para la vida con capacidad reproductora, organismos peligrosos para los astronautas o para su regreso a la Tierra.
La dinámica de la atmósfera marciana, incluyendo tormentas de polvo, que podrían afectar al aterrizaje y el despegue.
Fuentes de agua potenciales, especialmente importantes si los astronautas tuviesen que permanecer en la superficie más de un mes.
El grupo se preguntó, ¿qué necesitaríamos aprender mediante el envío de misiones robóticas a Marte para reducir cada uno de los riesgos? Y, ¿cuánto reduciría el riesgo esa información? (por ejemplo, ¿podrían los ingenieros diseñar la aeronave de un modo diferente para proteger a los astronautas?).
Salta a la vista, según el informe del MEPAG, que "el polvo marciano es el riesgo número uno", dice Jim Garvin, científico jefe de NASA en el Centro Goddard de Vuelos Espaciales. "Necesitamos entender el polvo para diseñar sistemas eléctricos, trajes espaciales y sistemas de filtración. Necesitamos atenuarlo, neutralizarlo, aprender a vivir con él".
De acuerdo con el MEPAG, una misión que recoja y devuelva muestras de suelo y polvo marciano a la Tierra es crucial.
"La mayoría de los científicos no cree posible evaluar los riesgos para la vida sin obtener muestras", dice Beaty. Además, la obtención de muestras podría resolver controversias sobre cómo es realmente de arenoso o químicamente tóxico el suelo marciano. Aunque el polvo lunar resultó ser un gran problema para los astronautas de las misiones Apolo, "el polvo lunar no es comparable al polvo marciano", advierte Garvin. Científicos e ingenieros simplemente necesitan trabajar directamente con verdadero suelo marciano. La importancia de una muestra incluso tan pequeña como de un kilogramo "no debe ser menospreciada", por su valor tanto científico como para los ingenieros, añade Beaty.

Arriba: Lista parcial de los elementos peligrosos en Marte, de la página 11 del informe del MEPAG de Junio del 2005.


El informe del MEPAG daba también una alta importancia a medidas relacionadas con la liberación de sondas con paracaídas y globos en la atmósfera marciana. "Podríamos observar los cambios de velocidad del viento marciano en diferentes altitudes, lo que es vital tanto para conseguir exactitud cuando aterriza una misión, como para alcanzar la órbita correcta cuando la misión regresa", dice Beaty.
Y también está el agua: el MEPAG da alta prioridad a expediciones robóticas que podrían definitivamente encontrar agua, ya sea como hielo o como depósitos de minerales hidratados. Dos versiones de una primera expedición humana están siendo debatidas: una corta estancia de alrededor de un mes, y una larga de alrededor de un año y medio. Mientras que una misión de corta estancia podría llevar toda el agua que necesitase con ella (dependiendo de circuitos cerrados de soporte de vida para el reciclaje de aguas residuales), una misión de larga duración necesitaría excavar agua fresca y fabricar oxígeno respirable de los suelos llenos de hielo.
Estas son sólo algunas de las recomendaciones del MEPAG. Puede leer el informe completo aquí.


El propio MEPAG es algo nuevo.

"NASA está reinventando la forma de adquirir asesoramiento formal", explica Garvin. Hasta hace pocos años la NASA dependía de recomendaciones formales solicitadas a la Academia Nacional de Ciencias o de informes de grupos de trabajo ad hoc. Pero ambos permanecían silenciosos después de completar un único informe; así que no había un mecanismo para evaluar cómo esas recomendaciones de alto nivel se traducían en especificaciones concretas para el equipo de ingeniería, experimentos científicos y mediciones reales.

Derecha: Discusión en una sala del MEPAG. Abierto a todos los científicos interesados en Marte, el MEPAG evalúa regularmente los objetivos de la exploración marciana, teniendo como base el mayor alcance posible a toda la comunidad.

En contraste, el MEPAG es un cuerpo permanente de científicos e ingenieros, trabajando casi como la antigua Oficina de Evaluación Tecnológica del Congreso de los Estados Unidos (Congressional Office of Technology Assessment). Su único propósito es el de descubrir cómo grandes objetivos se traducen en opciones especificas de diseño para la exploración.
"Ha funcionado tan bien que pretendemos usar el modelo del MEPAG para formar grupos similares dedicados a analizar misiones de acercamiento a la Luna, Venus y los planetas exteriores", dice Garvin.
¿Estamos listos? Pregúntale al MEPAG.

Tomado de NASA

20 noviembre 2005

DESCUBIERTO UN MÉTODO QUE PODRÍA EVITAR LA INFECCIÓN POR SIDA EN MUJERES

La revista NATURE publica esta semana que científicos de la Universidad de Cornell en Nueva York, han desarrollado un método basado en componentes moleculares aplicados mediante un gel vaginal, que protegería a las mujeres de la infección por VIH.
Los trabajos consistieron en probar un microbicida vaginal que contenía hasta 3 inhibidores de molécula pequeña para ver si protegían a las hembras de monos macacos de la infección vaginal.
Así, descubrieron que las combinaciones de inhibidores administradas mediante un gel microbicida tópico proporcionaban protección frente a la infección.
El virus VIH entra en las células T humanas a través de la superficie o receptores. La proteína CCR5 es muy importante al inicio de la infección. Mediante el uso de moléculas pequeñas que se unen al receptor CCR5, los científicos pudieron inhibir las diferentes fases de unión y entrada del virus.
Los investigadores experimentaron con concentraciones y combinaciones diferentes de inhibidores, por separado y de forma conjunta, administradas mediante un gel vaginal. Los monos fueron después expuestos al VIH simio (VIHS) y se analizaron sus tasas de infección.
Los resultados demostraron que la protección conseguida fue amplia, ya fuera utilizando inhibidores en solitario o en combinaciones de ellos. En un experimento exploratorio a pequeña escala, 4 de cada 6 macacos consiguieron protección frente al virus cuando el microbicida fue administrado entre 2 y 6 horas antes de la exposición al VIHS. Tambien se consiguió una protección al darles a los animales los inhibidores por vía oral.
Para estos científicos, la ventaja de utilizar moléculas convencionales pequeñas como inhibidores supone que los costes de producción para el microbicida no serían prohibitivos. Señalan además que será necesario realizar pruebas clínicas para evaluar la seguridad y eficacia de estas moléculas en el caso de la infección por VIH en las mujeres.

19 noviembre 2005

UNA CURIOSA LISTA DE PARTES DEL CUERPO

Imagine la siguiente escena: un astronauta, en la Luna, inclinado sobre una roca, martillo en mano, investigando. De repente, sobre su hombro, un destello de luz procedente del Sol.
La radio crepita: "Explorador 1, adelante. Aquí control de misión".
Explorador 1: "¿Qué ocurre?"
Control de misión: "Ha tenido lugar una erupción solar; una grande. Debe ponerse a cubierto. La tormenta de radiación podría comenzar en sólo 10 minutos".
Explorador 1: "Entendido. Me dirijo inmediatamente hacia el vehículo lunar. ¿Alguna sugerencia?"
Control de misión: "Sí. Asegúrese de proteger sus caderas".
¿Protegerse las caderas?
Así es. Protegerse las caderas puede ser clave para sobrevivir a una tormenta solar. Otras áreas sensibles son los hombros, la columna vertebral, los muslos, el esternón y el cráneo.
¿Y por qué una lista de partes del cuerpo tan extraña? Los huesos de estas zonas contienen médula ósea, la "fábrica de sangre" de nuestro cuerpo. Las delicadas células que forman la médula ósea son especialmente vulnerables a las tormentas solares; una dosis elevada de protones solares fluyendo a través del cuerpo podría destruirlas. Y sin células medulares que generen una corriente continua de nuevas células sanguíneas, una persona podría quedarse sin sangre en el plazo de una semana. Sería necesario realizar un trasplante de médula ósea, pero en la Luna es imposible.
Así que para sobrevivir a una tormenta de radiación solar, la prioridad principal debe ser proteger nuestra médula ósea.
Puesto que la NASA pretende enviar de nuevo seres humanos a la Luna hacia 2018, la cuestión de la supervivencia a las tormentas de radiación solar cobra más importancia que nunca. Fuera de la protección del campo magnético de la Tierra y prácticamente sin atmósfera sobre su cabeza, un astronauta paseando por la superficie lunar estaría totalmente expuesto a lo peor de una tormenta solar.
La mejor solución es ponerse a cubierto, regresar a un refugio antirradiación. Pero si el refugio está demasiado lejos para llegar a tiempo, utilizar un traje espacial con protecciones antirradiación reforzadas en las zonas ricas en médula ósea —hombros, caderas, espina dorsal, etc.— podría significar la diferencia entre la vida y la muerte.
"Llenar todo el traje espacial con más revestimientos protectores podría hacerlo poco práctico", según Frank Cucinotta, Jefe Científico de la NASA en el Centro Espacial Johnson, "porque entonces sería demasiado voluminoso y pesado". Los astronautas deben ser capaces de caminar, saltar, inclinarse, alcanzar objetos y herramientas. Demasiada protección haría que estos simples movimientos fueran imposibles de realizar, de ahí la idea de la protección selectiva.
Una capa de sólo un 1 cm de espesor de un material parecido al plástico llamado polietileno podría prevenir graves enfermedades que se producen como resultado de la radiación. "Esto sería suficiente para mantener intacto el sistema hematopoyético de un astronauta, excepto en el caso de las peores erupciones", afirma Cucinotta. Si sólo sobrevive el 5 % de las células medulares, la médula ósea podría regenerarse y la persona sobreviviría sin necesidad de trasplantes.
Un astronauta podría, a pesar de estar tan protegido, desarrollar problemas de salud a largo plazo: cáncer, cataratas y otras enfermedades. "Ningún traje espacial puede detener todos los protones solares", explica Cucinotta. Pero si el suministro de sangre no se interrumpe, el astronauta también sobrevivirá, lo suficiente como para no tener que preocuparse por un largo plazo.
Derecha: A la derecha: una muestra de sangre de un astronauta de la Estación Espacial Internacional que ha sufrido daños por radiación espacial. Las hebras son cromosomas "pintados" con tinte fluorescente. "La imagen muestra grandes pedazos de diferentes colores unidos", indica Cucinotta. "Corresponden a zonas en las que el ADN roto ha sido reparado por la célula de manera incorrecta".
En este momento, la idea de diseñar un traje espacial para proteger selectivamente la médula ósea de los astronautas es simplemente eso: una idea. Cucinotta afirma que se están considerando muchas posibilidades para proteger a los astronautas en la Luna. Pero la respuesta a la idea de la protección selectiva ha sido positiva, dice Cucinotta. Podría funcionar.
Si se desarrolla la idea, los trajes espaciales post-Apolo tendrán un aspecto algo diferente, con hombros fornidos, anchas caderas y cascos prominentes, entre otras cosas. Las modas cambian, a veces para mejor.
Tomado de NASA

18 noviembre 2005

INVESTIGADOR DEL IFAPA GANA PREMIO DE INGENIERÍA AGROALIMENTARIA

Se ha concedido el I Premio 'Antonio Medina Lama' de Ingeniería Agroalimentaria al grupo de investigación liderado por el Investigador del CIFA de Churriana (Málaga): Dr. José Manuel López Aranda.
Este premio lo ha convocado la Caja de Ahorros El Monte, la Fundación Ingenieros Agrónomos de Andalucía y el Grupo R. Medina.
El trabajo presentado para optar al mencionado premio se ha denominado: "Mejora genética aplicada: Variedades de fresa. Nuestras variedades: Andana, Carisma, Marina y Medina".

UN INFORME DE LA PRESIDENCIA BRITANICA DE LA U.E. ABOGA POR UNA POLÍTICA DE ACTIVACIÓN DEL CONOCIMIENTO

Luc Soete, director del Instituto de Nuevas Tecnologías de la Universidad de las Naciones Unidas, ha presentado un informe titulado "Activating Knowledge".
Dicho informe defiende que el conocimiento generado en Europa no ha sido convenientemente explotado.
El informe se debatió durante el Consejo Europeo informal que tuvo lugar en Hampton Court el pasado 27 de octubre.
Según dicho informe, la inversión pública europea en conocimiento se puede comparar con la de EE.UU.
Sin embargo, de acuerdo con Luc Soete, "en el conjunto de la UE no se consigue convencer a nuestras empresas y ciudadanos de que inviertan en conocimiento".
El informe destaca una serie de propuestas para lograr una política de activación del conocimiento.
En primer lugar, los países de la UE deben identificar medios de cooperación diferentes del método abierto de coordinación.
En segundo lugar, se debe introducir un objetivo de inversión en conocimiento.
En tercer lugar, la financiación privada debe desempeñar un papel importante en la investigación y la educación superior.
Para ello es necesario llevar a cabo una reforma universitaria, con el fin de crear una masa crítica.
Esto se puede lograr fortaleciendo las universidades especializadas en áreas de conocimiento específicas y por medio de la financiación de la industria.
Posteriormente, se debe fomentar la competencia entre estas universidades.En concordancia con esta propuesta, el informe presenta una comparación con EE.UU., donde existe una fuerte concentración y un alto nivel de investigación.
Esto se debe a que el 98% de la financiación estatal destinada a la investigación universitaria se gasta en 200 instituciones de las 3300 existentes.
Por último, se advierte de que un enfoque de fortalecimiento del conocimiento solamente dentro de Europa no es productivo.
El ámbito y la perspectiva de las políticas deben ser mundiales.
En la víspera de este Consejo Europeo informal, Tony Blair pidió que se elevara el gasto de la UE en I+D, así como una estrategia para fortalecer la competitividad de la universidad europea. Blair manifestó que "la investigación, el desarrollo y la innovación deberán beneficiarse de una mayor proporción del presupuesto de la UE".
Por último, Tony Blair pidió a la Comisión que investigara por qué nuestro sector universitario no es capaz de competir con el americano, con el propósito de mejorar la competitividad de las universidades europeas

17 noviembre 2005

UN SENCILLO ELECTROENCEFALOGRAMA PUEDE PREDECIR LA ENFERMEDAD DE ALZHEIMER

Aunque la enfermedad de Alzheimer afecta a millones de personas en todo el mundo, no hay modo de identificar a esta enfermedad, devastadora para el cerebro, en su fase inicial en la que todavía puede ser posible retardar o incluso impedir la espiral descendente hacia la demencia.
Sin embargo, un nuevo modo de analizar los resultados de una prueba convencional, el electroencefalograma, podría desvelar esos primeros indicios.
En el transcurso de las investigaciones que sobre la enfermedad de Alzheimer se llevan a cabo, los científicos utilizan técnicas sofisticadas como la MRI y la PET para distinguir características de la función y anatomía cerebrales que podrían indicar problemas futuros, con el fin de lograr sentar las bases para un procedimiento de detección precoz de ese nefasto mal.
Ahora, el estudio de un grupo de investigadores de la Escuela de Medicina de la Universidad de Nueva York demuestra que las manifestaciones más tempranas del Alzheimer, cuando aparecen las primeras señales de pérdida de memoria, se pueden detectar con una técnica relativamente barata, indolora, y fácil de utilizar, el conocido electroencefalograma o EEG, que mide la actividad eléctrica del cerebro.
En el estudio, los investigadores demostraron que un análisis informático del EEG predijo con precisión en gente sana, de entre 64 y 79 años, que contraerían demencia durante los próximos 7 a 10 años.
También identificó a individuos que permanecerían virtualmente sin cambios durante el mismo tiempo.
Según el estudio, el EEG tenía casi un 95 por ciento de exactitud en identificar a quienes sufrirían el declive cognitivo, y a quienes no.
Lleva cerca de 30 minutos realizar un EEG, que implica colocar los electrodos del equipo en el cuero cabelludo.
La prueba es efectuada con el paciente acomodado confortablemente. No hay inyecciones y el cuero cabelludo no se afeita.
Los investigadores de la citada universidad evaluaron a 44 voluntarios con edades de entre 64 y 79 años, que sospechaban que sus memorias comenzaban a fallar.
Al comienzo del estudio, a cada individuo le fue efectuado un EEG. Luego, fueron analizados varias veces más durante los siguientes 7 a 10 años.
En este período, 27 de los 44 individuos desarrollaron debilitamiento cognoscitivo suave o demencia verdadera, y 17 siguieron manteniéndose estables.
Aplicando un algoritmo matemático a las exploraciones del cerebro, los investigadores demostraron que ciertas características del patrón de las ondas cerebrales en el EEG podían ser asociadas al deterioro cognitivo futuro.
Una característica prominente asociada al deterioro cognoscitivo en el EEG era una onda cerebral llamada theta, que según el estudio resultaba excesiva en las personas que con el paso del tiempo acabaron sufriendo declive mental.
Otra característica era la lentitud en la frecuencia promedio del EEG, que es medida en ciclos por segundo.
También, una característica distintiva de los futuros enfermos era un cambio en la sincronización entre los dos lados del cerebro.
Los investigadores de la Universidad de Nueva York que han trabajado en este estudio son los doctores Prichep, Ferris, Rausch, Fang, Cancro, Torossian y Reisberg.
El estudio fue financiado el Instituto Nacional de Salud de EE.UU.
Tomado de aquí.

16 noviembre 2005

DESCUBIERTA PARTE DEL CÓDIGO CEREBRAL DE LA VISIÓN

Neurocientíficos del McGovern Institute del MIT (el Instituto Tecnológico de Massachussets) han conseguido descifrar una parte del código neuronal que permite a monos macacos reconocer objetos visualmente, lo que supone un importante paso adelante para descubrir cómo codifica y decodifica el cerebro la información que recibe.
Un ejemplo de lo que en el futuro podría suponer este descubrimiento lo tenemos en la película de ciencia ficción Matrix, tal como explica al respecto el MIT en un comunicado. En la película, un cable introduce en el cerebro de los personajes las percepciones visuales artificiales, dando la impresión al sujeto de que está en un mundo real.
En la actualidad, los científicos no pueden “introducir” artificialmente información visual en nuestros cerebros debido a que aún desconocemos el código que utilizan las neuronas para “leer” visualmente la realidad que nos rodea, a partir de la información que recibimos de los estímulos.
Si se conociera este código, podrían introducirse en el cerebro realidades artificiales, que las neuronas decodificarían como reales al estar en su propio lenguaje. Algoritmos informáticos utilizados en sistemas artificiales de visión podrían ser mejorados gracias a estos códigos recién descubiertos. Este código (un algoritmo informático) es el que ha comenzado a ser descrito en el experimento del MIT.

Creación de inteligencia
El estudio ha sido realizado por los investigadores James DiCarlo, profesor asistente de neurociencia del McGovern Institute, y Tomaso Poggio, profesor de neurociencia y comportamiento humano del mismo instituto. Los resultados fueron publicados por la revista Science.
DiCarlo y Poggio pretendían conocer cómo trabajaba el cerebro para crear inteligencia. La capacidad de reconocer objetos visualmente constituye una de las cuestiones más complejas acerca del funcionamiento cerebral y, a nivel informático, es aún más difícil de reproducir que imaginarlo por medio del razonamiento.
La vista es un proceso automático, que parece casi inconsciente. El trabajo de estos neurocientíficos permitirá comprender mejor los códigos cerebrales que producen la información visual en aquellas regiones del cerebro relacionadas con la acción, la planificación y la memoria.

En un tiempo récord
En tan sólo una fracción de segundo, la entrada de datos visuales de aquellos objetos que tenemos ante nuestras retinas circula como una corriente visual que va aumentando y que se modifica continuamente (según cambia la información o la situación de los objetos) hasta que dicha entrada alcanza la llamada corteza inferotemporal, que es una región del cerebro esencial en el procesamiento de la información visual y decisiva en lo que respecta a la formación de nuestra memoria visual.
La corteza inferotemporal identifica y clasifica en categorías los objetos, para acto seguido mandar esa información a otras regiones del cerebro.
Todo sucede en un tiempo récord. Para saber cómo la corteza inferotemporal organiza los datos que luego salen hacia otras áreas cerebrales en forma de información, los investigadores enseñaron a los monos a reconocer diferentes objetos agrupados en diversas categorías, como caras, juguetes y vehículos.

Algoritmo informático
Las imágenes aparecían ante los ojos de los animales con diferentes tamaños y posiciones dentro del campo visual. Registrando la actividad de cientos de neuronas de la corteza inferotemporal, los científicos consiguieron hacerse con una considerable fuente de datos acerca de los patrones neuronales generados en dicha corteza como respuesta a cada uno de los objetos que veían, en las distintas condiciones en que éstos aparecían.
Luego, los investigadores utilizaron un algoritmo informático denominado “clasificador” para descifrar el código de procesamiento de las neuronas. En el clasificador se asoció cada objeto con un patrón particular de señales neuronales, de tal manera que pudo decodificarse la actividad neuronal de los monos frente a lo que veían.
Lo que más llamó la atención es que una mínima fracción de segundo servía para que las señales neuronales contuvieran ya la suficiente información específica para identificar y clasificar cada objeto, e incluso su posición y su tamaño. Así, fue sorprendente comprobar que tan sólo unos cientos de neuronas (de los millones que componen el sistema neuronal del cerebro) podían contener muchísima información muy precisa.


¿Una simulación?
La investigación del MIT aumenta el interés por el debate, más bien filosófico que cientítico, acerca de si realmente es posible que el mundo que percibimos sea una simulación. El filósofo Nick Bostrom, Director del Future of Humanity Institute, de la Universidad de Oxford, considera en un documentado artículo que la probabilidad de que vivamos en una realidad simulada es bastante alta.
La literatura que acompaña esta filosofía está recogida en The Simulation Argument.
La posibilidad de que el mundo real sea sólo una ilusión ha sido formulada por otros filósofos desde la Antigüedad, agrupados en la categoría de escépticos. Descartes ha hablado asimismo de la “duda hiperbólica” (dudar del mundo, del cuerpo y de las ideas innatas), Calderón de la Barca de que “la vida es sueño” y, más recientemente, el filósofo Hilary Putnam ha expresado su idea de que los humanos podríamos ser cerebros en cubetas conectados a unas máquinas por un equipo de científicos, tal como ocurre en Matrix.
Aunque de momento sólo se ha comprobado en macacos, lo relevante del experimento del MIT es que ha comenzado a describir la herramienta tecnológica que faltaba para que, al margen de debates filosóficos, quizás sea posible en el futuro “engañar” a las neuronas del cerebro que interpretan la información visual para que consideren como reales imágenes procedentes de una máquina.
Escrito por Eduardo Martínez en TENDENCIAS 21.

15 noviembre 2005

EL ÚLTIMO MINUTO DE 2005 TENDRÁ 61 SEGUNDOS

A las 23:59:59 horas del 31 de diciembre de 2005 en el meridiano de Greenwich se introducirá un segundo adicional antes de que el reloj atómico marque las 00:00:00 del 1 de enero. La corrección es necesaria para compensar que la Tierra gira cada vez más lenta, explicaron los científicos de la Universidad de Bonn. Esta medida supondrá en la práctica que el último minuto del año tendrá 61 segundos.
En España, debido a la diferencia horaria con Greenwich, el segundo adicional pasará a computarse en 2006, a las 00:59:59 del 1 de enero. Desde 1972 se han introducido un total de 32 segundos adicionales. No obstante, la corrección de este año podría ser una de las últimas, ya que se está planteando cambiar el sistema.
Entre las alternativas que se estudian está la de hacer retroceder las agujas del reloj en una hora cuando la variación horaria haya acumulado un retraso de más de media hora.
Según los cálculos de la Universidad de Bonn, encargada de coordinar una red mundial de radiotelescopios que mide regularmente la velocidad a la que gira la Tierra, esto ocurriría en el año 2600. Una conferencia de la Unión Internacional de Telecomunicaciones (ITU) analiza desde el lunes en Ginebra esta propuesta.
Algunos expertos, sobre todo estadounidenses, piden que se elimine la introducción del segundo adicional porque puede crear problemas en computadoras interconectadas a escala internacional.

Tomado de CONSUMER CIENCIA

14 noviembre 2005

HALLAN EN ARGENTINA UN FÓSIL CON CABEZA DE DINOSAURIO Y COLA DE PEZ DE 135 MILLONES DE AÑOS

El fósil de Dakosaurus andiniensis hallado al pie de los Andes es un animal marino con cabeza de dinosaurio carnívoro y cola de pez.
Vivió hace unos 135 millones de años al oeste de Argentina.
Para los investigadores de la Universidad Nacional de La Plata es “Godzilla”.
El hallazgo, presentado en Washington por la paleozoóloga Zulma Gasparini, se remonta a 1996, cuando una expedición encabezada por esta científica encontró un cráneo completo de un animal similar a un cocodrilo en la zona de pampa Tril, al noroeste de la provincia argentina de Neuquén.
Por otros fragmentos de fósiles hallados en la región y la comparación con especies contemporáneas, los científicos argentinos calculan que el Dakosaurus andiniensis hallado tenía casi cuatro metros de longitud desde la nariz a la cola, y que sus mandíbulas tenían 46 centímetros de largo.
El cráneo mide aproximadamente 76 centímetros de largo, y los colmillos más próximos a la nariz unos diez centímetros de largo.
En la época en la que vivió el animal, esa región era una profunda bahía tropical del océano Pacífico.
Las revistas Science y National Geographic publican esta semana extensos artículos sobre el Dakosaurus andiniensis.
Tomado de CADENA SER.

13 noviembre 2005

LA TIERRA Y LAS TÁURIDAS: ESPECTÁCULO DE ESTRELLAS FUGACES

"Pensé que algún gracioso me estaba iluminando con un foco", comenta Josh Bowers de New Germany en Pensilvania. "Después me di cuenta de lo que era en realidad: un meteorito en el cielo meridional. Estaba practicando algo de astronomía de aficionado sobre las 9 p.m. en Halloween (31 de octubre del 2005), y este meteorito era tan brillante que me causó la pérdida de la visión nocturna".
Bowers no fue el único que vio el meteorito. Mucha gente estaba fuera con la tradición del truco o trato. Ellos vieron lo que Bowers vio...y más. Antes de que la noche terminase, informes de estrellas fugaces "más brillantes que una luna llena" se transmitieron de costa a costa.
Los astrónomos han decidido llamarles "los meteoritos de Halloween". Pero no es sólo en Halloween. El espectáculo ha estado presente durante días.



Izquierda: La luz brillante detrás de las nubes es un meteorito fotografiado el 2 de noviembre del 2005, por Mark Vorhusen de Alemania.

El 30 de octubre, por ejemplo, Bill Plaskon de Jonesport en Maine, estuvo "observando Marte a través de un telescopio de 254 mm a las 10:04 p.m. al Este, cuando un brillante meteorito iluminó el cielo y dejó una corta e intensa estela que duró alrededor de un minuto".
El 28 de octubre, Lance Taylor de Edmonton en Alberta, se despertó temprano para ir a pescar con cinco amigos. Alrededor de las 6 a.m. "se percataron de un hermoso meteorito. 20 minutos después apareció otro", comenta.
El 2 de noviembre en los Países Bajos, "el cielo se iluminó intensamente", informa Koen Miskotte. "Por el rabillo del ojo vi un meteorito tan brillante (como la medialuna)".
Y así sigue...
¿Qué está pasando?, "la gente probablemente esté viendo la lluvia de estrellas de las Táuridas", dice el experto en meteoritos David Asher del Observatorio Armagh de Irlanda del Norte.
Cada año, entre finales de octubre y principios de noviembre, explica, la Tierra cruza un río de polvo espacial asociado al cometa Encke. Diminutos granos golpean nuestra atmósfera a 104.000 km/h. A esa velocidad, incluso la más minúscula mota de polvo provoca un intenso rayo de luz —un meteorito— cuando se desintegra. Puesto que estos meteoritos parecieran salir de un punto en la constelación de Tauro, se llaman Táuridas.

Arriba: un meteorito táurida fotografiado el 28 de octubre del 2005, por Hiroyuki Iida de Toyama, en Japón.

La mayoría de los años la lluvia es liviana y produce poco más de cinco tenues meteoritos cada hora. Pero ocasionalmente, las Táuridas presentan todo un espectáculo. Los meteoritos cruzan el cielo, arruinando la visión nocturna e interrumpiendo las salidas a pescar.
Asher piensa que el 2005 podría ser uno de esos años.
Según Asher, los meteoritos vienen de una nube de partículas de mayor tamaño que los habituales granos de polvo. "Son aproximadamente del tamaño de guijarros o de pequeñas piedras", dice. (Podría parecer difícil que un guijarro pueda producir un meteorito tan brillante como la Luna, pero hay que recordar que estos objetos golpean la atmósfera a una velocidad muy alta). La nube de rocas se mueve dentro de la gran corriente de polvo de las Táuridas, a veces golpeando la Tierra, otras veces no.
"A principios de los noventa, cuando Victor Clube estaba supervisando mi trabajo doctoral sobre las Táuridas", recuerda Asher, "nos encontramos con este modelo de nube dentro de la corriente de las Táuridas para explicar el incremento del número de brillantes meteoritos que se habían observado en ciertos años". Enumeraron "los años de nubes" en un artículo de 1993 de la Revista Trimestral de la Real Sociedad Astronómica (Quarterly Journal of the Royal Astronomical Society) y predijeron un evento en el 2005.
Parece que está sucediendo ahora.
¿Cuándo se debe observar? Podría ver un meteorito cruzando el cielo en cualquier momento a partir de que Tauro esté por encima del horizonte. En esta época del año, el Toro se eleva por el Este a la puesta de sol. Lo curioso es la mejora de la visión de los brillantes meteoritos según la constelación va ascendiendo cada vez más. Alrededor de medianoche, Tauro está casi en el cenit, entonces es realmente un buen momento.

De acuerdo con la Organización Internacional de Meteoritos, la lluvia de las Táuridas se incrementa entre el 5 de noviembre y el 12 de noviembre (más detalles). "La Tierra tarda una semana o dos en atravesar la nube", apunta Asher. "Esta duración relativamente larga significa que no se obtendrán espectaculares ráfagas como en la tormenta de meteoritos de las Leónidas". "Esto es más como una lenta llovizna, quizás una cada pocas horas", comenta Asher.
Una llovizna de meteoritos, sin embargo, es algo que no se debe desaprovechar. Así que eche un ojo al cielo este mes en busca de las Táuridas.
Tomado de NASA.

12 noviembre 2005

VACUNA CONTRA LA MALARIA MUESTRA PRIMEROS RESULTADOS ALENTADORES

Investigadores del Instituto Pasteur, de París (Francia), han completado con éxito el primer ensayo en humanos con una vacuna contra la malaria basada en la MSP3, una proteínaque se encuentra presente en la superficie del parásito que la transmite.
El estudio, coordinado por Pierre Druilhe, se publica en el último número de Public Library of Science Medicine.
Los autores administraron la vacuna a 30 adultos jóvenes sanos que mostraron una respuesta inmune prolongada contra la MSP3.
No obstante, la única manera de comprobar la eficacia real de la vacuna es exponiendo a los participantes a la infección, lo cual no resulta posible por cuestiones éticas en las etapas iniciales del desarrollo de una vacuna.
"Aun así, hemos podido llevar nuestra investigación un paso más adelante demostrando que los anticuerpos de la sangre de los voluntarios vacunados eran capaces de inhibir el crecimiento del parásito de la malaria en los ensayos del laboratorio", ha señalado Druilhe.
Los resultados de esta investigación han permitido el inicio de un estudio en fase II para determinar la eficacia de esta vacuna en personas expuestas a la malaria.

Por otra parte, un trabajo coordinado por Margaret Mackinnon, del Departamento de Patología de la Universidad de Cambridge, en Reino Unido, ha valorado la importancia de las variaciones genéticas en la intensidad del desarrollo de los síntomas en personas con malaria.
El trabajo, que se publica en la misma revista científica, analizó a dos grupos de niños de Kenia, donde la malaria es endémica, en los que se determinó la gravedad de los síntomas de la infección durante un periodo de cinco años.
Después monitorizaron en 2.900 niños los casos de malaria grave que precisaron hospitalización y los que no requirieron ingreso durante el mismo periodo de tiempo.
Los resultados mostraron que los factores genéticos del huésped eran los responsables de entre un cuarto y un tercio de las variaciones totales de susceptibilidad en la población con malaria, mientras que los relacionados con el entorno contribuían a la gravedad de los síntomas de manera similar.
Además, el 10 por ciento de los niños que vivían en hogares con una elevada incidencia de malaria tenían el doble de infecciones por año que los que vivían en familias con una baja incidencia.
Estos datos no cuestionan la necesidad de conocer los factores genéticos implicados en la enfermedad, pero indican que no son los únicos que hay que tener en cuenta y que el entorno es igualmente importante, señala Mackinnon.

11 noviembre 2005

LA MAYOR SIMULACIÓN INFORMATICA DE LA BIOLOGÍA REPRODUCE LA DINÁMICA CELULAR

Investigadores de Los Alamos National Laboratory, en Estados Unidos, han desarrollado un simulador informático que reproduce los procesos de los ribosomas. Tal como explica el citado laboratorio en un comunicado, se trata de un programa de ordenador (la “Q Machine") que reproduce los procesos dinámicos de más de dos millones y medio de átomos en movimiento. Esta reproducción es seis veces mayor que cualquier otra simulación producida hasta la fecha. La simulación ha sido realizada a escala atómica.

Los ribosomas son orgánulos que se encuentran en todas las células vivas (menos en los espermatozoides) y se encargan de la síntesis de proteínas. Su función consiste en ensamblar las proteínas siguiendo la información genética que reciben del ADN (en forma de ARN mensajero). La síntesis proteica de las células es llevada a cabo por los ribosomas gracias a dos subunidades del ribosoma que se encajan y trabajan en conjunción para la traducción del ARN mensajero (ARN m).

Hasta ahora, las simulaciones llevadas a cabo de los ribosomas habían sido estáticas. El movimiento permitirá conocer mejor su funcionamiento, con el fin de desarrollar antibióticos más eficaces para enfermedades tan letales como el ántrax.

La trascripción del ADN, clave para la vida

La traducción de la información que llega del ADN para realizar la síntesis proteica de las células es clave para la supervivencia de todos los organismos terrestres. Aunque esta “decodificación” o trascripción del ARN m había sido estudiada durante más de cuatro décadas, hasta hace muy poco no se había identificado al completo la forma en que los ribosomas hacen la selección.

Según publica la revista Proceedings of the National Academy of Sciences, la simulación muestra que existe una galería dentro del ribosoma que la transferencia de ARN m debe atravesar, con el fin de que la trascripción de la información genética se realice. Esta galería parece estar fabricada casi al completo con principios básicos universales y es una región del ribosoma que contiene una variedad de novedosos objetivos para los antibióticos.

Asimismo, la simulación también revela que la molécula del ARN m, esencial para la trascripción de la información genética de la síntesis proteica, debe ser adaptable en dos de sus partes, con el fin de que la decodificación se dé durante el proceso de acoplamiento entre el ARN m y los ribosomas.

De la simulación se desprende información que servirá tanto para el futuro desarrollo de máquinas moleculares biológicas y artificiales como para próximas investigaciones en el campo de la bioquímica, centradas en la identificación de una veintena de principios básicos que componen el ribosoma, y que son imprescindibles para el proceso de acoplamiento de ribosomas y ARN m. Asimismo, se podrán conocer mejor las pautas estructurales que actúan en los mecanismos de selección del ARN por parte de los ribosomas.

Problemas superados

Por último, esta nueva técnica ofrece una novedosa y poderosa herramienta para comprender mejor las máquinas moleculares –lo que permitirá desarrollar máquinas biológicas y artificiales a escala nanométrica-, así como para aumentar la eficacia de los antibióticos, que dentro de la maquinaria de la célula podrían comportarse como una especie de llave mecánica capaz de detener determinados procesos celulares dañinos para el organismo.

El diseño de medicamentos basados en la reproducción o simulación sólo de las estructuras estáticas del ribosoma podría compararse con el intento de interceptar en pleno vuelo un misil, si contáramos con la única información de su lugar de lanzamiento y su objetivo. Así, resulta imposible averiguar la trayectoria exacta del misil, del mismo modo que resulta muy difícil conocer los pasos que siguen los ribosomas en sus procesos si no existe una simulación dinámica de éstos.

La reproducción en movimiento de la actividad de los ribosomas ha sido posible gracias a la combinación de diversas ramas de la ciencia: la bioquímica, la informática, la biología molecular, la física, la biología estructural y las ciencias materiales. El resultado permitirá conocer mejor los procesamientos de información a escala nanométrica, tanto artificiales como biológicos. Y es que, de hecho, el ribosoma no es otra cosa que un ordenador a nano escala, un procesador de datos que trabaja para el funcionamiento de la célula.
Escrito por Yaiza Martínez en TENDENCIAS 21.

LA VERTIGINOSA HUIDA DE UNA ESTRELLA

Una estrella con un tamaño ocho veces mayor que el Sol, denominada HE0457-5439, se ha escapado de la Gran Nube de Magallanes y atraviesa imparable el halo exterior de la Vía Láctea a una velocidad vertiginosa de 2,6 millones de kilómetros por hora.
Lo que parece un parte policial intergaláctico o una conversación entre Spock y el capitán Kirk es, en realidad, el resumen del estudio hecho público hoy por un grupo de astrónomos del Observatorio Austral Europeo (ESO), que ha empleado el Telescopio de Gran Amplitud (VLT) de Cerro Paranal, al norte de Chile. Gracias al VLT, se pudo fotografiar ayer a la HE0457-5439.
Según Uli Heber, líder del grupo formado por científicos de la Universidad de Erlangen-Nürnberg (Alemania) y del Centro de Investigación Astrofísica de la Universidad de Hertfordshire (Inglaterra), la actual posición de la estrella sugiere que fue expulsada desde la Gran Nube de Magallanes, la galaxia más cercana a la Vía Láctea.
Ya que modificar la órbita normal de una estrella en su galaxia exigiría algún cataclismo local o una circunstancia gravitacional excepcional, los científicos se inclinan por pensar que la fuga de esa estrella se debe a la presencia de un agujero negro masivo en la Gran Nube de Magallanes que, como una honda, habría ocasionado su expulsión.

Una engullida y otra despedida
Más concretamente, sugieren que la HE0457-5439 formaba parte de una estrella binaria -es decir, un sistema doble de dos estrellas girando una alrededor de la otra- y que, al cercarse al agujero negro, la más cercana al torbellino fue engullida y su compañera salió despedida violentamente.
Pero no tiene nada que ver con el miedo, es pura física.
La estrella masiva HE0457-5439, como se ha clasificado a la fugitiva, fue descubierta durante el programa de rastreo Hamburg/ESO y se encuentra a solo 160.000 años luz del Sol, en las afueras del halo de la Vía Láctea.
"Éste es un lugar poco usual para una estrella de este tipo: las estrellas masivas se encuentran comúnmente en el disco de la Vía Láctea", explica Ralf Napiwotzki, otro integrante del equipo. Napiwotzki añade que ésta es muy grande, muy joven -solo unos 30 millones de años- y con una composición química semejante a la de nuestro Sol. "Cuando calculamos cuánto tardaría la estrella en viajar desde el centro de nuestra galaxia hasta su posición actual, descubrimos que le hubiera tomado el equivalente a tres veces su edad", explica Heber.
Esto significa que "o bien la estrella es más vieja de lo que parece, o nació y se aceleró en otro lugar".
La primera hipótesis se podría explicar si la estrella y su trayectoria fueran el resultado de la violenta colisión de dos astros, por lo que sería más vieja de lo que indica su tamaño -las estrellas grandes viven poco tiempo- y así hubiera podido viajar desde el centro de nuestra Vía Láctea.
La segunda es la propuesta de los astrónomos de que la estrella ha salido despedida desde su cuna original, nuestra galaxia vecina Gran Nube de Magallanes.
Para confirmar una de las dos teorías, los astrónomos planean realizar observaciones aún más detalladas que aclaren por fin el origen de esta estrella fugitiva.

No le afecta la gravedad
En todo caso, la extrema velocidad de la estrella hace que esté atravesando el borde de nuestra galaxia sin que le afecte la gravedad que mantiene unidos al Sol y a todas sus compañeras estelares de la Vía Láctea, y esté escapando imparable hacia el medio intergaláctico.
Para evaluar las dos hipótesis sobre el origen de la estrella fugitiva, los astrónomos proponen más estudios sobre la composición química de la estrella y sobre los ángulos que forma su trayectoria con los centros de las dos posibles galaxias madre.
Las estrellas de la Gran Nube de Magallanes tienen una composición distinta a la de nuestro Sol, generalmente con la mitad de elementos pesados como los metálicos, y el parecido químico de esta estrella con el Sol indicaría que pertenecía a la Vía Láctea.
Por otra parte, un ángulo muy amplio de la trayectoria de la estrella respecto al plano general de la vía láctea, y más cerrado respecto a la Gran Nube de Magallanes, indicaría que procede de nuestra galaxia vecina.
En todo caso, a la estrella fugitiva solo parece capaz de detenerla, en su fuga hacia el espacio intergaláctico, una improbable colisión con otra estrella que circule más ordenadamente.
Tomado de EL PAIS.

10 noviembre 2005

LOS SANTUARIOS DEL NORTE DE ÁFRICA HAN AYUDADO A PRESERVAR BOSQUES MILENARIOS

Científicos españoles y marroquíes han llevado a cabo una investigación pionera de los khaloas, recintos sagrados ancestrales donde se unen naturaleza y cultura.
En estas islas del paisaje se han desarrollado durante siglos bosquetes donde se conservan especies características de la flora y la fauna mediterráneas, ajenas a la intervención del ser humano.
Vista desde el aire, la franja del norte de África parece una gran alfombra ocre salpicada de manchas verdes.
Se trata de pequeños santuarios, conocidos también como khaloas, marabuts o morabitos, en los que devotos realizan actualmente sus ritos durante el año.
Pero, más allá de su función religiosa, estos enclaves constituyen auténticos oasis de vegetación.
En sus bosquetes, que han sido respetados durante siglos y en ocasiones milenios, subsisten fauna y flora bien conservadas, según revela un estudio publicado en el último número de la revista Ecosistemas.
El ecólogo español Eduardo Seva y el historiador José Luis Román, de la Universidad de Alicante, en colaboración con biólogos de la Universidad Aldelmalek Essaâdi (Tetuán, Marruecos), han establecido que todos los santuarios están ubicados en un alto del terreno.
También tienen en común la presencia de árboles centenarios o milenarios, entre los que se incluye habitualmente un árbol sagrado.
Por otro lado, los khaloas se vinculan siempre a un curso de agua, ya sea un riachuelo, fuente, manantial o pozo, al que se atribuyen poderes curativos.
Las principales diferencias surgen en la estructura de la vegetación, que varía en función al clima de la zona en que se sitúa el santuario.
La región más rica es, sin lugar a dudas, el macizo del Rif.
A lo largo de tres campañas de muestreo en Marruecos, Seva y su equipo han estudiado un grupo de 24 khaloas de la región Jbala, en el Rif occidental.
Su trabajo incluía la identificación tanto de aspectos culturales (número de visitantes, períodos de máxima afluencia…) como naturales (altura y edad de árboles de especies dominantes, cobertura de diferentes estratos, inventario de flora…).
Comparando los datos de diferentes enclaves, los investigadores han llegado a la conclusión de que las dimensiones del bosquete guardan relación directa con la "importancia" del santón local o regional enterrado en el recinto, es decir, “si históricamente representó en el pasado un cambio de organización, logros territoriales, de organización de los colectivos humanos, de explotación óptima de recursos, alguna victoria sobre tropas enemigas, etc.”, explica el profesor Seva.
Por lo general son recintos de alrededor de entre 5.000 y 7.000 m2 de superficie sin protección, aunque pueden alcanzar las 10 hectáreas.
A pesar de no contar con una barrera física que los rodee, los lugareños muestran un profundo respeto por estos santuarios y, durante siglos, han impedido cualquier tipo de actividad sobre ellos que no sea la oración. “Ni una sola rama de leña ha salido de ellos desde el enterramiento del santón”, detalla Seva.
Esto ha permitido que, en condiciones climáticas favorables como las que se dan en el Rif, se desarrolle un bosque perfecto de ecosistema mediterráneo, con un dosel arbóreo que fácilmente alcanza los 15 metros de altura, creando una espesura cercana a la oscuridad en pleno día.
El 100% de las especies propias de este ecosistema muestran una talla desmesurada, a diferencia de los bosques peninsulares, lo que revela las altas dosis de perturbación humana que han recibido nuestros ecosistemas mediterráneos”, lamenta el investigador.
Por si fuera poco, estos ambientes concentran numerosas especies animales, desaparecidas en el resto del territorio, que sólo aquí encuentran condiciones de vida adecuadas.
Por eso, los investigadores han solicitado una nueva ayuda a la Agencia Española de Cooperación Internacional (AECI), que ha financiado la primera parte del proyecto, para llevar a cabo un estudio detallado de grupos concretos de la fauna que viven en estos santuarios.
Por otro lado, los investigadores advierten que la realidad de hoy no puede asegurar la persistencia de estas islas del paisaje. “Debemos estudiar las claves de estos territorios antes de que desaparezcan por completo”, concluye Eduardo Seva en NOTICIAS21.

PRIMERAS FOTOS DEL VIRUS DE LA GRIPE AVIAR

Os lo prometo: algunos amigos y algunos miembros de mi familia saben de mis esfuerzos, por distintos y angustiosos motivos, para no publicar nada sobre la epidemia mundial de gripe aviar que se nos avecina.
Hoy he encontrado esta noticia en Astroseti y no me puedo resistir.
Ahí va:
Primeras fotos del virus de la gripe aviar
Las primeras imágenes en aumento y a alta resolución del virus de la gripe aviar H5N1, tomadas por un microscopio electrónico de barrido, aparecieron en el diario sueco “Dagens Nyeter” el pasado domingo, en lo que el periódico ha anunciado como una exclusiva mundial.
Las fotos, tomadas por el fotógrafo científico Lennart Nilsson, muestran al virus como una cadena de bolas azules atacando y destruyendo células rosas saludables.
Primeras fotos del virus de la gripe aviar Las primeras imágenes en aumento y a alta resolución del virus de la gripe aviar H5N1, tomadas por un microscopio electrónico de barrido, aparecieron en el diario sueco “Dagens Nyeter” el pasado domingo, en lo que el periódico ha anunciado como una exclusiva mundial. Las fotos, tomadas por el fotógrafo científico Lennart Nilsson, muestran al virus como una cadena de bolas azules atacando y destruyendo células rosas saludables. El periódico comentó que el fotógrafo de 83 años intentó acercar posturas previamente con laboratorios de los Estados Unidos para que le prestaran una muestra, pero finalmente el permiso le fue denegado. Al final obtuvo las muestras de la Organización Mundial de la Salud (OMS) que fueron más tarde cultivadas en el Instituto Karolinska de Estocolmo. Nilsson fotografió entonces el virus empleando imágenes captadas por un poderoso microscopio.
Las muestras del H5N1 fueron tomadas de un padre e hija que fallecieron en Hong Kong a causa del virus hace dos años.
También fue Nilsson el primero en fotografiar el momento mismo de la concepción humana, publicada en 1965 en un libro llamado “Nacer: la gran aventura”.

09 noviembre 2005

EL CAFELITO LO PUBLICÓ PRIMERO

Sabido es que EL CAFELITO se nutre de volver a publicar noticias aparecidas en la prensa en general y en algunos medios más especializados.
Tambien se publican noticias extraídas directamente de las principales revistas científicas del mundo.
Pues bien, hoy 9 de noviembre, el diario EL PAIS publica la noticia del antepasado común que tendrían millones de ciudadanos chinos, en base a una conjunción de estudios genéticos e históricos.
EL CAFELITO lo publicó el pasado 3 de noviembre con el título BUSCANDO DESPERADAMENTE AL ABUELO.
El abuelo era Giocangga y la satisfacción del equipo de redacción de este blog es muy grande.

CALISTO, EL BOMBARDEADO

En la mitología griega, Calisto era una ninfa amante de Zeus, lo que evidentemente no era del gusto de su esposa Hera, quien convirtió a su rival en oso. Zeus, sin embargo, la inmortalizó colocándola en el cielo como la constelación de la Osa Mayor.
De las cuatro lunas mayores de Júpiter, descubiertas por el italiano Galileo en 1610, Calisto es la más lejana al planeta gigante. Orbita en torno a él cada 16,7 días a una distancia media de casi 1.900.000 km, justo en el límite de los cinturones de radiación de la magnetosfera joviana.
Segundo en tamaño después de su vecino Ganímedes, también es el tercer satélite planetario más grande del Sistema Solar (detrás de Titán, la mayor luna de Saturno). Con un diámetro de 4.800 km, es sólo 80 kilómetros más pequeño que Mercurio, aunque su masa es la tercera parte de éste.
La diferencia estriba en su composición: de roca densa en Mercurio y de hielos ligeros en Calisto. En nuestro sistema planetario es habitual encontrar una mayor densidad a menor distancia al Sol, y a la inversa. Este mismo patrón se observa en los satélites galileanos de Júpiter: la densidad disminuye con la lejanía al planeta. Así el volcánico Ío, el más próximo, tiene una densidad de 3,53 gm/cm3; Europa de 2,99; Ganímedes de 1,94 y Calisto de 1,85. Por lo que parece, procesos similares de distribución de materia han actuado también en el minisistema planetario que es Júpiter y sus grandes lunas.
Prácticamente toda la información conocida sobre Calisto, igual que ocurre con el resto de satélites jovianos, procede de las sondas espaciales de la NASA Voyager 1 y 2, en 1979, y por la Galileo, entre 1995 y 2003. A diferencia de Ganímedes, Calisto no parece tener una estructura interna bien definida, aunque los datos de Galileo sugieren que los materiales de su interior se han sedimentado parcialmente, con una mayor abundancia de roca en el centro. Se supone que es un agregado de un 40 % de hielos y un 60 % de roca y metales como hierro, una composición parecida a la de otras grandes lunas frías, como Titán, de Saturno, o Tritón, de Neptuno.
Posee una de las mayores densidades de craterización de cualquier cuerpo observado hasta ahora en el Sistema Solar. En los últimos cuatro mil millones de años, poco después de la etapa principal de formación de los planetas, su superficie ha experimentado pocos cambios, de hecho está cubierta de cráteres muy antiguos. Los más grandes aparecen rodeados por una serie de anillos concéntricos con apariencia de enormes grietas, que han sido suavizadas a lo largo del tiempo por el comportamiento fluido de la corteza de hielo.
La mayor de estas cuencas de impacto recibe el nombre de Valhalla, y tiene un diámetro de más de 3.000 km, mientras que Asgard, la segunda en tamaño, roza los 1.600 km. Existen otros ejemplos de estructuras similares en el Sistema Solar: la cuenca Caloris de Mercurio o el Mare Orientale en nuestra Luna.
Como en Ganímedes, los cráteres más viejos de Calisto están muy erosionados por procesos de colapso u otros aún no bien conocidos. Además, en algunas zonas los más pequeños parecen haber desaparecido, lo que sugiere que existe algún tipo de proceso reciente o acumulativo que los sepulta bajo un manto de material oscuro. Muestra apenas actividad tectónica, al contrario que Ganímedes, por no mencionar las activas y jóvenes superficies de Ío y Europa. Una de las consecuencias de ello es que en Calisto no existen grandes montañas.
¿Por qué son todos estos mundos tan distintos? Sus diferentes historias geológicas suponen todo un reto para los astrónomos planetarios. La “simplicidad” de Calisto puede reflejar el aspecto primitivo de los satélites galileanos al principio de su evolución.
En sus sobrevuelos de Calisto, la Galileo observó hasta ocho cadenas de cráteres en línea recta, probablemente causados por cometas o asteroides que, tras ser disgregados en trozos por la enorme gravedad de Júpiter, chocaron con el satélite. Este proceso habría sido similar al del famoso cometa Shoemaker-Levy 9, que colisionó con Júpiter en 1994. Ello confirma que este tipo de sucesos han ocurrido varias veces en la historia de este planeta y que, gracias a la extrema antigüedad de la superficie de Calisto, las cicatrices se han conservado bien a pesar del paso del tiempo. También en Ganímedes se han fotografiado marcas similares, pero más borrosas.
En octubre de 1998, Margaret Kivelson, Krishan Khurana y otros colegas de la Universidad de Los Angeles (California) publicaron en la revista científica Nature un artículo con datos de la Galileo mostrando que el campo magnético de Calisto fluctuaba con la rotación de Júpiter. La mejor explicación para este fenómeno era que la potente magnetosfera joviana creaba corrientes eléctricas en el interior de Calisto, que a su vez generaban su fluctuante campo magnético.
Los científicos se preguntaron dónde y de qué modo podrían fluir estas corrientes. Como la superficie de hielo es mala conductora y la atmósfera despreciable, la doctora Kivelson sugirió la existencia de una capa de hielo fundido o de agua bajo la corteza con la suficiente concentración salina como para poder transportar las corrientes eléctricas que producen el campo magnético. Las medidas mostraban que dichas corrientes fluyen en direcciones opuestas en momentos diferentes, y se sincronizan con la rotación de Júpiter. Esto corrobora la idea de un océano subterráneo de agua salada, ya que el mismo fenómeno se observa en Europa y en Ganímedes. Así, a excepción del caliente Ío, los tres otros grandes satélites galileanos parecen poseer océanos de agua líquida bajo sus cortezas heladas.
Deberemos esperar al menos hasta la próxima década para que de nuevo una sonda espacial visite Júpiter y sus lunas, puesto que aún no hay misiones concretadas al respecto. Son muchas las preguntas que todavía quedan por contestar en mundos tan interesantes como el bombardeado Calisto.
Escrito por ANGEL GÓMEZ ROLDÁN para CAOS Y CIENCIA.

08 noviembre 2005

VISIÓN CIEGA

El cerebro procesa información visual aunque estemos ciegos, señala un estudio publicado por la revista Proceedings of the National Academy of Sciences.
Según se desprende de los resultados del estudio, el cerebro inconsciente sigue procesando datos visuales aunque hayamos perdido la capacidad de la vista.
Para realizar la investigación, se anuló temporalmente y de manera reversible la capacidad de visión de una serie de voluntarios cuyos cerebros estaban en perfecto estado de salud.
El procesamiento de la información visual de estos voluntarios se detuvo gracias a impulsos eléctricos momentáneos (denominados estimulación magnética transcraneal) dirigidos hacia la región del cerebro conocida como corteza visual, que es la que se encarga de realizar los procesos que nos permiten “decodificar” las señales que nos llegan desde los ojos.
La información visual es de hecho uno de los procesos más complejos de la actividad cerebral.
Alcanza la retina tras atravesar los ojos, donde la imagen se forma invertida.
Las señales son procesadas como impulsos nerviosos que viajan, inicialmente por el nervio óptico, para alcanzar el tálamo dorsal y luego la corteza visual.
Durante la investigación, en el momento en que los estímulos eléctricos detuvieron el procesamiento de la información que realizaba esta región cerebral, los voluntarios –prácticamente ciegos durante unos instantes- fijaron sus ojos en la pantalla de un ordenador en la que aparecieron las siguientes imágenes: una línea horizontal o vertical y una esfera roja o verde.
Todos ellos aseguraron que no habían visto nada de lo que les había mostrado el ordenador y, sin embargo, algo recordaban.
De hecho, al ser preguntados acerca de lo que había aparecido en la pantalla, el porcentaje de aciertos fue mucho mayor de lo que hubiese permitido el azar: el 75% de las respuestas fueron correctas en lo que respecta a las posiciones de las líneas y el 81% lo fueron en lo referente al color de las esferas.
Y todo ello sin que sus cerebros hubieran podido los datos visuales del experimento, debido a la inhibición temporal de la corteza visual.

¿Visión ciega?
Los artífices de esta investigación consideran que, a pesar de que los voluntarios estaban ciegos, inconscientemente procesaron información visual muy detallada.
Consideran que esto quizá sea debido a que la corteza visual no es la única región del cortex implicada en el análisis de las señales visuales, ya que sólo resuelve las etapas iniciales del procesamiento visual.
De hecho, hay otras regiones más profundas (cortezas asociativas) donde tiene lugar la asociación de los estímulos visuales con estímulos de otras modalidades sensoriales.
La investigación otorga evidencias que corroboran una antigua especulación (que empezó con Sigmund Freud) acerca del procesamiento de información que ocurre en el cerebro a pesar de que nosotros no nos demos cuenta.
Son los denominados “procesos inconscientes” del cerebro, que ya habían sido demostrados en estudios previos con pacientes que habían sufrido algún daño cerebral: personas con lesiones cerebrales, incapaces de ver objetos, podían identificar la forma y localización de algunas cosas que se les presentaban.
Es lo que se denomina “visión ciega”.
La neuropsicología cognitiva ha descrito esta capacidad humana: sujetos que han sufrido daños en la totalidad o en una parte de la corteza estriada de su cerebro (que es por donde pasa toda la información visual hacia la corteza) no pierden la totalidad de la vista: son capaces de adivinar por dónde pasa un objeto y hasta qué forma tiene.
Aunque este concepto de “visión ciega” aún no ha sido aceptado totalmente por la comunidad científica, en la actualidad se siguen realizando nuevos estudios para conocerlo y, sobre todo, explicarlo mejor.
Lo que según los investigadores se desprende de este estudio es que, aunque la conciencia requiere el uso de ciertos sectores del cerebro, mucha información se procesa se manera inconsciente.
Consideran que probablemente existan rutas alternativas de procesamiento visual que funcionan inconscientemente.
De confirmarse esta hipótesis, puede dar alguna esperanzas a personas que han sufrido daños físicos en la corteza visual primaria.
El estudio fue realizado por un equipo de la Universidad Rice (Estados Unidos), que publica un comunicado, y fue dirigido por el profesor de Psicología de dicha universidad, Tony Ro.
Escrito por Eduardo Martínez para TENDENCIAS 21.

07 noviembre 2005

NUEVAS LUNAS DE PLUTÓN

Usando el Telescopio Espacial Hubble (HST por las siglas en inglés de Hubble Space Telescope) de la NASA para observar el noveno planeta de nuestro Sistema Solar, un grupo de astrónomos ha descubierto que Plutón podría tener no una, sino tres lunas.
Plutón fué descubierto en 1930. El planeta se encuentra a más de 5 mil millones de kilómetros del Sol, en el corazón del Cinturón de Kuiper, una vasta región que contiene muchos cuerpos compuestos de roca y hielo, y que se encuentra más allá de la órbita del planeta Neptuno. En 1978, un grupo de astrónomos descubrió a Caronte, la única luna confirmada de Plutón.
"Si como nuestras nuevas imágenes del Hubble indican, Plutón tiene no una sino dos o tres lunas, se convertiría en el primer cuerpo del Cinturón de Kuiper en tener más de un satélite", dice Hal Weaver, del Laboratorio John Hopkins de Física Aplicada (Johns Hopkins Applied Physics Laboratory), en Laurel, Maryland. Weaver es co-líder del equipo que hizo el descubrimiento.
Las posibles lunas, designadas provisionalmente con los nombres S/2005 P1 y S/2005 P2, se localizan aproximadamente a unos 44.000 kilómetros (27.000 millas) de Plutón —en otras palabras, dos a tres veces más lejos de Plutón de lo que está Caronte.
Estas son lunas muy pequeñas. Se estima que sus diámetros sean entre 64 y 200 kilómetros (40 y 125 millas). Caronte, en comparación, tiene 1.170 km (730 millas) de ancho, mientras que el propio Plutón tiene un diámetro de unos 2.270 km (1.410 millas).
El equipo planea hacer una nueva serie de observaciones con el Hubble en febrero, para confirmar que los objetos recientemente descubiertos son realmente lunas de Plutón. Hasta no tener esta confirmación, la Unión Astronómica Internacional no podrá considerar nombres permanentes (y más atractivos) para S/2005 P1 y S/2005 P2.
La Cámara Avanzada para Programas de Observación (Advanced Camera for Surveys) del Telescopio Espacial Hubble, observó a las dos posibles nuevas lunas el 15 de mayo del 2005. "Los nuevos satélites candidatos son unas 5000 veces más tenues que Plutón, pero realmente sobresalen en estas imágenes del Hubble", dice Max Mutchler, del Instituto de Ciencias del Telescopio Espacial (Space Telescope Science Institute) y primer miembro del equipo en identificar los satélites.
Tres días después, el Hubble fue apuntado de nuevo hacia Plutón. Los dos objetos aún estaban ahí, y parecían estarse moviendo en órbita alrededor de Plutón.
"Una re-examinación de imágenes más antiguas tomadas con el Hubble en junio del 2002, prácticamente ha confirmado la presencia de P1 y P2 cerca de las posiciones que se pueden predecir en base a las observaciones de este año, dice Marc Buie del Observatorio Lowell, en Flagstaff, Arizona, y quien también es miembro del equipo de investigación.
El equipo ha buscado intensamente otras lunas potenciales alrededor de Plutón pero no han encontrado alguna.
"Estas imágenes del Hubble representan la búsqueda más sensible de objetos alrededor de Plutón hecha hasta hoy", dijo el miembro del equipo Andrew Steffl, del Instituto de Investigaciones del Suroeste (Southwest Research Institute), "y es muy poco probable que haya otras lunas de más de 10 millas de ancho en el sistema de Plutón", concluyó.
El Telescopio Espacial Hubble es un proyecto de cooperación internacional entre la NASA y la Agencia Espacial Europea (ESA). El Instituto de Ciencias del Telescopio Espacial en Baltimore conduce las operaciones científicas del Hubble. El Instituto es manejado por la NASA vía la Asociación de Universidades para la Investigación Astronómica (Association of Universities for Research in Astronomy, Inc. ó AURA), en Washington, bajo contrato con el centro Goddard.
Tomado de NASA .

DESCUBREN NUEVAS EVIDENCIAS DE LAS PROPIEDADES ANTICANCERÍGENAS DEL ACEITE DE OLIVA VIRGEN

Un equipo de once investigadores que trabajan en Irlanda del Norte y en Italia han comprobado los efectos beneficiosos de determinados componentes del aceite de oliva virgen en la prevención del cáncer colorectal.

Extrayendo fenoles del aceite de oliva, han mostrado en un modelo de cultivo celular in vitro un significativo efecto inhibidor en etapas agudas de la carcinogésis de colon.
El trabajo ha sido publicado en la revista International Journal of Cancer.

06 noviembre 2005

GESTIÓN DEL CAMBIO PARA AFRONTAR EL FUTURO INMEDIATO

La aceleración de los cambios aparece como la principal característica de nuestros días. Hay una gran cantidad de factores que intervienen en la intensificación del cambio. Los que parecen ser claves en el curso de los próximos 10 años son los siguientes:

La irrupción de productos manufacturados a muy bajo coste, procedente de países emergentes; la deslocalización; el aumento de la presión migratoria; la desregulación de la producción agrícola; la intensificación de la carrera hacia estándares de calidad más altos, a costes más bajos; la aceleración tecnológica; la creciente obsolescencia del actual modelo de economía postindustrial; la explosión en la producción de nuevo conocimiento y cambio de paradigmas.

La confluencia de estos 8 factores, junto con otros, induce una turbulencia expansiva a escala planetaria, que se retroalimenta. Bajo sus efectos, se acelerarán todavía más las transformaciones económicas, a más gran escala y, posiblemente, a veces, hacia algunas direcciones totalmente inesperadas. Lo que deseo poner de relieve es que, sea de una manera o sea de otra, la cantidad de cambios que vamos a tener que afrontar va a ser ingente.

¿Qué hacer frente a la oleada de cambios?
Cuando se habla de lo que necesitamos para afrontar los años que se avecinan, se suelen mencionar una o varias de estas recetas:

Mejorar la formación, promover la formación permanente; potenciar la investigación; fomentar la innovación; asimilar la nueva tecnología; gestionar el conocimiento; externalizar; deslocalizar; buscar economías de escala; aplicar el rigthsizing y el downsizing; potenciar la calidad; potenciar la inteligencia y la destreza emocional…

El botiquín de ideas parece bien surtido, pero el problema no radica únicamente en establecer cuál debe ser la combinación más apropiada de recetas. El verdadero problema es la administración de estas recetas a altas dosis, tal como requiere la situación.

De nada sirve proponerse potenciar la formación, asimilar la tecnología, externalizar y deslocalizar actividades, potenciar la calidad, etc., si al intentarlo se produce una congestión general. Por lo tanto, lo más importante de todo es asimilar la ingesta, sin que aparezcan problemas de saturación de novedad, empacho, ni otros efectos adversos.

La impresión es clara: el escollo más importante de todos cuantos debemos sortear a partir de ahora consiste en aumentar nuestra capacidad para afrontar y absorber cambios. Sin un incremento substancial de nuestro talento para digerir altas dosis de novedad y cambio, ninguna combinación de recetas, por buena que sea, va a funcionar como debiera.

Capacidad para afrontar cambios
Cada época se caracteriza por los recursos que le son más cruciales. Si durante la industrialización, las materias primas como el carbón y el acero, fueron recursos cruciales y más tarde, en las sociedades postindustriales, la información y las comunicaciones han jugado un papel capital, ahora, con la aceleración de los cambios, la capacidad de la población para afrontar y asimilar nuevas situaciones, se está convirtiendo en el recurso capital.

Pero a diferencia de los recursos naturales, que son finitos, la capacidad para afrontar cambios se puede cultivar y expandir. Y las sociedades y los grupos que lo logren dispondrán de una ventaja competitiva enorme con respecto a los demás.

La vía para potenciar este recurso arraca y da sus primeros pasos en los años 90 y se conoce como la Gestión del Cambio.

Qué es la gestión del cambio
Las transformaciones económicas registradas sobre todo a partir de 1985 y las nuevas dificultades surgidas como consecuencia de ellas, han estimulado la aparición de un nuevo cuerpo de conocimiento construido alrededor del concepto de Gestión del Cambio.

Se trata de un campo interdisciplinar en el que confluyen la sociología, la psicología, la antropología, la economía y también la teoría de sistemas, la ingeniería institucional y el diseño cultural.

Su objeto es facilitar los procesos de cambio, de forma que puedan ser realizados de forma más eficiente, con mayor celeridad, con un desgaste emocional menor, reduciendo las mermas de productividad que surgen durante las transiciones, aprovechando mejor las oportunidades de renovación que aparecen en el cruso de la transformación, minimizando las secuelas ulteriores y, finalmente, potenciando la capacidad de cambio de la organización, para afrontar los retos siguientes.

Llegar a buen fin
La solución a los problemas que se acumulan en un mundo cada día más acelerado ya no pasa únicamente por dilucidar si conviene hacer esto o aquello, sino que se centra en conseguir llevar a buen fin todo aquello que parece necesario. Y ésto último depende de la capacidad para llevar a cabo cambios, con un mínimo de efectos adversos, con rapidez y con eficacia.

Por este motivo, el desarrollo de la Gestión del Cambio aparece como uno de los recursos claves para afrontar el futuro inmediato.

Escrito por JOSEP BURCET para TENDENCIAS 21.