31 octubre 2005

CORRESPONDENCIA DE GENIOS

Charles Darwin (1809-1892) escribió al menos 7.591 cartas en su vida y recibió 6.530; Albert Einstein (1879-1955) envió más de 14.500 y recibió más de 16.200.
Fueron dos genios prolíficos en la correspondencia.
Pero es que entonces no había correo electrónico, medio universal de intercambio entre científicos desde hace dos o tres décadas (la comunidad científica utilizaba Internet mucho antes de que existiera la web y todo el mundo se enterase de lo práctica que es la Red).
Antes la relación epistolar era el vehículo normal de intercambio entre estudiosos, y la correspondencia tanto del padre de la teoría de la evolución como del autor de las dos teorías de la relatividad ha sido estudiada por los científicos e historiadores. Pero aún dan más de sí. Dos investigadores explican en la revista Nature que han analizado la correspondencia de Darwin y de Einstein desde un nuevo enfoque y descubierto patrones similares, en cuanto a índice de respuesta, por ejemplo, a los que se dan ahora con el correo electrónico.
La correspondencia de ambos genios se disparó con la celebridad: como media, Charles Darwin escribió 0,59 cartas cada día y Albert Einstein, 1,02, han calculado João Gama Oliveira y Albert-Laszlo Barabási, autores del estudio.
Algunas ocasiones eran especiales: el físico alemán recibió 120 cartas el 14 de marzo de 1949, en que cumplió 70 años.
Gama Oliveira y Barabási (Universidad de Notre Dame, Indiana) explican que el 53% de las cartas de Einstein y el 63% de las de Darwin fueron enviadas en menos de 10 días tras la recepción de la misiva correspondiente. Algunas excepciones son notorias, tratándose de pensadores tan influyentes, e incluso significativas para el devenir de la ciencia.
El 14 de octubre de 1921, relatan los dos investigadores, Einstein retomó la correspondencia abandonada en 1919 con Theodor Kaluza.
Einstein había desaconsejado a Kaluza publicar un trabajo.
Pero Einstein se lo pensó mejor dos años después y le escribió desdiciéndose.
Kaluza publicó entonces su artículo sobre teoría de campo unificado en cinco dimensiones, que, posteriormente, resplandeció como un eje fundamental de la teoría de supercuerdas.
Casos anecdóticos aparte, lo que Gama Oliveira y Barabási muestran es que Darwin y Einstein daban prioridad a unas cartas a la hora de responderlas, mientras que otras quedaban relegadas.
Su dinámica de la comunicación epistolar no era tan diferente del modo en que hoy uno gestiona el correo electrónico.
El 14 de octubre de 1920, Einstein escribió a Ralph de Laer Kroning: "Mientras me devoraba a mí mismo inmerso en una montaña de correspondencia, he encontrado su interesante carta de septiembre del año pasado".
¿Puede imaginarse a Darwin o Einstein con su respectiva dirección de correo electrónico?
Escrito por ALICIA RIVERA para EL PAIS

30 octubre 2005

IDENTIFICADA LA REGIÓN DEL CEREBRO QUE REGULA LOS HÁBITOS


En el cerebro existe una región que cambia cuando adquirimos un hábito determinado, que vuelve a cambiar cuando este hábito se abandona, pero que rápidamente se reactiva cuando algún elemento nos recuerda la vieja costumbre abandonada.
Dado que adquirir una rutina supone un esfuerzo considerable, el cerebro almacena en su memoria la “plantilla” del hábito, para reactivarla ante la más mínima señal.
Estos patrones se desarrollan y establecen en el llamado ganglio basal, cuyas funciones son esenciales en la adquisición de los hábitos, las adicciones y los procesos de aprendizaje.
Su descubrimiento ayudará al tratamiento de enfermedades como el Parkinson o las obsesiones.

Los hábitos más arraigados en nuestras acciones jamás se eliminan del todo, señala un estudio realizado por el MIT.
Eso explicaría, por ejemplo, que los ex fumadores no puedan, después de años de haber dejado el tabaco, volver a fumar ni siquiera un cigarro, porque enseguida recuperarían el antiguo hábito.
Los hábitos nos ayudan en la vida cotidiana, porque permiten que no tengamos que estar decidiendo cada uno de nuestros actos continuamente.
Rutinas constantes quedan de esa manera delimitadas antes incluso de que nos pongamos manos a la obra, lo que nos hace ganar tiempo.
Los malos hábitos, sin embargo, también existen, y condicionan nuestro comportamiento y nuestra mente.
La dificultad para deshacernos de ellos es mayúscula.
Además, una vez que se pierden, quedan latentes dentro de nuestro cerebro, tal como explican los autores de esta investigación en un artículo que publica la revista Nature.
Según este estudio, dirigido por Ann Graybiel, investigadora del MIT, existe una región del cerebro específica que cambia cuando adquirimos un hábito determinado, que vuelve a cambiar cuando este hábito se abandona, pero que rápidamente se reactiva cuando algún elemento nos recuerda la vieja costumbre abandonada.
Adquirir una rutina supone un esfuerzo considerable para el cerebro, por lo que éste almacena en su memoria la “plantilla” del hábito, para reactivarla ante la más mínima señal.
Ann Graybiel se dedica a investigar para el MIT los comportamientos vinculados al ganglio basal, así como la regulación de la segregación de dopamina del cerebro.

Actividad del ganglio basal
Es cuestión de los patrones que siguen las neuronas: cuando se aprende un nuevo hábito, la actividad de éstas se transforma, se vuelve a transformar cuando el hábito se deja voluntariamente y, finalmente, la actividad neuronal aprendida con los hábitos se recupera con suma facilidad, por lo que nunca se debe bajar la guardia.
Estos patrones se desarrollan y establecen en el llamado ganglio basal, una región del cerebro cuyas funciones son esenciales en la adquisición de los hábitos, las adicciones y los procesos de aprendizaje.
Asimismo, esta región cerebral está implicada en el movimiento y control motor, y su disfunción puede provocar graves enfermedades, como el Parkinson, la enfermedad de Huntington, la parálisis supranuclear progresiva, una degeneración corticobasal, una atrofia multisistémica, la enfermedad de Wilson y la distonía (trastorno del movimiento corporal).
El funcionamiento del ganglio basal en lo que respecta a los hábitos ha sido estudiado por Graybrel en laboratorio con ratas que debían conseguir una chocolatina situada al final de un laberinto con forma de T.
El experimento consistió en que las ratas aprendieran a asociar un determinado sonido con la situación de la recompensa comestible.
Después, los investigadores cambiaron el entorno quitando la chocolatina, de manera que consiguieron acabar con el hábito.
Finalmente, cuando volvieron a colocar la chocolatina en el mismo punto en que se encontraba al principio, los patrones neuronales creados por el hábito se restablecieron inmediatamente en el cerebro de las ratas.
Al empezar el experimento, cuando las ratas estaban aprendiendo a atravesar el laberinto, las neuronas se activaban, como si cada paso fuera importante. Según iban aprendiendo, por medio de señales sonoras que les indicaban que dirección seguir, qué recorrido debían hacer para alcanzar la chocolatina, las neuronas del ganglio basal aprendían también.
Una vez que las ratas podían reconocer a la perfección las señales sonoras, las neuronas implicadas en el proceso del recorrido se activaban notablemente al inicio y al final de éste, y se detenían cuando las ratas recorrían el ya conocido laberinto, como si el conocimiento se hubiese centrado únicamente en hallar la recompensa, una vez que el camino hasta ella ya había sido archivado en la memoria.

Comenzar y acabar
El siguiente paso del experimento fue quitar la chocolatina, por lo que las claves sonoras se volvieron absurdas.
Este cambio hizo que cualquier detalle del laberinto pareciera de nuevo relevante, y las neuronas volvieron a ponerse en marcha durante el recorrido por éste.
Las ratas de pronto dejaron de correr en busca de la chocolatina ahora inexistente, y el patrón adquirido de búsqueda desapareció de la actividad neuronal del cerebro.
Pero tan pronto como los investigadores volvieron a poner la chocolatina, el patrón neuronal aprendido apareció de nuevo rápidamente.
De este experimento se infiere que los patrones aprendidos de un hábito quedan de alguna forma archivados en el cerebro, y que por lo tanto no pueden extinguirse del todo.
La memoria parece retener no sólo la acción, sino también el contexto en que se desarrolla el hábito, ante cuya imagen los patrones neuronales se ponen en marcha de nuevo.
Graybiel señala que el comienzo y el final de los patrones neuronales que generan los hábitos reflejan la naturaleza del comportamiento rutinario: una vez que empezamos una acción habitual, seguimos con ella casi sin pensarlo, hasta que paramos.
Estos comienzos y finales apuntan a ciertas enfermedades: a los enfermos de Parkinson les cuesta empezar a andar y la gente obsesivo-compulsiva tiene problemas para detener una actividad determinada.
Este tipo de enfermedades puede ser mejor comprendida gracias a este experimento, así como las adicciones, de las que nunca se libra por completo nuestro cerebro.
Tomado de Marta Morales en TENDENCIAS 21

29 octubre 2005

FON AVANZA IMPARABLE

Se le ocurrió el pasado 5 de septiembre, mientras paseaba en bicicleta por la Sierra de Madrid.
Había que acabar con el oligopolio de las operadoras de telefonía móvil, crear un “país wifi”, y Martin Varsavsky (padre de Jazztel y Yacom) se puso a ello ese mismo día en su blog.
La idea verá la luz definitivamente a primeros de noviembre.
Ha nacido FON, “un movimiento de gente harta de que le timen con el móvil” y que quiere tener acceso a la red vía WiFi allá dónde vaya.
Martin Varsavsky se lanza a esta nueva aventura empresarial después de haber acumulado la experiencia que da haber dado a luz Jazztel y la factoria Yacom. En su momento ya puso la primera piedra para acabar con el monopolio del acceso a Internet.
Ahora su nueva meta son las operadoras de telefonía móvil.
La idea es sencilla, España acumula más de 3,5 millones de conexiones de banda ancha, pero sólo valen en el punto de acceso, es decir, uno paga por conectarse a Internet desde un número de teléfono concreto, desde un lugar específico.
FON quiere dotar de universalidad el acceso a la Red, darle movilidad mediante el uso conexiones inalámbricas, conocidas ya por el nombre de la tecnología que utilizan, WiFi.

Linus, Bills y Guiris
Para lograrlo distribuirá un pequeño programa que los voluntarios deben instalar en su equipo informático para poder ceder parte del ancho de banda que tengan contratado.
Este software hará posible también el acceso inalámbrico mediante esa conexión de otros afiliados a FON.
Tu estás sobrado de ancho de banda en tu casa, pero te falta en el resto del país”, comenta Varsavsky ahora enfrascado por completo en la gestación de la empresa.
Si le interesa la idea debe plantearse cómo desea participar, pues Varsarvsky ha pensado en tres tipos de personas.
A aquellos que simplemente quieren poner a disposición de otros su conexión a Internet a través de FON y poder acceder a éste servicio los llama los ‘Linus’, que serán los primeros en poder disfrutar del servicio.
Los ‘Bills’ son aquellos que no se conforman con compartir su ancho de banda sobrante, y quieren sacar algún beneficio.
Éstos obtendrán un 50% de los ingresos que se generen por el acceso a FON de un tercer tipo de participantes, los ‘Guiris’ o "Aliens" personas que mediante la adquisición de una tarjera prepago, por ejemplo, accederían a FON de forma temporal, sin tener que aportar si conexión a Internet a cambio.
Entre estos últimos sitúa Varsavsky a los millones de turistas que cada año visitan España y que podrían dejar en el bolsillo de los miembros de FON una buena cantidad de dinero.

Flores en la ventana
FON nace así como un proyecto al mismo tiempo “filantrópico y empresarial”. Para su fundador, el WiFi es como colocar flores en el balcón, “un ofrecimiento”, y a lo largo de sus paseos por España ha logrado cuadrar los cálculos.
En cada manzana hay unas 150 ventanas, para que FON salga adelante sólo necesita que dos de ellas compartan su conexión WiFi.
Dos ventanas con flores para garantizar el acceso a todos ellos mediante su programa.
En el mejor de los universos posible, contando únicamente con un 2% de las conexiones WiFi existentes en la actualidad, FON podría tener cubierto todo el territorio urbano y dar un servicio completo de acceso a la red y telefonía VoIP.

Operadoras más simpáticas
“FON no es un competidor para las empresas que dan ADSL” más bien apunta al servicio de 3G “un producto desilusionante con un coste altísimo”. Su relación con las empresas que dan servicio de ADSL por ahora es positiva, Jazztel, por ejemplo, está interesada en colaborar y Swisscom ya ha pedido precio para entrar en FON.
Varsavsky considera que para las empresas “sería un suicidio” poner trabas a los clientes para que se sumasen a FON. “No destruimos a las operadoras, las hacemos más fuertes y más simpáticas” concluye Varsavsky.

Un blog como altavoz mundial
Ahora que apenas quedan unos días para el lanzamiento de la primera beta del software de FON su creador resalta la importancia que la comunidad internauta ha tenido en la gestación.
Su blog “ahora monopolizado por FON” se ha convertido en “el vehículo del movimiento”. Antes apenas si sumaba unas 600 visitas diarias y ahora esa cifra no para de multiplicarse y recibe enlaces desde todo el mundo.
Alrededor de http://spanish.martinvarsavsky.net/ se ha creado una comunidad de voluntarios, verdaderos motores de la idea y “líderes” encargados de transmitir el proyecto en su comunidad.
Ya son más de mil en casi todas las capitales españolas.
Todo este crecimiento de FON a través de la Red le ha asegurado un grupo de voluntarios en España, pero también fuera de nuestro país.
Varsavsky prepara la salida de FON en Francia para el 6 de diciembre y poco después en Escandinavia y México.
Admite por último Varsavsky que la vulnerabilidad de las redes inalámbricas es un problema real en la actualidad sobre el que se debate intensamente en su blog.
En la actualidad la configuración de las redes WiFi es una de esas cosas “creadas por techies [forofos de la tecnología] para techies”, lo que hace que muchos sean incapaces de crear un entorno seguro.
Con FON, asegura Varsavsky “el nivel general de seguridad en España va aumentar muchísimo".
Tomado de Carlos Serrano en EL PAIS

DISEÑANDO UN MOTOR DE COHETE MÁS EFICIENTE


Cuando nos imaginamos la tecnología de los cohetes del futuro, probablemente pensemos en propulsión iónica, motores de antimateria y otras ideas exóticas.
¡No tan rápido! El capítulo final de los cohetes tradicionales de combustible líquido aún está por escribirse.
La investigación está en camino hacia una nueva generación de diseños de cohetes de combustible líquido que podrían duplicar el rendimiento sobre los diseños actuales, a la vez que mejorarían también su confiabilidad.
Los cohetes de combustible líquido han estado por aquí durante un largo tiempo: el primer lanzamiento impulsado con líquido fue llevado a cabo en 1926 por Robert H. Goddard.
Aquel cohete simple produjo apenas unas 20 libras de empuje, suficiente para llevarlo a unos 15 metros en el aire.
Desde entonces, los diseños se han ido haciendo más sofisticados y potentes. Los tres motores de combustible líquido a bordo del Transbordador Espacial, por ejemplo, pueden ejercer más de 1,5 millones de libras de empuje combinado en su camino a la órbita de la Tierra.
Podríamos suponer que, a estas alturas, todo refinamiento imaginable en los diseños de cohetes líquidos ya debe haberse llevado a cabo.
Estaríamos equivocados.
Resulta que aún hay espacio para el progreso.
Dirigido por la Fuerza Aérea de EE.UU., un grupo compuesto por la NASA, el Departamento de Defensa, y varios socios industriales está trabajando en diseños de motores de alta eficiencia.
Su programa se llama Tecnologías Integradas de Propulsión de Cohetes de Gran Carga, (Integrated High Payoff Rocket Propulsion Technologies), y están considerando muchas posibilidades de mejoras.
Una de las más prometedoras hasta el momento es un nuevo esquema para el flujo de combustible:
La idea básica tras un cohete de combustible líquido es bastante sencilla. Un combustible y un oxidante, ambos en estado líquido, son introducidos en una cámara de combustión y encendidos.
Por ejemplo, el Transbordador usa hidrógeno líquido como su combustible y oxígeno líquido como el oxidante.
Los gases calientes producidos por la combustión escapan rápidamente a través de la tobera cónica, produciendo así el impulso.
Los detalles, por supuesto, son mucho más complicados.
Por ejemplo, tanto el combustible líquido como el oxidante deben ser introducidos en la cámara muy rápido y bajo una gran presión.
¡Los motores principales del Transbordador vaciarían una piscina llena de combustible en sólo 25 segundos!
Este torrente de combustible es impulsado por una turbo bomba.
Para alimentar la turbo bomba, una pequeña cantidad de combustible es "pre-quemado", generando así gases calientes que accionan la turbo bomba, la cual a su vez impulsa el resto del combustible hacia la cámara principal de combustión.
Un proceso similar se usa para impulsar el oxidante.
Los cohetes actuales de combustible líquido envían sólo una pequeña cantidad de combustible y oxidante a través de los pre quemadores.
La mayor parte fluye directamente a la cámara principal de combustión, evitando completamente los pre-quemadores.
Una de las muchas innovaciones que están siendo probadas por la Fuerza Aérea y la NASA es enviar todo el combustible y oxidante a través de sus respectivos pre-quemadores.
Sólo una pequeña cantidad es consumida allí —justo la necesaria para que funcionen los turbos; el resto fluye a través de la cámara de combustión.
Este diseño de "ciclo de flujo completo por etapas" tiene una importante ventaja: con más masa pasando a través de la turbina que impulsa la turbo bomba, ésta es impulsada con más fuerza, alcanzando así presiones más altas. Presiones más altas equivalen a un mayor rendimiento del cohete.
Un diseño semejante no se ha usado nunca antes en un cohete de combustible líquido en los EE.UU., según Gary Genge del Centro Marshall de Vuelos Espaciales de la NASA. Genge es el Director Delegado del Proyecto para el Prototipo de Bomba Integrada (Integrated Powerhead Demonstrator, IPD) —un motor de pruebas para estos conceptos.
"Estos diseños que estamos explorando podrían mejorar el rendimiento de muchas maneras", dice Genge.
"Esperamos una mejor eficiencia del combustible, mejor relación impulso-peso, mejor confiabilidad —todo a un costo más bajo".
"En esta fase del proyecto, sin embargo, sólo estamos tratando de obtener que este patrón de flujo alterno funcione correctamente", apunta.
Ya han conseguido una meta clave: un motor de funcionamiento más frío.
"Las turbo bombas que usan patrones de flujo tradicionales pueden calentarse hasta los 1800 ºC", dice Genge.
Eso es mucha fatiga térmica sobre el motor.
La turbo bomba de "flujo completo" es más fría, ya que con más masa atravesándola, pueden usarse temperaturas más bajas y aun así conseguir un buen rendimiento", dice.
El IPD es concebido sólo como un banco de prueba para nuevas ideas, apunta Genge.
El Prototipo en sí mismo nunca volará al espacio.
Pero si el proyecto tiene éxito, algunas de las mejoras del IPD podrían encontrar su camino en los vehículos de lanzamiento del futuro.
Casi cien años y miles de lanzamientos después de Goddard, los mejores cohetes de combustible líquido pueden estar aún por llegar.
Tomado de NASA

28 octubre 2005

A TUTANKAMON LE GUSTABA EL VINO

Al faraón Tutankamón le gustaba el vino tinto, según las conclusiones de las investigadoras Maria Rosa Guasch Jané y Rosa Maria Lamuela Raventós, de la Universidad de Barcelona, presentadas ayer en Londres, en los sótanos del Museo Británico.
Ya se sabía que los faraones bebían vino y que la ciudadanía común también se deleitaba echando unos tragos en fiestas señaladas.
Lo que ha aclarado una investigación que entre unas cosas y otras se ha prolongado tres años, es que ese vino era tinto.
Financiada por la Fundación para la Cultura del Vino, en la que se integran cinco productores punteros de la industria española del vino y el cava, la investigación se ha basado en vasijas y fragmentos de vasija de la época propiedad del Museo Británico y del Museo Egipcio de El Cairo.
En dos de los fragmentos del museo cairota se localizaron restos de vino, según explicó Maria Rosa Guasch.
Se trata de dos jarras enterradas en la tumba de Tutankamón, que reinó durante el siglo XIV antes de Cristo y murió en el año 1323 antes de Cristo.
Utilizando sofisticadas herramientas de cromatografía y espectrometría, los investigadores han podido determinar que se trataba de vino tinto y no de vino blanco, aunque la profesora Guasch admitió que eso no significa que los egipcios no bebieran también vino blanco.
Los egipcios etiquetaban las garrafas de vino de manera cuidadosa, pero no precisaban si ésta contenía vino tinto o blanco.
La etiqueta precisaba la fecha de la cosecha, la procedencia, el propietario de las bodegas y, lo más importante de todo, la calidad del vino.
La investigación también ha podido determinar que el shedeh, un licor dulce también consumido por los egipcios, procedía también de uvas rojas y no era un derivado de la fruta de la granada como se creía hasta ahora.
Más información aquí.
Tomado de EL PAIS.

27 octubre 2005

DISPONIBLE YA ON-LINE EL INFORME DEL SECTOR AGRARIO EN ANDALUCÍA 2004


Cada año el otoño trae las tan esperadas lluvias y el Informe anual del sector agrario en Andalucía, que publica UNICAJA y elabora Analistas Económicos de Andalucía.
El pasado día 24 de octubre, el Consejero de Agricultura y Pesca presentó el último Informe correspondiente a 2004.



Y ya está disponible on-line desde el Portal agrario BESANA. (Son 4'5 Mb)
El informe constituye una estimación de las macromagnitudes del sector agrario para cada una de las provincias andaluzas y el conjunto de la región, complementándose con un análisis pormenorizado de los diferentes sectores agroalimentarios, y el marco de actuación de la actividad agraria.
Precisamente uno de los estudios sectoriales que incorpora es el denominado "Perspectivas del algodón en Andalucía" realizado por investigadores del IFAPA y que es un resúmen del estudio que fue galardonado recientemente con el VIII Premio de Investigación sobre Desarrollo Económico y Estudios Agrarios.

26 octubre 2005

EL RESPLANDOR DE LEONARDO

Cuando usted piensa en Leonardo Da Vinci, probablemente piense en la Mona Lisa o los submarinos del siglo XVI o, quizá, en una cierta novela de suspense. Todo eso es de la vieja escuela. Desde ahora, piense en la Luna.
Poco conocido para la mayoría, uno de los mejores trabajos de Leonardo no es un cuadro o un invento, sino algo más relacionado con la astronomía; Da Vinci resolvió el enigma del brillo de la Tierra.
Se puede observar el brillo de la Tierra cuando hay luna creciente en el horizonte al ponerse el Sol. El jueves 6 de octubre, fue una buena noche. Busque entre los cuernos de la luna creciente una imagen fantasmal de la Luna llena. Eso es el brillo de la Tierra.

Durante miles de años los humanos se han maravillado de la belleza de este "resplandor ceniciento", o "la luna vieja en los brazos de la luna nueva". Pero ¿qué era? Nadie lo sabía hasta el siglo XVI cuando Leonardo resolvió el misterio.
En 2005, después del Apolo, la respuesta puede parecer obvia. Cuando el Sol se pone en la Luna, ésta se oscurece —pero no completamente. Hay todavía una fuente de luz en el cielo: la Tierra. Nuestro propio planeta ilumina la noche lunar con un brillo 50 veces mayor que una luna llena, produciendo el resplandor ceniciento.
Visualizar esto en los años 1500 requería una imaginación desbordante.
Nadie había estado nunca en la Luna y mirado "hacia" la Tierra.
La mayoría de la gente ni siquiera sabía que la Tierra orbitaba el Sol. (La teoría heliocéntrica de Copérnico no fue publicada hasta 1543, veinticuatro años después de la muerte de Leonardo).
Imaginación desbordante era una cosa que Leonardo tenía en abundancia.
Sus cuadernos de notas están llenos de bocetos de máquinas voladoras, tanques militares, escafandras autónomas y otros dispositivos fantásticos adelantados en siglos a su tiempo.
Incluso diseñó un robot: un caballero armado que podía sentarse, agitar sus brazos, y mover su cabeza mientras abría y cerraba una mandíbula anatómicamente correcta.
Para Leonardo, el brillo de la Tierra era un enigma atractivo.
Como artista, estaba vivamente interesado en la luz y la sombra.
Como matemático e ingeniero, era aficionado a la geometría.
Todo lo que restaba era un viaje a la Luna. Era un viaje mental:
En el Códice Leicester de Leonardo, de alrededor de 1510, hay una página titulada "Sobre la Luna: Ningún cuerpo sólido es más ligero que el aire".
El declara su creencia de que la Luna tiene una atmósfera y océanos.
La Luna era un excelente reflector de la luz, creía Leonardo, ya que estaba cubierta con mucha agua. En cuanto al "resplandor fantasmal", explicó, es debido a la luz del Sol rebotando en los océanos de la Tierra y, a su vez, golpeando la Luna.
Él estaba equivocado en dos cosas:
La primera, la Luna no tiene océanos.
Cuando los astronautas del Apolo 11 aterrizaron en el Mar de la Tranquilidad, caminaron sobre roca.
Los "mares" lunares están hechos de antigua lava endurecida, no de agua.
Lo segundo, los océanos de la Tierra no son el origen principal del brillo terrestre.
La Tierra brilla por que refleja la luz solar, y las nubes reflejan la mayor parte. Cuando los astronautas del Apolo miraron a la Tierra, los océanos estaban oscuros y las nubes eran brillantes.
Pero esto son minucias. Leonardo comprendió lo básico bastante bien.
En las próximas décadas, los humanos viajarán en persona a donde la imaginación de Leonardo fue hace 500 años.
La NASA planea enviar astronautas de vuelta a la Luna no más tarde del año 2018.
A diferencia de los astronautas de las misiones Apolo, que permanecieron sólo unos pocos días, estos nuevos exploradores permanecerán en la Luna durante semanas y meses.
En el proceso, experimentarán algo que los astronautas del Apolo nunca hicieron: el anochecer.
Un día lunar dura 29,5 días de la Tierra: unos 15 días terrestres de luz, seguidos por 15 de oscuridad.
Los astronautas de las Apolo siempre aterrizaron a la luz del día y partieron de nuevo antes del anochecer.
Debido al brillante Sol, nunca vieron el suave halo del brillo terrestre en sus pies.
Pero la próxima generación de astronautas lo hará.
Y sólo quizá, durante un paseo nocturno detrás de la base, guiado por la suave luz de la Tierra, uno de ellos se agachará y escribirá en el polvo lunar:
"Leonardo estuvo aquí".
Tomado de NASA.

25 octubre 2005

DESCUBIERTAS SUSTANCIAS QUÍMICAS PELIGROSAS EN EL CORDÓN UMBILICAL


Las sustancias peligrosas contenidas en los productos cotidianos que utilizamos en nuestros hogares acaban en el cuerpo de los neonatos a través de la madre.

Un estudio, llevado a cabo por TNO a instancias de Greenpeace y WWF-UK, ha analizado muestras de sangre aportadas por mujeres y confirma que las sustancias químicas peligrosas son involuntariamente transmitidas de madres a hijos.
Estudios anteriores ya habían alertado de la presencia de sustancias químicas peligrosas en la sangre y tejidos humanos y la capacidad que poseen algunas sustancias de atravesar la placenta. Este estudio además confirma que las sustancias químicas peligrosas, o sospechosas de serlo, pertenecientes a ocho grupos químicos se encuentran presentes de forma generalizada en la sangre del cordón umbilical.
Estos hallazgos subrayan la necesidad urgente de ofrecer mecanismos para sustituir esas sustancias por alternativas más seguras.
Para descargar el estudio, pincha aquí.

LA CANTIDAD DE CO2 ATMOSFÉRICO ABSORBIDO POR LOS BOSQUES ESTÁ CAMBIANDO AL DISMINUIR LA BIODIVERSIDAD

La variedad y mezcla de árboles en un bosque tropical puede afectar a la cantidad de carbono atmosférico que la superficie terrestre sobre la que crecen es capaz de absorber.
Un equipo de investigadores de la Universidad de Columbia ha demostrado que esa función de almacenaje inherente a los ecosistemas está variando a causa de la extinción de especies que se registra desde hace años
Según publica la revista Science, investigadores de la citada Universidad han descubierto pistas sobre el enorme impacto que podría tener ese declive de especies en la biodiversidad de los bosques tropicales, del que apenas se tiene conocimiento científico, y que estaría vinculado con el calentamiento global del Planeta.
Los científicos conocen que la biodiversidad de los bosques tropicales está decayendo, pero desconocen sus impactos sobre funciones del ecosistema como el almacenamiento de carbono atmosférico.
Bunker et. al., creen que el potencial terrestre para secuestrar carbono de la atmósfera podría verse alterado en gran medida por los cambios en la composición de las especies en los bosques tropicales.
Para su investigación, los investigadores simularon modelos de trabajo a partir de supuestas extinciones de especies en un bosque tropical, lo que les permitió establecer muchas combinaciones y composiciones de los resultados, bajo distintos escenarios, así como explorar las distintas posibilidades de almacenamiento de carbono por la superficie terrestre con masa forestal.
Simularon estos efectos retirando en sus modelos especies con alta probabilidad de extinción, como las de escasa densidad de población, y reemplazaron lo eliminado con muestras aleatorias de comunidades naturales restantes.
Según sus resultados, dependiendo del escenario de extinción considerado, las proporciones de almacenaje de carbono por parte de la superficie terrestre con masa arbórea variaban hasta más del 600%.
Los métodos de investigación de este equipo científico podrían adaptarse a otros ecosistemas forestales, según los autores del trabajo, con implicaciones para la conservación, la restauración y la gestión de bosques tropicales, que dan claves en el conocimiento de las consecuencias de la emisión de gases de efecto invernadero.

24 octubre 2005

NUEVAS INVESTIGACIONES CONFIRMAN EL ORIGEN VIRICO EN ALGUNOS CASOS DE OBESIDAD

Cierto tipo de obesidad, derivada de un virus, podría evitarse por medio de vacunas, según el equipo médico que lleva investigando la posible relación de la obesidad con un tipo de virus y que ha informado del estado de sus conocimientos en el congreso de la NAASO norteamericana, una asociación líder en investigación científica sobre la obesidad, celebrado la pasada semana en Vancouver.
El investigador Nikhil V. Dhurandhar, del Centro de Investigaciones Biomédicas de Pennington, Lousiana, Estados Unidos, afirmó en Vancouver que el exceso de peso está relacionado, en ciertos casos, con infecciones virales. Explicando el estado actual de sus investigaciones, que ya fueron objeto de un estudio publicado recientemente por el International Journal of Obesity, Dhurandhar señaló que se ha comprobado que el adenovirus 36 (Ad-36) estaba presente seis veces más en los obesos que en las personas de peso normal. Hasta ahora se han identificado al menos 40 subtipos de adenovirus que pueden provocar problemas respiratorios e infecciones gastrointestinales. Según el profesor Dhurandhar, sus investigaciones demuestran que el Ad-36 desempeña un papel crucial en la obesidad humana.

30% de la población infestada
En el estudio publicado en el International Journal of Obesity, que analizó a 502 personas, demostró que el 30 por ciento de ellas presentaban anticuerpos del virus Ad-36, mientras que los mismos anticuerpos estaban presentes únicamente en el 5 por ciento de las personas no obesas.
El estudio reveló asimismo que los obesos infestados con el Ad-36 pesan una media de 20 kilos más que las demás personas investigadas. Estos obesos se distinguen además de los otros en que, paradójicamente, tienen una tasa más baja de colesterol y de triglicéridos.
Los investigadores consideran que el Ad-36 afecta al metabolismo de las células adiposas en crecimiento, favoreciendo la acumulación de grasa y su rápido crecimiento.
Eso significa que una persona infestada por el virus engorda mucho más que otra persona que coma la misma cantidad y tipo de alimentos.
Dhurandhar considera que el exceso de peso está relacionado, en ciertos casos, con infecciones virales.
En consecuencia, de la misma forma que se previenen enfermedades como la rubéola o la polio, señala que una protección similar aplicada en la infancia evitaría que los niños desarrollasen el sobrepeso en la edad adulta. Dhurandhar está especializado en la investigación de las relaciones entre los virus y la obesidad, y ha desarrollado su propia teoría acerca de lo que ha bautizado como el “virus de la obesidad”, perteneciente al grupo de los llamados adenovirus.

Virus identificado
Los adenovirus son virus de tamaño mediano, de los que existen 49 tipos agrupados en seis subgéneros (de la A a la F). Generalmente estables contra agentes químicos o físicos, los adenovirus pueden sobrevivir durante un tiempo prolongado fuera del cuerpo.
Sus efectos más comunes en el organismo humano son las enfermedades respiratorias, pero también producen gastroenteritis, conjuntivitis, cistitis y sarpullidos.
Uno de estos adenovirus es capaz además de producir obesidad.
Las investigaciones de Dhurandhar han demostrado que existe una relación entre la grasa que genera el cuerpo y la presencia de los anticuerpos del AD-36 en la sangre.
Investigaciones previas ya habían demostrado que ratones y monos a los que se les había inyectado dicho virus ganaban peso rápidamente.
Hasta ahora se sabía que la obesidad está relacionada con múltiples factores. Aunque a menudo vaya asociada a un consumo excesivo de alimentos o a un tipo de vida sedentaria, el caso es que también existen otros causas, como la herencia genética, el contacto con los contaminantes o la ingesta de medicamentos.

Evitar graves riesgos
Los riesgos que para la salud entraña la obesidad son múltiples.
Además de la muerte, el sobrepeso propicia un gran número de enfermedades crónicas como la diabetes, la hipertensión, el exceso de colesterol en la sangre, los infartos cerebrales, los problemas cardiacos (varios estudios han demostrado que por cada kilogramo de sobrepeso aumenta en un 1% el riesgo de muerte por enfermedades coronarias), el cáncer (principalmente de colon en hombres y mujeres, de recto y de próstata en hombres, y de útero y pecho en mujeres).
Otras enfermedades derivadas del exceso de peso serían la artritis y los problemas respiratorios.
El Dr. Dhurandhar comenzó a interesarse en los casos virales de la obesidad en los años 80, mientras trabajaba como médico en Bombay, en la India.
Allí pudo constatar que ciertos agentes patógenos provocan un rápido aumento del peso en algunos animales después de ser infestados con el Ad-36.
La NAASO norteamericana ofrece en su web la posibilidad de calcular la masa corporal.
Por su parte, la empresa Obetech ofrece la posibilidad de descubrir si una persona está infestada por el Ad-36.
La obesidad mata cada año en Estados Unidos a 300.000 personas y los descubridores del origen vírico de la obesidad consideran que el AD-36 tiene infectada al 20% de la población norteamericana.
Una vacuna podría prevenir el 15% de los casos de obesidad, según sus estimaciones.

Cirugía peligrosa
La divulgación de los avances en esta investigación coinciden con la publicación de otros estudios en Estados Unidos que desvelan que los riesgos de morir como consecencia de la cirugía aplicada a la reducción de peso son mayores de lo que se pensaba, incluso entre las personas con sobrepeso que están entre los 30 y 40 años de edad.
Hasta ahora se pensaba que la tasa de mortalidad en esta categoría de edad, la más susceptible de sufrir una cirugía para reducir el sobrepeso, era del uno por ciento.
Sin embargo, un nuevo estudio revela que entre los 35 y los 45 años de edad, la muerte se lleva al 5 por ciento de los hombres y al 3 por ciento de las mujeres que han sufrido este tipo de intervenciones quirúrgicas.
Los porcentajes de mortandad se elevan en los pacientes que tienen entre 45 y 54 años de edad.
La posible vacuna contra la obesidad y el descubrimiento de los riesgos quirúrgicos, pueden provocar un giro en los comportamientos asociados a esta enfermedad.
El número de estadounidenses que recurrieron a la cirugía para reducir su peso se multiplicó por cinco entre 1998 y 2002.
Según un estudio de la Agencia para la Investigación y Calidad de la Sanidad (AHRQ), mientras que en 1998 sólo 13.386 estadounidenses recurrieron a la cirugía bariátrica, en 2002 la cifra ascendió hasta los 71.733, debido en gran parte a un aumento del 900 por ciento en las operaciones en pacientes con edades entre los 55 y 64 años.
Escrito por Marta Morales en TENDENCIAS 21.

21 octubre 2005

INVESTIGADORES DEL IFAPA CONSIGUEN EL VIII PREMIO DE CIENCIAS HORTÍCOLAS "CIUDAD DE CÓRDOBA"

Los investigadores del IFAPA, Carmen del Río y Juan Caballero, junto con los investigadores de la UCO, Francisco Javier López-Escudero y Miguel Angel Blanco, han sido galardonados con el VIII PREMIO DE INVESTIGACIÓN EN CIENCIAS HORTÍCOLAS "CIUDAD DE CÓRDOBA".

El Premio creado a iniciativa de la Sociedad Española de Ciencias Hortícolas (S.E.C.H.) y patrocinado por el Ayuntamiento de Córdoba, trata de promover y alentar el interés en la investigación científica en todas las ramas de la horticultura y se concede al mejor artículo de investigación publicado en los últimos cuatro años, estimándose como méritos preferentes la repercusión del trabajo en la práctica, la originalidad y difusión de la innovación, así como su impacto internacional.

El trabajo premiado fue publicado en la revista European Journal of Plant Pathology en el año pasado, y lleva por título: "Evaluation of olive cultivars for resistance to Verticillium dahliae" 110: 79-85.

En esta edición el premio se ha concedido ex-aequo con otro trabajo, realizado por la UCO y publicado en la revista Plant Disease con el título: "Identity and pathogenicity of two Phytophthora taxa associated with a new root disease of olive trees" 85:411-416.

La entrega del Premio se realizará el próximo día 25 de octubre, por la Excma. Alcaldesa de Córdoba, Dña. Rosa Aguilar, en el transcurso de la celebración de la I Jornada de Transferencia de Tecnología al Sector Olivarero, en el Jardín Botánico de Córdoba.

Enhorabuena Juan y Carmen.

NUESTRO UNIVERSO TENDRÍA SEIS DIMENSIONES OCULTAS

Nuestro Universo tendría tres dimensiones espaciales visibles y seis ocultas, según un nuevo modelo teórico elaborado por Andreas Karch, de la Universidad de Washington, y Lisa Randall, de la Universidad de Harvard.
Habría asimismo otros universos con siete dimensiones espaciales visibles y dos compactas, según el mismo modelo, que demuestra teóricamente que la naturaleza favoerece la creación de universos con tres o siete dimensiones visibles, sin recurrir a otras combinaciones.
Los resultados de esta investigación han sido publicados este mes en Physical Review Letters y fueron anticipados en versión integra por Arxiv el pasado agosto.
Según la Teoría de las Supercuerdas, el Universo tiene como mínimo diez dimensiones, nueve dimensiones espaciales y una temporal, pudiendo elevarse a once el numero de dimensiones posibles según te Teoría M.
Sin embargo, hasta ahora no se sabía si las combinaciones de estas dimensiones podían ser aleatorias (dos espaciales, siete ocultas, cuatro espaciales, tres ocultas…) o respondían a un patrón cósmico.
Lo que han hecho Karch y Randall es utilizar las matemáticas para calcular cómo habría sido la formación del Universo inmediatamente antes y después del Big Bang, esa gran explosión cósmica que se cree dio origen a la vida, la materia y el pensamiento.
Y descubrieron que la evolución del Universo responde a un patrón numérico para determinar las dimensiones que estructuran cada manifestación física.

Los primeros momentos
Karch y Randall modelaron cómo se habría organizado el Universo en los primeros momentos y cómo se expandía y se diluía.
El modelo evolucionó espontáneamente y encontraron que las branas (membranas multidimensionales características de ese momento cósmico) se diluían, mostrando las que sobrevivían entre tres y siete dimensiones.
Las branas existen en varias dimensiones espaciales, del uno al nueve, y son consideradas como objetos dentro de la llamada Teoría de las Supercuerdas. Los investigadores han descubierto que el cosmos evolucionó y que dichas branas se fueron concretando, sobreviviendo y desplegándose siempre en tres o siete dimensiones.
Ellos creen en consecuencia que nuestro Universo comenzó formando estas branas según se expandía, lo que ha sido denominado “principio de relajación” (relaxation principle), que es un principio de selección por el cual el Universo “elige” naturalmente entre el vacío y la configuración de formas en el mayor número posible.
Lo que estableció este modelo es que las branas se generan siguiendo los patrones numéricos del 3 y el 7, creando así las universos de diferentes combinaciones de dimensiones.
En nuestro Universo todo lo que vemos y sentimos está contenido en una de esas branas, que en nuestro caso es tridimensional.
Eso es lo que Randall y Karch han inferido de las matemáticas.
Los investigadores señalan además que existen otras realidades que podrían hallarse escondidas para nuestra percepción en el Universo: regiones en cinco dimensiones, en nueve, etc., que los humanos no podemos percibir, pero cuya geometría empieza a ser descrita por las matemáticas.
Hay regiones que se experimentan en 3D. Hay regiones que se sienten 5D. Hay regiones que se sienten 9D. Estas dimensiones extras son infinitamente grandes.
Nosotros sólo estamos en un lugar que se experimenta en 3D para nosotros, asegura Karch en un comunicado de la Universidad de Washington.

Variación del universo en otras dimensiones
En una realidad tridimensional, fuerzas como el electromagnetismo (la interacción electromágnetica es la que se da entre las partículas con carga eléctrica) operan sólo tridimensionalmente y se comportan según las leyes tradicionales de la física: su fuerza disminuye con la distancia.
Pero los investigadores señalan que, en el caso de la gravedad, ésta atraviesa todas las dimensiones, incluso aquéllas que no reconocemos con nuestra percepción. Según ellos, la fuerza de la gravedad, en las siete dimensiones, disminuiría mucho más rápidamente que en el mundo de tres dimensiones.
Una alteración de este tipo en la gravedad, generaría una realidad tremendamente extraña: por ejemplo, no habría planetas que girasen alrededor del Sol con órbitas estables.
No se puede definir cómo sería ese mundo de siete dimensiones, porque es imposible de imaginar para nuestra percepción, pero en cualquier caso, los sistemas planetarios no existirían tal y como los conocemos.
¿Qué habría al otro lado del universo? Según Karch, en un mundo de siete dimensiones la fuerza de la gravedad sería muy débil, y no habría planetas orbitando alrededor de estrellas.
La vida, e incluso la existencia tal y como la conocemos, no podría desarrollarse en ese tipo de universos.
La posibilidad de tener galaxias, estrellas y sistemas planetarios hace a nuestro Universo el más interesante y complejo de la diversidad dimensional.
Escrito por Eduardo Martínez en Tendencias 21.

ALERTA AMAZÓNICA

La deforestación en toda la cuenca del río Amazonas, considerada el gran pulmón del mundo, es peor de lo que se creía hasta ahora. Fundamentalmente, porque las actividades humanas están degradando la selva amazónica al doble del ritmo estimado previamente. Así al menos lo indica un estudio realizado por científicos de la Institución Carnegie de Washington y que este jueves ha publicado la revista Science.
Considerada la cuenca fluvial más grande del mundo, la región amazónica es un gigantesco ecosistema de selvas tropicales sobre una extensión de 7 millones de kilómetros cuadrados. También se le considera como la reserva biológica más rica del mundo, con millones de especies de insectos, plantas, pájaros y otras formas de vida, muchas de las cuales todavía no han sido registradas por la ciencia.


La tala de árboles
Pero más allá de eso, la cuenca es la que regula el clima de casi toda América del Sur y sus árboles son los grandes procesadores de dióxido de carbono y suministradores de oxígeno.
El informe sobre el estudio señala que esa riqueza está bajo amenaza y que el principal factor de la deforestación es la tala indiscriminada de árboles, a lo que se han sumado ahora las actividades de la industria maderera en la región. Hasta ahora, los métodos basados en las imágenes proporcionadas por satélites sólo detectaban las extensiones de terrenos en las que los árboles habían sido talados para dar espacio a las granjas o los pastizales.


Captación de imágenes
Sin embargo, un nuevo método de imagen por satélite desarrollado por los científicos de la Institución Carnegie, encabezados por Gregory Asner, ha logrado determinar niveles más precisos de la deforestación amazónica. El método llamado Sistema de Análisis Carnegie Landsat, en cuyo desarrollo también participó la NASA, permitió a los científicos identificar muchas zonas donde la floresta tropical ha sido reducida a través de lo que calificó como "una tala selectiva".
En este tipo de deforestación sólo se cortan ciertas especies de árboles comercializables y los troncos se transportan a los aserraderos ubicados fuera del campo. Para detectar y cuantificar ese tipo de árboles, en los cinco estados madereros más importantes de la Amazonía brasileña, los investigadores aplicaron el sistema que les permite analizar cada uno de los píxel de la imagen producida por tres satélites. A través de ese análisis lograron determinar el porcentaje de tierra con floresta y sin floresta dentro de cada punto de la imagen.
Los investigadores señalaron que entre 1999 y 2002, la tala selectiva añadió entre 60 y 128% más de área de floresta dañada a lo que se había informado hasta entonces. Según los autores, el volumen total de árboles talados representa entre 10 y 15 millones de toneladas métricas de carbono retirado del ecosistema.


Pérdida de humedad en la selva
La tala genera graves consecuencias ambientales. Entre ellas se produce una eliminación de la humedad característica de la selva y se aumenta el peligro de incendios, señalaron los científicos.
Financiado por la NASA y la Institución Carnegie, en el estudio también participaron científicos del Servicio Forestal de EE UU, el Instituto Internacional de Florestas Tropicales, de Puerto Rico, de la Universidad de Nuevo Hampshire y de EMBRAPA-Amazonia Oriental del estado brasileño de Pará.

20 octubre 2005

ASÍ SERÁ LA EPIDEMIA MUNDIAL DE GRIPE AVIAR

Pensaba no publicar nada de la gripe aviar.
Pensaba no contribuir al sentimiento de alarma que algunos podemos estar padeciendo.
Pero las declaraciones de la Ministra de Sanidad, del Presidente de las Empresas Avícolas o de Antonio Gasca, profesor asociado de la UCO, me obligan a publicar el texto de un artículo de Javier Sampedro, aparecido el domingo pasado, en EL PAIS.

Si los augurios de la Organización Mundial de la Salud son certeros, la historia será más o menos así.
La autoridad sanitaria de algún país del sureste asiático percibe rumores sobre una dolencia respiratoria inusualmente grave que, al parecer, ha brotado en alguna aldea remota.
Cuando los técnicos del ministerio llegan a la zona comprueban que hay ya cinco muertos por neumonía y otros 50 afectados.
Eso quiere decir que el virus brotó hace un mes, y que los aldeanos lo habrán dispersado ya por los pueblos circundantes.
Los análisis comprueban pronto que es así, y que el agente infeccioso es un virus de la gripe.
Las muestras se mandan a un centro de referencia de la OMS para precisar la naturaleza del virus. Subtipo H5N1.
Genes de origen aviar. Mal asunto.
El laboratorio alerta a la Red Mundial de Vigilancia de la OMS y la noticia salta a la primera página de todos los periódicos del planeta.
En los meses siguientes, y pese a todos los controles fronterizos, aparecen casos en un país vecino, luego en otro, luego en otro.
Por todo el mundo se restringen las entradas de viajeros y se imponen cuarentenas, pero un profesional canadiense que regresa a su país desde Hong Kong aterriza sin ningún síntoma y, después de tres días cogiendo el metro para ir al trabajo, descubre que portaba el virus.
En unas semanas se dan casos similares en los demás continentes.
Ha llegado la pandemia.
Es una ficción, pero está basada en un documento oficial publicado por la OMS en abril pasado, y contiene tres predicciones que los científicos consideran casi seguras.

La primera es que la pandemia llegará tarde o temprano.
El virus de la gripe aviar es muy ineficaz cuando salta a las personas -desde 2003, el virus H5N1 ha infectado a decenas de millones de pollos en Asia y sólo ha infectado a 117 personas, matando a 60-, pero de vez en cuando logra adaptarse al ser humano, adquiere eficacia en la transmisión de persona a persona y causa una pandemia: 50 millones de muertos en 1918 (la célebre gripe española), 70.000 en 1957 y 47.000 en 1968.

La segunda predicción es que el virus mutante surgirá en el sureste asiático.
La alarma ha cundido en Europa al confirmarse la presencia del virus H5N1 en las aves de Turquía y Rumania, pero, en realidad, este hecho añade muy poco riesgo a la situación anterior.
Ese virus lleva al menos tres años circulando masivamente por una decena de países asiáticos, en granjas y mercados donde las aves lo transmiten continuamente a los cerdos y otros mamíferos, y donde el contacto con las personas es estrecho y frecuente.
Son las condiciones óptimas para que el H5N1 se vaya adaptando al ser humano.
El virus mutante surgirá en Asia, como en las tres pandemias del siglo XX (incluida la mal llamada gripe española).
Y el mensajero que lo traerá a Europa no será un ave, sino un pasajero de las líneas aéreas.

La tercera predicción es que los controles fronterizos no podrán evitar la pandemia.
El virus Ébola es muy letal, pero sólo se contagia entre personas tras contactos muy directos y prolongados.
El sida y la hepatitis C sólo se transmiten por la sangre y el sexo desprotegido.
Un enfermo de gripe convencional, sin embargo, puede contagiar a medio vagón de metro con un solo estornudo.
Cuando el virus aviar H5N1 se adapte al ser humano, podrá transmitirse entre personas con esa misma eficacia.
"La pandemia causará una reacción que cambiará el mundo de la noche a la mañana", ha escrito en NatureMichael Osterholm, asesor del Gobierno de Estados Unidos y epidemiólogo de la Universidad de Minesota.
"Cada Gobierno intentará impedir que el virus entre en su país restringiendo o suprimiendo los viajes y el comercio externo. Estas medidas están condenadas al fracaso, debido a la gran infectividad del virus y al tráfico ilegal que ocurre en toda frontera".
Nadie sabe si la adaptación del virus se producirá el mes que viene o dentro de diez años, pero el consenso científico es que ocurrirá.
Si la pandemia no puede evitarse, lo fundamental es prepararse para gestionarla y minimizar sus daños.
La OMS y la comunidad científica coinciden en que la preparación para la crisis tiene tres patas: vacunas, antivirales y planes de emergencia.
¿Hasta qué punto estamos preparados?
Todos los expertos coinciden en que una vacuna será el mejor método para luchar contra la pandemia.
No sólo reducirá drásticamente el volumen de contagios, sino que también reducirá la gravedad de los síntomas.
El problema es que la vacuna no puede prepararse por anticipado.
La OMS y los laboratorios Sanofi-Pasteur han desarrollado una vacuna prototipo contra el virus H5N1 que circula entre las aves asiáticas desde 2003, pero ese virus no causará una pandemia mientras no mute y se adapte al ser humano, y lo más probable es que esas mutaciones le hagan invisible para la vacuna actual.
"Si el virus que se adapte a los humanos es parecido al H5N1 actual, hay una posibilidad de que la vacuna prototipo lo reconozca y tenga alguna utilidad", admite Juan Ortín, especialista en la biología molecular del virus de la gripe del Centro Nacional de Biotecnología.
"Pero no tiene por qué ser así, y además nadie sabe si la pandemia vendrá del H5N1 o de otro subtipo distinto. Desarrollar el prototipo era necesario, porque este virus planteaba retos técnicos que nunca habían sido resueltos. Por ejemplo, las vacunas antigripales convencionales se cultivan en embriones de pollo, y el H5N1 es tan letal para las aves que mata a los embriones. Era imprescindible resolver este problema. Pero no tiene mucho sentido producir esta vacuna en masa y almacenarla".
La OMS y los laboratorios fabricantes saben ahora cómo hacer una vacuna contra el H5N1, pero no podrán hacerlo hasta que surja el primer brote humano y se aísle la variante exacta del virus que lo causa.
Eso implica que la vacuna no estará disponible hasta seis meses después del origen de la pandemia.
Aún así será un arma esencial en las fases tardías de la pandemia.
Hay otro problema más grave aún que ese retraso de seis meses.
Para verlo, basta examinar la situación actual con las vacunas antigripales convencionales.
La gripe humana vulgar mata cada año a cerca de un millón de personas en el mundo (las estimaciones varían entre 500.000 y 1,5 millones de muertos).
La mayoría de esas muertes se podrían evitar con las vacunas actuales, pero la industria mundial sólo tiene capacidad para producir 300 millones de dosis de vacuna al año. "Los afortunados que reciben la vacuna contra la gripe representan menos del 5% de la población mundial", afirma Osterholm.
Aun cuando toda la capacidad de fabricación de vacunas antigripales se desplazara, en caso de pandemia, a la producción de vacuna contra el H5N1 de origen aviar, sólo se podría proteger al 5% de la población mundial.
Ésta, de hecho, es una de las dos razones para aumentar drásticamente esa capacidad de producción.
La otra es ir ampliando las campañas de vacunación contra la gripe convencional.
"En España debemos tener una planta de fabricación de vacunas antigripales" admite el director general de Salud Pública, Manuel Oñorbe.
"Es aconsejable con o sin pandemia, porque aumenta nuestra capacidad de vacunación convencional.
Además es una industria limpia, y genera puestos de trabajo".
Oñorbe, sin embargo, calcula que la planta no puede estar lista antes de 2009.
El único fármaco antiviral útil en caso de una pandemia causada por el H5N1 es el Tamiflu (nombre comercial del principio activo oseltamivir), fabricado por los laboratorios Roche en su planta de Basilea (Suiza).
Se trata de un fármaco patentado, caro y de producción laboriosa.
Con una sola planta de fabricación en el mundo, las advertencias de la OMS sobre una probable pandemia han causado un previsible desbordamiento de la demanda.
Los países occidentales -y otros que no lo son pero tienen dinero, como Quatar- se han lanzado a una carrera por el Tamiflu. Francia y el Reino Unido, por ejemplo, acaban de solicitar cada uno cerca de 15 millones de tratamientos, calculados para medicar al 25% de su población.
España, que ya había comprado hace cuatro meses dos millones de tratamientos (menos del 5% de la población), se planteará la semana que viene, en una reunión entre el Ministerio de Sanidad y los responsables autonómicos de salud pública, aumentar el pedido hasta cubrir al 20% o el 25% de la población.
Pero Roche ya ha advertido que no puede satisfacer todas esas demandas a corto plazo.
Su capacidad de producción anual de Tamiflu es uno de los secretos mejor guardados de la industria farmacéutica, pero de ningún modo puede llegar a cubrir al 25% de la población de todos los países ricos.
Algunos analistas financieros estimaban el año pasado un volumen de fabricación de 1,5 millones de tratamientos anuales.
Roche asegura que este año ha duplicado la producción, y que la volverá a duplicar el año que viene.
Eso daría seis millones de tratamientos anuales.
Por mucho fármaco que la empresa tenga en sus almacenes, los países ricos no podrán cubrir al 25% de su población de inmediato.
Pero ¿cuánto Tamiflu hace falta realmente?
Un reciente estudio del Ministerio de Salud israelí y la Universidad Ben-Gurion (Emerging Infectious Diseases, 11:1280, agosto de 2005) ha concluido que la mejor relación entre coste (del fármaco) y beneficio (por reducción de contagios, muertes y pérdidas económicas) se obtiene usando el Tamiflu sólo para tratar a las personas contagiadas que pertenezcan a los grupos de riesgo de la gripe convencional (ancianos, enfermos crónicos e inmunodeprimidos).
En España, los dos millones de tratamientos ya comprados bastarían para esto y para proteger al personal sanitario y de emergencias.
Pero hay otras dos estrategias que también tienen una buena relación coste-beneficio.
Una es tratar a todos los afectados, pertenezcan o no a los grupos de riesgo.
La otra es proteger preventivamente a cualquier persona que haya tenido contacto con ellos (profilaxis en anillo).
Los dos millones de dosis que ha comprado España pueden ser insuficientes para estas medidas.
"El Tamiflu será muy importante en la primera onda de la pandemia, antes de que esté lista la vacuna", afirma Ortín.
"No tengo una opinión sobre las dosis necesarias, pero sí sobre las dos estrategias que deben ser prioritarias: tratar a los primeros infectados, que difícilmente alcanzarán el millón de pacientes, y proteger preventivamente a las personas que hayan tenido contacto con ellos. Esta medida será probablemente útil y eficaz".
El Tamiflu, en cualquier caso, no es ninguna panacea.
Su eficacia es moderada contra la gripe convencional, nula después de dos días de infección y desconocida contra la futura pandemia.
Además, su uso genera virus resistentes.
Los planes de emergencia, por tanto, son esenciales.
El plan español sigue de cerca las recomendaciones de la OMS, y el Ministerio de Sanidad asegura que el país está preparado para sus retos básicos: identificar de inmediato la cepa del virus, aislar los casos y adaptar el sistema sanitario para una posible crisis. "El plan pandémico es razonable", dice Ortín.
"Pero lo más importante es que incluye los esquemas necesarios para reaccionar con rapidez a los factores impredecibles y para corregir las estrategias sobre la marcha".Ortín asegura que "la intención de la OMS no es alarmar a los ciudadanos, sino a las autoridades sanitarias".
La mala noticia es que ha fallado en lo primero.
La buena es que, por fin, ha conseguido lo segundo.

19 octubre 2005

¿QUIEN SE ASUSTA DE LAS LLAMARADAS SOLARES?

El mes pasado, el Sol enloqueció.
Casi todos los días, durante dos semanas a comienzos de septiembre, brotaron llamaradas solares de una mancha solar gigante llamada "región activa 798/808."
Rayos X ionizaron las capas superiores de la atmósfera de la Tierra, y protones solares acribillaron la Luna. No era un buen momento para estar en el espacio.
¿O quizás sí lo era?
Durante las tormentas, algo extraño sucedía a bordo de la Estación Espacial Internacional (EEI): Los niveles de radiación descendieron.
"La tripulación de la EEI absorbió un 30% de rayos cósmicos menos de lo habitual," dice Frank Cucinotta, jefe de salud radiológica del Centro Espacial Johnson de la NASA. "De hecho, las tormentas mejoran el ambiente de radiación dentro de la Estación."
Este fenómeno se conoce desde hace mucho tiempo.
Los científicos lo llaman "Reducción de Forbush" en honor al físico americano Scott E. Forbush, que estudió los rayos cósmicos durante los años 30 y 40.
Cuando los rayos cósmicos golpean la capa más alta de la atmósfera terrestre producen una lluvia de partículas secundarias que pueden llegar hasta la Tierra.
Monitoreando estas lluvias Forbush observó que, contrariamente a lo que se esperaba, las dosis de rayos cósmicos disminuye cuando la actividad solar es elevada.
La razón es sencilla: cuando las manchas solares explotan, frecuentemente arrojan enormes nubes de gas caliente lejos del Sol.
Estas nubes, llamadas CMEs (eyecciones de masa coronal), contienen no sólo gas sino también campos de fuerza magnética, nudos de magnetismo arrancados del Sol por la explosión.
Los campos magnéticos desvían las partículas cargadas, de modo que cuando una CME pasa más allá de la Tierra, también arrastra la mayor parte de los rayos cósmicos cargados eléctricamente, que de otro modo chocarían con nuestro planeta. En esto consiste la "Reducción de Forbush."
Dondequiera que las CME aparezcan, los rayos cósmicos son desviados.
La Reducción de Forbush ha sido observada en la Tierra y en la órbita terrestre a bordo de la MIR y de la EEI.
Las astronaves Pioneer 10 y 11 y Voyager 1 y 2 la han experimentado también allende la órbita de Neptuno.
Una simple CME puede suprimir los rayos cósmicos durante varias semanas.
La actividad solar sostenida puede suprimirlos durante mucho más tiempo: "Inesperadamente, el Sol ha estado activo en el año 2005," observa Cucinotta. Desde enero, los astrónomos han contado 14 potentes llamaradas solares de clase X y un número todavía mayor de CMEs. Como consecuencia, "la tripulación de la EEI ha absorbido menos rayos cósmicos a lo largo de todo el año".
El resultado final es inesperado porque las llamaradas y CMEs son por sí mismas fuentes de radiación letal.
En particular, las CME producen "tormentas de protones".
Con rumbo a la Tierra, las CME corren por la atmósfera exterior del Sol, abriéndose paso entre el gas caliente a velocidades que superan el millón y medio de kilómetros por hora. Los protones que entran en el camino de una CME pueden ser acelerados a energías peligrosas.
Ningún astronauta desea encontrarse una nube de protones solares de alta energía.
Las tormentas severas son nocivas; la exposición a ellas causa vómitos, fatiga y reducción de glóbulos rojos.
Sin atención médica, un astronauta enfermo de radiación podría morir.
Ahora las buenas noticias: Pocos protones solares consiguen penetrar las paredes de las naves espaciales de la NASA.
Mientras los astronautas permanezcan en su interior están a salvo.
Los rayos cósmicos son diferentes... son peores.
Los rayos cósmicos están supercargados de partículas subatómicas que llegan principalmente de fuera de nuestro sistema solar.
Las fuentes incluyen explosiones de estrellas, agujeros negros y otros tipos que superan al Sol en violencia.
A diferencia de los protones solares, los cuales son relativamente fáciles de detener con materiales tales como aluminio o plástico, los rayos cósmicos no pueden ser completamente detenidos por ninguna tecnología protectora conocida.
Incluso en el interior de las naves, los astronautas están expuestos a una pequeña lluvia de rayos cósmicos que atraviesa las paredes.
Las partículas penetran en la carne, produciendo daños microscópicos en los tejidos.
Un posible efecto secundario es la rotura de ADN, la cual puede con el tiempo producir cáncer, cataratas y otras enfermedades.
Nadie sabe todo lo que los rayos cósmicos pueden producir en los seres humanos. "No hemos permanecido en el espacio durante el tiempo suficiente" dice Cucinotta..
Excepto durante los breves viajes a la Luna hace cuarenta años, nos explica, los astronautas nunca han estado totalmente expuestos a los rayos cósmicos de la galaxia.
Cerca de la Tierra, donde orbita la EEI, la tripulación está protegida no sólo por las paredes de la nave sino también por el campo magnético terrestre y el gigantesco cuerpo sólido de la Tierra.
Un viaje de seis meses a Marte, lejos de estos escudos naturales, sería algo nuevo.
¿Cuáles son los peligros de un largo viaje?
¿Cuánta protección se necesita para mantener a los astronautas a salvo?
Los investigadores de la NASA están estudiando estos interrogantes.
Una cosa está clara: "El descenso de la exposición es algo positivo," dice.
El Sol puede ayudar.
Cada 11 años, la actividad solar alcanza un punto frenético llamado Máximo Solar.
El último aconteció en el año 2000; están previstos futuros episodios en 2011 y 2022.
Durante el Máximo Solar, las CME se producen diariamente, y el viento solar lanza intricados campos magnéticos por el sistema solar interior, de forma rutinaria.
Estos campos proporcionan una medida protectora adicional para los viajes a la Luna y Marte, disminuyendo hasta mas de 30% la intensidad de los rayos cósmicos que pueden oscilar en un rango de energía biológicamente peligrosa de 100 a 1000 megaelectronvoltios.
Los encargados de las misiones del futuro podrían programar largos viajes por el sistema solar de tal manera que coincidan, aproximadamente, con el Máximo Solar, aprovechando así la reducción de rayos cósmicos.
Después de todo, quizá las llamaradas solares no sean tan hostiles.
Tomado de NASA

18 octubre 2005

EL CONSUMO DE PESCADO REDUCE EL RIESGO DE PÉRDIDA DE FACULTADES MENTALES EN LA VEJEZ

Según publica en este mes la prestigiosa revista científica Archives of Neurology, un consumo de pescado de al menos una vez a la semana está asociado con un menor declive de la consciencia en las personas mayores.
El estudio, que ha sido realizado por investigadores del Rush University Medical Center de Chicago, ha consistido en analizar durante seis años, los hábitos de pacientes de más de 65 años encontrando una correlación positiva entre el consumo de pescado y la menor pérdida de facultades neurológicas.
Los científicos descubrieron una pérdida menor en un 10-13 % en los que consumían al menos pescado una vez por semana, en relación con los que tenían un consumo menor.
El pescado, sobre todo el pescado azul (graso), como las sardinas, boquerones, caballa, atún, etc. es la principal fuente de ácidos omega-3 considerados esenciales en el desarrollo neurocognoscitivo del cerebro. Un alto consumo de omega-3 está asociado con un menor riesgo de demencia senil y de enfermedades coronarias.

CORDIS, HA ACTUALIZADO EL SERVICIO DE BÚSQUEDA DE PROYECTOS DEL VI PROGRAMA MARCO


CORDIS, el Servicio de Información Comunitario sobre Investigación y Desarrollo ha actualizado el servicio "Find a project" del VIPM programa marco de investigación, integrando nuevos perfiles de proyectos relacionados con todas las áreas de actividad del programa.

Existen en la actualidad más de 2.000 fichas informativas que incluyen información sobre nuevos proyectos relacionados con las áreas de Ciencia y Sociedad, Infraestructuras de Investigación y Cooperación Internacional, así como sobre las primeras acciones Marie Curie sobre recursos humanos y movilidad.
La publicación de los proyectos Marie Curie lanzados constituye la aportación más significativa a los registros de proyectos del VIPM que alberga CORDIS, que en la actualidad superan los 700.
Entre ellos figuran todas las modalidades contractuales de Marie Curie, ya sean para las Redes de formación mediante la investigación, las Becas Intraeuropeas o las Primas europeas de Reinserción.
Otras áreas de actividad que incluye el servicio "Find a project" del VIPM, como las nanotecnologías y las nanociencias, materiales multifuncionales basados en el conocimiento, nuevos procesos y dispositivos de producción, o las ciencias de la vida, la genómica y la biotecnología aplicada a la salud se han ampliado con nuevos perfiles de proyectos.
Para más información sobre el servicio de Proyectos del VIPM, pincha aquí

17 octubre 2005

SE BUSCAN 60.000 CIENTÍFICOS

José Luís Barbería publica hoy en EL PAIS este interesante artículo:

Deprisa, deprisa, hacen falta 60.000 nuevos investigadores antes de que finalice esta década, hay que recuperar o incorporar a otros 900 científicos de prestigio internacional, tenemos que crear grandes infraestructuras tecnológicas y convencer a las empresas y al conjunto de la sociedad de que la investigación propia es el valor añadido que nos asegura la prosperidad.

Avisada ya del peligro por la persistente pérdida de productividad y competitividad exterior, y por el aumento del déficit comercial, España reacciona como acostumbra a hacerlo en los momentos comprometidos: tarde, desde luego, pero intentando la hazaña, el gran salto adelante que debe permitirle salvar el retraso acumulado.
Ese salto, un vuelo de cinco años, está encaminado a trasladar a nuestro país a la privilegiada orilla de las economías que se blindan frente a la competitividad globalizadora creciente, renovando su apuesta por la innovación tecnológica.
¿Conseguirá España enterrar definitivamente la morbosa leyenda negra de su pobre disposición para la investigación científica, conjurar el resentido maleficio unamuniano del "que inventen ellos", superar ese secular complejo de inferioridad ante las ciencias aplicadas y experimentales que, contra la evidencia demostrada en tantos casos, continúa adherido a la piel de este país?
Aunque, por ahora, no es oro todo lo que reluce en los reforzados presupuestos gubernamentales -buena parte del aumento son créditos reembolsables a largo plazo con interés cero, no subvenciones-, entre la comunidad científica circula una brisa expectante, vivificadora.
¿No es extraordinario que los investigadores españoles, genuinos francotiradores de la ciencia más que gentes de equipo, hayan salido de sus parapetos para organizarse a campo abierto? Por una vez, nuestros científicos abandonan la narración lacrimógena de sus conocidas miserias, mudan el rictus amargo de la vieja frustración heredada y transmitida por todos aquellos, desde Juan de la Cierva hasta el último de los actuales becarios sin derecho al desempleo, que han constatado que investigar en España es, muchas veces, llorar.

Ellos ya han dado un primer paso: tomar la iniciativa, evaluar la situación, detectar las fallas del sistema, lanzar propuestas. "Hemos organizado un ejército de 30.000 científicos que va a pelear para que España no pierda el tren del futuro, que es la economía basada en el conocimiento", proclama el presidente de la Confederación de Sociedades Científicas de España (Cosce) y director del Parque Científico de Barcelona, Joan Guinovart. "La armada científica más potente que ha existido nunca en este país", como dice él, ha puesto sobre la mesa del Gobierno un amplio informe, fruto de un año de reflexiones, consultas y estudios, que habla, desde luego, de dinero, -"no investigar se pagará mucho más caro"-, pero también de la necesidad de flexibilizar los estamentos de la política científica, de mejorar la formación de los investigadores y hasta de cambiar la mirada, distraída y distante, con que la sociedad contempla a la ciencia.

EL PERÍODO MÁGICO
Hay esperanza, entre otras cosas, porque el precedente de la política de inversiones y becas a los posgraduados puesta en marcha a mediados de los años ochenta demostró sobradamente el talento de los investigadores que completaron su formación en centros internacionales.
Aunque sin continuidad posterior, y de ahí viene el retroceso relativo acumulado en la última década, aquello constituyó un gran avance.

"Duplicar el presupuesto de I+D, que entonces estaba en un raquítico 0,4% del PIB, dio paso a un periodo mágico. Fue como un descubrimiento: de repente, los españoles empezamos a pintar algo en la ciencia; en poco tiempo llegamos a publicar el 3% de los trabajos científicos mundiales", señala Carlos Martínez Alonso, presidente del Consejo Superior de Investigaciones Científicas (CSIC), el principal organismo de investigación.

Muchos de aquellos cientos de jóvenes investigadores optaron por quedarse en sus países de adopción porque encontraron allí los medios, los salarios y la proyección profesional que les negaba su patria, pero los que volvieron crearon los pilares sobre los que se asienta hoy la ciencia en España. "Estamos viviendo de la cosecha de los años ochenta, así que tenemos una comunidad científica envejecida que urge rejuvenecer y ampliar. Nuestra edad media está entre los 50 y los 55 años y los jóvenes que llegan a nuestro centro rondan ya generalmente la cuarentena", apunta el director del CSIC.

La idea, bastante extendida, de que el momento de máxima creatividad científica se produce normalmente en la treintena no anula el propósito de recuperar a buena parte de los investigadores españoles asentados en el extranjero. "Necesitamos a todos los talentos que tenemos fuera, independientemente de su edad, necesitamos de todo su ingenio, su prestigio y su experiencia porque, sencillamente, España se juega su papel en el mundo. Es ahora o nunca", enfatiza, a su vez, Joan Guinovart, director de Cosce.

Gran parte de sus colegas comparten, en efecto, la impresión de que el tiempo de los esfuerzos voluntariosos y esporádicos se acaba y que sólo una enérgica y sostenida reacción puede permitir a la investigación española sobrevivir en los tiempos venideros. "Señor presidente, siento decirle que nos queda poco tiempo. La ventana de oportunidad temporal puede durar lo que su actual legislatura. Aproveche la ocasión. Si no lo hace, probablemente será mejor que dedique los recursos a otros temas, ya que muy probablemente seremos dependientes tecnológicamente en muchos sectores durante el siglo XXI", indica Francisco Bas, ex secretario general de Asebio (Asociación Española de Bioempresas), en la carta que ha enviado al presidente del Gobierno.

EL TRIÁNGULO DEL CONOCIMIENTO
"Habrá dinero", ha asegurado José Luis Rodríguez Zapatero: más becas, más contratos, más subvenciones. El Estado incrementará en un 25% como mínimo su presupuesto anual de I+D+i (investigación, desarrollo, innovación) con el propósito de que en 2010 el conjunto de la inversión pública y privada sume 19.000 millones de euros, el 2% del producto interior bruto (PIB), prácticamente el doble de lo que ahora se gasta en España.

No llega a ser el 3% que la Unión Europea se fijó como objetivo para esa misma fecha de 2010 en el Consejo de Lisboa, y seguiremos estando muy lejos de las cifras de Estados Unidos, Japón, Corea o los países nórdicos, pero ese salto permitirá a España reducir notablemente la brecha y acercar el horizonte de la convergencia con Europa, situada hoy a 20 años vista.

Duplicar la inversión en I+D, esto es, pasar del actual 1,05% al 2% del PIB, es simplemente hacer los deberes elementales para poder disponer de la capacidad de investigación propia que le correspondería a España por su peso en la economía mundial. Porque si hablamos en términos absolutos, nos encontramos con que, de acuerdo con el estudio realizado por Main Science & Technology en 2001, España invierte en I+D un total de 9.400 millones de dólares en un año, mientras que Francia gasta 38.000; Alemania, 54.300; Japón, 106.900, y Estados Unidos, 277.100.

El "triángulo del conocimiento", formado por la educación, la investigación y la innovación, entendida esta última como transferencia de conocimiento a la empresa, se erige en la piedra angular de la nueva economía de los países desarrollados.

Lo que está en juego en España es el bienestar futuro de una sociedad que crece y genera empleo, efectivamente, pero en base a un modelo descompensado, dependiente de la construcción y de la demanda interna, que le lleva a retroceder significativamente en los indicadores mundiales de competitividad y le incapacita para superar la prueba obligada de los mercados exteriores. La pregunta lógica es hasta cuándo podrá sobrevivir ese modelo en un mundo, el del "capitalismo de la innovación extensiva", que está pasando de la era industrial a la economía fundada en el saber.

A LA COLA DEL COMERCIO ELECTRÓNICO
Ciertamente, con los datos en la mano, el panorama se presenta preocupante. Pese al esfuerzo realizado a lo largo de las dos últimas décadas, la octava economía mundial por tamaño del PIB continúa a la cola de la inversión en I+D de los países desarrollados, incrementando su dependencia tecnológica.

Según el informe Factbook 2005 de la OCDE (Organización para la Cooperación y el Desarrollo Económico), España dedicó en 2000 a la "inversión en conocimientos", concepto que engloba los gastos en I+D, en educación universitaria pública y privada y en nuevas tecnologías, el 2,5% de su PIB, poco más de la mitad de lo que lo hicieron países europeos como Alemania (4,8%) o Francia (4,6%), y mucho menos que Corea (5,4%) o EE UU (6,8%).


Aunque la economía española supone el 8% de la economía de la Unión Europea a 15, somos los que menos invertimos en equipamiento tecnológico en el sector de la producción, y nuestro comercio electrónico (Internet) es el menos activo de toda la Comunidad Europea, menos también que Portugal y Grecia, los países con los que tantas veces España comparte el pelotón de cola.


Visto así, no deja de ser sorprendente que la ciencia española haya logrado asomarse en algunos de los terrenos reservados a la élite mundial. Porque las cifras que dan cuenta de nuestra pobre inversión, tanto en I+D como en formación -somos también uno de los países europeos que menos gasta por estudiante-, están lejos de mostrar la calidad de la investigación básica en nuestro país.


Y, por lo mismo, la idea de subdesarrollo científico que sugieren los datos sólo tiene sentido como reflejo de que la apuesta inversora no se corresponde con el potencial económico y humano del país, ni atiende al reto planteado a las sociedades desarrolladas.


España es una potencia media tecnológica que suple sus graves carencias propias recurriendo al mercado internacional. El problema es el futuro, el peligro de que los sectores productivos sean incapaces de competir en costes en un mundo que está haciendo de la tecnología su gran valor añadido.


De hecho, las advertencias de los analistas internacionales han empezado a multiplicarse: "España corre el riesgo de perder competitividad y de sufrir un retroceso tecnológico", apuntan expertos de la OCDE y de la ONU. "Los países como España que han confiado su inversión a gran escala para la producción de tecnología media a compañías extranjeras dispondrán de un valor añadido en su producción relativamente bajo y serán más vulnerables a la amenaza competitiva de los países de fuera de Europa", sostiene Luis A. Walter, socio responsable del área de Mercados Industriales y Automoción de KPMG en España.

Un estudio de esa misma compañía muestra que la clave para superar el reto de la producción a bajo coste es asegurarse de que los productos vayan un paso por delante de los que fabrican las regiones industriales emergentes. Los perdedores serán las compañías que no hayan invertido en I+D.

EL PAÍS DE LA FREGONA
El caso de España emite señales alarmantes porque, además, su número de patentes (los derechos de explotación en exclusiva de un invento por un periodo determinado) alcanza cifras paupérrimas.
Según la misma OCDE, España registró en 2000 un total de 113 patentes, frente a las 1.794 del Reino Unido, las 5.777 de Alemania o las 14.985 de EE UU. Y las cosas no han cambiado significativamente en ese aspecto clave.
Son datos desalentadores que parecen abonar el pesimismo histórico español. "Aquí no se ha inventado otra cosa que la fregona y el chupa-chups", se dice a menudo, con una mezcla de frustración y desprecio. Es un comentario doblemente injusto, en la medida en que ignora los importantes logros obtenidos por la ciencia española en estos últimos años y desprecia, de paso, los pocos ejemplos existentes de ingenio aplicado a la industria.
Hay quien considera un sarcasmo que el inventor de la fregona y de la aguja desechable, Manuel Jalón, haya sido incluido, alguna vez, entre el selecto y diminuto grupo de investigadores españoles reconocidos por la historia: Ramón y Cajal (la neurociencia), Isaac Peral (el submarino), Miguel Servet (la circulación de la sangre), Juan de la Cierva (el autogiro).

Con toda su aparente modestia, la fregona puso en pie a millones de mujeres en todo el mundo y facilitó la incorporación del hombre a estas tareas.
Su artífice merecería, quizás, un reconocimiento más franco, no condicionado por el viejo complejo español que tiende a infravalorar o a desconfiar de lo propio. Cristina Garmendia, directora de Genetrix y presidenta de la Asociación Española de Bioempresas (Asebio), recuerda muy bien la reacción que obtuvo al presentar su primer proyecto de patente al Consejo de Administración: "Y si es una cosa tan buena, ¿cómo es posible que no la hayan descubierto los americanos o los alemanes?". El gran golpe de timón de la investigación española debería ir acompañado de un cambio de mentalidad general que, además de acabar con la inclinación a mortificarse, a recrearse vanamente en las deficiencias domésticas, conduzca a armarse de determinación y a apreciar en lo que vale el trabajo de las 70.000 personas que sostienen la investigación española y la calidad de centros y los experimentos en marcha.

España no está sobrada, precisamente, de descubrimientos aplicables a la industria, de la misma manera que, contra lo que proclama el recurrente mito-refugio ("A los españoles nos sobran las ideas, lo que nos faltan son medios"), tampoco es evidente que los genios abunden entre nosotros. Lo dice el presidente del CSIC, Carlos Martínez: "Ni nos sobran las ideas, ni contamos con grandes genios. Somos un país de toreros, francotiradores y guerrilleros, tipos duros, individualistas, acostumbrados a sobrevivir en la penuria financiera, pero sólo hemos producido un auténtico genio, Ramón y Cajal, un personaje extraordinario que sin otros medios que la observación personal dio el gran salto cualitativo y descubrió de la nada la neurociencia. Hay que cambiar el sistema de reparto del dinero, que fomenta el individualismo: cinco señores reciben más subvenciones cada uno por su lado que si formaran equipo. Pero también los científicos tenemos que cambiar, porque la ciencia ya no es el resultado de personajes singulares, sino un proceso de avances continuos".

Ahora, el genio es el que trabaja y sabe hacerlo en equipo. Aunque la investigación sigue requiriendo personalidades singulares, necesita también, cada vez más, visiones alternativas y complementarias. "Para que se produzca un cambio", indica, "hace faltan antes los avances que crean el nuevo espacio". Es una opinión compartida por Joan Guinovart: "La ciencia moderna se ha convertido en un asunto de los ejércitos regulares de científicos y por eso la guerra de guerrillas, tan española, ya no tiene sentido. Al mismo tiempo, tenemos que acabar", apunta, "con la costumbre de la tutela que ejercen las figuras en España y que hace que los jóvenes y no tan jóvenes vivan a la sombra de un protector, dependiendo de él para todo: financiación, laboratorios, contactos... No, señor: si sale un tipo bueno, hay que darle un laboratorio, dinero y una plaza. Y lo mismo si son dos, tres o los que sean".

EL TALÓN DE AQUILES
La cifra de patentes pone al desnudo, desde luego, la enorme laguna de la ciencia aplicada española, pero sigue siendo un reflejo engañoso, injusto, del nivel real de la investigación en nuestro país. En primer lugar, porque los investigadores españoles no están mal situados en lo que se refiere a la publicación de sus trabajos en las revistas científicas de prestigio, un indicador siempre elocuente de la calidad de la actividad investigadora.

Disponer del 2,7% de los artículos científicos publicados en el mundo puede ser, efectivamente, un dato aceptable para un país que cuenta con el 2% de la riqueza mundial en términos de PIB. Aceptable, sí, aunque, como matiza Carlos Martínez, una cosa es la cantidad, otra la calidad y otra la utilidad de esos trabajos para el tejido industrial.


"Publicamos, sobre todo, perfeccionando las aportaciones de otros y hacemos pocas cosas muy importantes. No tenemos campeones, no tenemos un Alonso de la ciencia, no hay una asociación clara entre publicaciones y patentes", dice el director del CSIC. A juicio de Cristina Garmendia (directora de Genetrix), el problema es que "el investigador español no está mentalizado en la necesidad de proteger sus resultados porque hasta ahora se le ha juzgado exclusivamente por el número de sus publicaciones y no por el de sus patentes".

"¿Qué pasa con la empresa española, se ha acostumbrado a pagar los royalties, cree que podrá sobrevivir sin innovar?". Es la gran pregunta que se hacen los responsables de la investigación científica.

Porque no deja de ser paradójico que el número 1 en la titularidad de patentes -suyo es también el invento de las gulas, sucedáneo de las angulas- sea un organismo público como el CSIC y no la empresa privada.

Así que se puede tener un nivel aceptable en la investigación básica y carecer de penetración en la investigación aplicada a la industria.
Ésa es la gran falla del sistema.

Ocurre que las empresas españolas, las más interesadas, teóricamente, en desarrollar el I+D aplicado a sus productos, invierten proporcionalmente en investigación mucho menos que las compañías europeas, y no digamos nada que las norteamericanas.

Mientras la financiación empresarial en el conjunto de la Unión supone de media el 58% del dinero efectivo destinado a I+D+i, en España ese porcentaje queda reducido al 48%, lo que obliga, a su vez, a los poderes públicos a hacer un esfuerzo presupuestario adicional muy superior. Ahí, en la atonía empresarial, está el principal talón de Aquiles de la investigación española.

15 octubre 2005

¿MOSQUITOS FLUORESCENTES?


Según publica la revista Nature, científicos británicos del Imperial College de Londres, han obtenido mosquitos transgénicos de la especie stephensi.
La importancia radica es que esta especie, el Anopheles stephensi, junto con otras, es el principal vector de transmisión de la malaria.

La modificación genética ha consistido en que expresen una proteina fluorescencente, la EGFP, en sus gónadas masculinas.
De esta manera es posible separar machos y hembras de forma segura y liberar al medio sólo machos estériles con lo que se abre un nuevo campo para la lucha biológica.
En otras especies de insectos los resultados positivos de la lucha biológica se han visto espectacularmente aumentados cuando se ha podido diseñar un método para poder identificar machos y hembras y soltar al medio ambiente solamente los machos estériles.
Muchas especies de insectos son fecundados una vez en toda su vida, y el que haya disponibles muchos machos estériles reduce de forma drástica la población.

13 octubre 2005

EN BUSCA DE UN SISTEMA DE CERTIFICACIÓN DE LA CALIDAD CINEGÉTICA

Como todo no va a ser extraer noticias de Nature, Science o Tendencias 21, por poner algunos ejemplos de donde bebe este blog, publico a continuación una noticia de la que he podido ser copartícipe.

La semana pasada, en Madrid, en la Sala de Juntas de la Facultad de Biología de la Universidad Complutense, tuvo lugar la primera reunión de científicos que investigan en temas cinegéticos con los principales representantes del sector de la caza en España.
A la reunión convocada por iniciativa de los investigadores, asistieron científicos de la Universidades de Extremadura, Málaga o Complutense de Madrid, por citar algunas. Y también científicos del CSIC y del IFAPA.
Por el sector cinegético acudieron representantes de la Real Federación Española de Caza, de la Junta Nacional de Homologación de Trofeos, del Consejo Internacional de la Caza o de la Oficina Nacional de la Caza.
Tambien estuvieron presentes representantes de algunas Consejerías de Medio Ambiente (Andalucía, Navarra y Castilla-La Mancha), así como los principales medios de comunicación especializados en la caza.
El objetivo era debatir para crear un Sistema Voluntario de Certificación de la Calidad Cinegética.
El tema es arduo y complejo y obviamente no ha acabado en esa reunión. Se sucederán las reuniones y los seminarios. Y hasta se publicará proximamente un libro que resuma todas las posturas.
Es un largo camino que merece todos los esfuerzos para alcanzar que el resultado de conjugar lo biológico y lo socioeconómico sea un producto de calidad, ético y sostenible.
Continuaremos informando.

11 octubre 2005

EL ORIGEN DE LA PATATA ESTÁ EN PERÚ

Un estudio fitogenético de la Universidad de Wisconsin-Madison y del Departamento de Agricultura de los EE.UU (USDA), aclara definitivamente el origen de la patata. Y lo sitúa en Perú.
DE esta manera se pone fin a la vieja controversia sobre si el origen estaba en Perú o en otros lugares de Sudamerica, como el sur de Chile, donde existe una gran diversidad de patatas.
El estudio ha analizado marcadores genéticos en 261 variedades de patatas silvestres y 98 cultivadas, demostrando el origen único de la patata en el sur de Perú, en lugar del origen múltiple que planteaban otras hipótesis.
La reconstrucción de la domesticación de la patata sugiere que se comenzó a cultivar hace 7.000 años en el altiplano entre Perú y Bolivia a partir de plantas silvestres y de allí se habría expandido por Sudamérica.
En Europa se introdujo la patata por los españoles en 1570.
La principal especie de patata (Solanum tuberosum) es tetraploide con 48 cromosomas. No obstante hay otras 6 especies de patatas cultivadas y 230 especies silvestres del género Solanum que producen tubérculos.
Más información aquí