Resumen científico - 102

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Fresco y Batata, los primeros nanosatélites comerciales argentinos 




Por Nora Bär

Si todo funcionó de acuerdo con lo previsto, media hora después de la medianoche de Buenos Aires, dos paralelepípedos de apenas 80 cm de alto, 40 de ancho y 40 de profundidad se convirtieron en los primeros nanosatélites argentinos en surcar el espacio completamente funcionales y aptos para ofrecer servicios comerciales.

A un costo mil veces menor que los que desarrollan las agencias espaciales estatales, Fresco y Batata, como los llamaron sus creadores, en alusión al típico postre local, coronan el ciclo de desarrollo de la joven compañía tecnológica Satellogic, creada por Emiliano Kargieman con apoyo del Ministerio de Ciencia, Tecnología e Innovación Productiva y del Invap.

Los precedieron tres aparatos de ensayo puestos en órbita en dos años: Capitán Beto, el 26 de abril de 2013; Manolito, el 21 de noviembre de ese mismo año, y Tita (por la inolvidable morocha argentina), el 20 de junio de 2014.

"En los tres primeros probamos la tecnología -cuenta Kargieman, ansioso por el inminente lanzamiento y la puesta en marcha operativa de la compañía-. Con estos dos ya podemos ofrecer servicios."

Fresco y Batata transportan tres cámaras de un metro de resolución: una multiespectral, otra hiperespectral y otra térmica. La multiespectral toma imágenes en rojo, verde, azul e infrarrojo cercano. "Es particularmente útil para aplicaciones en agricultura, porque permite conocer distintos parámetros biofísicos de los cultivos", explica.

"La hiperespectral saca fotos en 600 bandas y ofrece información, por ejemplo sobre composición química de los vertidos de una fábrica, variedades específicas de ciertos cultivos, absorción de clorofila y otros aspectos, como la evapotranspiración", agrega.

La cámara térmica obtiene imágenes en el infrarrojo. "No predomina lo que se refleja de la radiación solar, sino la radiación de cuerpo negro, que es tanto más intensa cuanto más elevada es la temperatura del emisor -continúa-. Con ésta incluso podemos detectar variaciones de centésimas de grado, «ver» la humedad de los suelos, saber cuánto petróleo hay en un barco o determinar la eficiencia energética de un edificio. Son datos que sirven para tomar decisiones de distinto tipo. Pero como nuestros satélites son miles de veces más económicos, nos permiten distribuirlos a un costo mucho menor."

Satellogic ya firmó cartas de intención con 10 clientes que comprarán estos servicios para monitoreo diario de campos y cultivos, y de infraestructura crítica para gobiernos. También, para control de seguridad en la industria petrolera y en el medio ambiente. Otras 45 compañías, en el país y en el mundo, se aprestan a recibirlos una vez que ambos satélites estén activos.

Los aparatos pesan unos 35 kg (10 más que Tita) y se desplazarán uno detrás del otro a lo largo de una órbita polar (es decir, que rodean la Tierra pasando por los polos) a 500 km de altura. Completan una vuelta cada 93 minutos.

"El tiempo de desarrollo de estos satélites fue de un año -detalla-, aunque, por supuesto, estamos avanzando de manera incremental sobre todo lo que veníamos haciendo con los satélites anteriores. Y si bien hay empresas en otros países que están yendo en busca de la misma oportunidad, en este momento vamos a estar liderando este campo en términos de satélites de alta resolución, con un margen 100 veces mejor en eficiencia y costos."

Democratizar el espacio

La fascinación de Emiliano Kargieman con la tecnología empezó muy temprano. Tenía ocho años cuando "se metió" en la Commodore 64 que había recibido de regalo para que ésta le diera más "vidas" en un juego de invasiones extraterrestres.

A los 15, armó su primera empresa con compañeros del secundario para hacer software destinado a pequeños negocios que estaban empezando a utilizar computadoras personales para llevar la contabilidad. A los 17, lo contrataron en la AFIP dentro de un grupo que hacía investigación en seguridad. Y a los 19, mientras estudiaba matemática en la Facultad de Ciencias Exactas y Naturales de la UBA, fundó Core Security, una compañía de seguridad informática que desarrolló el primer producto para hacerpenetration testing, un programa que emula lo que haría un atacante y después genera un reporte de cuál fue el camino de entrada.

Core fue la primera empresa del mundo que logró automatizar este proceso, que se suponía que no era automatizable. Hoy es una multinacional con base en Boston, tiene entre el 5 y el 8% de las patentes argentinas en los Estados Unidos y cuenta entre sus clientes al 80% de las compañías que figuran en el ranking Fortune 500.

Pero en 2006 abandonó esa compañía exitosa para crear una de inversiones de riesgo, Aconcagua Ventures. Mientras estaba impulsando este nuevo emprendimiento, se dio cuenta de que en realidad lo que le gustaba era "hacer cosas".

Tras algunas semanas en la Singularity University, un proyecto de los futurólogos Ray Kurzweil y Peter Diamandis que invita a emprendedores para que planteen un proyecto que permita mejorar la vida de 1000 millones de personas, se dio cuenta de que se podía revolucionar la industria del espacio reviviendo el romanticismo de las primeras épocas de la computación.

"Me di cuenta de que la industria del espacio usa ingeniería de hace cincuenta años, es terriblemente renuente al riesgo y está dominada por pocos jugadores muy grandes, que en general son proveedores del Estado. Eso resta incentivos para hacer las cosas en forma más eficiente, más rápida, más económica y mejor."

De esa convicción surgió Satellogic, una audaz aventura para democratizar la tecnología espacial y ponerla al alcance de pequeñas empresas, laboratorios, estudiantes, amateurs.

Con sabor local

El 26 de abril de 2013 presentó su primer "retoño", Capitán Beto, lanzado a bordo de un cohete chino. Era un cubo de 20 cm por 10 cm por 10 cm, de sólo dos kilos y medio de peso, que giró a 450 km de altura por sobre la superficie terrestre y se armó con materiales de ferretería y de teléfonos celulares. Un grano de arena en el océano cósmico, pero que permitió hacer una prueba de concepto concluyente.

Unos meses más tarde, desde la base rusa de Yasni, puso en órbita Manolito, de similares proporciones, diseñado y ensamblado en un ph de Colegiales.

En 2014 despegó Tita, que ya pesó 25 kilos y estaba preparado para jugar en primera. Aunque también fue un prototipo, y se produjo con las mismas estrategias de diseño y fabricación con componentes de uso comercial (resortes de ferretería, electrónica de teléfonos celulares y computadoras personales), permitió tomar imágenes y videos de dos metros de resolución, más o menos lo mismo que hace un satélite tradicional.

En estos tres años, Satellogic creció y hoy emplea a 63 personas que trabajan en seis países. Son físicos, ingenieros y especialistas en ciencias de la computación cuyo promedio de edad ronda los treinta años. "La mayor parte está en la Argentina, donde hacemos investigación y desarrollo -detalla el emprendedor-. La planta de integración la tenemos en Uruguay; en Israel tenemos un equipo de desarrollo de software; en Palo Alto, Estados Unidos, el desarrollo de negocios, y equipos de venta en Colombia, Canadá e Israel."

Todos los nanosatélites se diseñaron con tecnología totalmente made in Argentina y sin emplear dispositivos espaciales, solamente electrónica de consumo.




Los datos que envíen se recibirán en una estación terrena de la Argentina, diseñada y operada por los científicos e ingenieros de la compañía, y otra en Svalbaard, Noruega, cerca del Polo Norte.

Kargieman pronostica cielos despejados para el negocio satelital. Gigantes como Google y Facebook ya ingresaron en el mercado de los satélites pequeños y se espera que crezca velozmente en los próximos años.

Satellogic picó en punta. En noviembre lanzará otro pequeño satélite y dos más en marzo próximo. Los seis conformarán la constelación Aleph, como el cuento de Borges. "Un poco de nerviosismo es inevitable -confiesa-. Queremos que los datos espaciales estén al alcance de la mano. Estamos contentos y con ganas de empezar a operarlos, ofrecer datos satelitales y sentir el «tirón» de una compañía que empieza a estar impulsada por las necesidades de los clientes."


Fuente: La Nación

El universo se expande entre 5 y 9% más rápido de lo que se creía 




Un grupo de astrónomos, con ayuda del telescopio espacial Hubble de la NASA, han descubierto que el universo se expande entre un 5 y un 9 por ciento más rápido de lo esperado.

"Este sorprendente hallazgo puede ser una pista importante para la comprensión de esas partes misteriosas del universo que conforman el 95 por ciento del mismo y que no emiten luz, como la energía oscura, la materia oscura, y la radiación oscura", dice el líder del estudio y Premio Nobel Adam Riess, del Space Telescope Science Institute y de la Universidad Johns Hopkins, ambos de Baltimore (Maryland, EE.UU.) Los resultados aparecerán en un próximo número de la revista The Astrophysical Journal.

El equipo de Riess hizo el descubrimiento refinando la velocidad de expansión actual del universo con una precisión sin precedentes, reduciendo la incertidumbre a sólo el 2,4 por ciento. El equipo hizo los refinamientos desarrollando técnicas innovadoras que mejoran la precisión de las mediciones de las distancias a las galaxias lejanas.

El equipo buscó galaxias que contuvieran estrellas Cefeidas y supernovas de tipo Ia. Las Cefeidas pulsan a velocidades que corresponden a su verdadero brillo, que puede compararse con el brillo aparente visto desde la Tierra, para determinar con precisión su distancia. Las supernovas de tipo Ia, otra vara de medida cósmica de uso común, son explosiones de estrellas que estallan con el mismo brillo y son lo suficientemente brillantes para ser vistas desde distancias relativamente largas.

Mediante la medición de alrededor de 2.400 estrellas Cefeidas en 19 galaxias y comparando el brillo observado de ambos tipos de estrellas, midieron con precisión su verdadero brillo y calcularon distancias calculadas a unas 300 supernovas de tipo Ia en galaxias lejanas.

El equipo comparó esas distancias con la expansión del espacio, medida a partir del estiramiento de la luz de galaxias alejándose. El equipo utilizó estos dos valores para calcular cómo de rápido se expande el universo con el tiempo: la constante de Hubble.

El nuevo valor de la constante de Hubble es de 73,2 kilómetros por segundo por megaparsec. (Un megaparsec equivale a 3,26 millones de años luz.) Eso significa que la distancia entre los objetos cósmicos se duplicará en otros 9.800 millones de años.

Esta calibración refinada supone, sin embargo, un rompecabezas, debido a que no se ajusta exactamente a la velocidad de expansión prevista para el universo según su trayectoria observada poco después del Big Bang.

Las mediciones de la luminiscencia residual del Big Bang realizadas por la Sonda de Anisotropía de Microondas Wilkinson (WMAP) de la NASA y de la misión del satélite Planck de la Agencia Espacial Europea (ESA) producen estimaciones de la constante de Hubble un 5 y un 9 por ciento, respectivamente, más pequeñas.

"Si sabemos las cantidades iniciales de materia en el universo -de energía oscura y de materia oscura-, y hacemos bien los cálculos de física, se puede pasar de una medición justo posterior al big bang y utilizar ese conocimiento para predecir cómo de rápido debería estar expandiéndose el universo actualmente", dice Riess en la nota de prensa del portal del telescopio Hubble. "Sin embargo, si esta discrepancia se mantiene, puede que no lo estemos entendiendo bien".

Comparar la velocidad de expansión del universo con los datos de WMAP, Planck y el telescopio Hubble es como construir un puente, explica Riess. En la orilla distante están las observaciones de la radiación de fondo de microondas del universo temprano. En la orilla cercana se encuentran las mediciones realizadas por el equipo de Riess utilizando el Hubble. "Deberían cruzarse en el centro, pero no ocurre así", señala el investigador.

Hay algunas explicaciones posibles para el exceso de velocidad del universo. Una posibilidad es que la energía oscura, de la que se sabe que está acelerando el universo, podría estar separando a las galaxias unas de otras, con una fuerza aún mayor -o creciente-.

Otra idea es que el cosmos contuviera una nueva partícula subatómica en su historia temprana que viajaba cerca de la velocidad de la luz. Tales partículas rápidas se conocen colectivamente como "radiación oscura" e incluyen partículas ya conocidas como los neutrinos. Esa energía de radiación oscura adicional podría estar estropeando los esfuerzos para predecir la velocidad de expansión actual a partir de su trayectoria temprana.

El aumento en la aceleración también podría significar que la materia oscura posee algunas características extrañas e inesperadas. La materia oscura es la columna vertebral del universo sobre la cual las galaxias forman las estructuras a gran escala observadas en la actualidad.

Y, por último, este universo más rápido de lo previsto podría estar diciendo a los astrónomos que la teoría de la gravedad de Einstein es incompleta. "Sabemos muy poco acerca de las partes oscuras del universo, así que es importante medir la forma en que empujan y tiran del espacio a lo largo de la historia del cosmos", señala Lucas Macri, de la Universidad Texas A & M, colaborador clave en el estudio.

Antes de que el telescopio Hubble fuera lanzado en 1990, las estimaciones de la constante de Hubble variaban en un factor de dos. A finales de 1990 se redujo el margen de error a sólo el 10 por ciento, y ahora el objetivo es reducirlo a menos del 1 por ciento.


Fuente: Tendencias 21

Resuelto el enigma de los polígonos que cubren la superficie de Plutón 




En la vasta cuenca Sputnik Planum de Plutón han aparecido a lo largo de decenas de kilómetros unas misteriosas e irregulares figuras poligonales. Ahora, en dos artículos publicados en Nature se revela que en el interior de la gruesa capa de nitrógeno sólido que cubre el planeta enano se producen procesos de convección que están detrás de estas formaciones geométricas.




Este mecanismo de propagación del calor (provocado por diferencias de densidad entre los materiales) origina una contracción del terreno en la superficie, dejando las distintivas figuras poligonales. Tienen entre 10 y 40 kilómetros de diámetro, y muchas de ellas presentan los lados elevados.

La gélida planicie Sputnik Planum, con sus formas poligonales, es una de las superfcies más jóvenes de todo el sistema solar.

“Estas investigaciones demuestran que la Sputnik Planum es una de las superfcies más jóvenes del sistema solar”, aseguran Andrew J. Dombard y Sean O’Hara en una revisión de los trabajos publicados. “Es una planeta enano y helado, pero geológicamente dinámico”.

Para resolver el misterio sobre estas formaciones, un equipo liderado por el profesor del Centro de Ciencias del Espacio de Washington (EEUU) William McKinnon usó las mediciones que hizo la nave espacial New Horizons para mostrar que las capas de hielo, de más de un kilómetro de espesor, presentaban flujos de calor en su interior. Estos autores consideran que las convecciones podrían explicar la gran anchura lateral de los polígonos.

Por su parte, otra investigación liderada por Alexander Trowbridge, profesor en Universidad Purdue de Indiana (también en EE UU) analiza la existencia de los polígonos usando otra técnica. En su trabajo, aplicaron modelos numéricos al nitrógeno sólido y también comprobaron que este hielo está sometido a mecanismos de convección en su interior.

¿Más polígonos en el sistema solar?

Los autores piensan que este tipo de mecanismos, con los que se renuevan las capas de hielo continuamente, pueden estar produciéndose en otros planetas enanos del cinturón de Kuiper, un conjunto de objetos que va más allá de la órbita de Neptuno y del que se sabe muy poco. El nuevo avance sobre la formación de polígonos sobre la superficie de planetas helados permite aventurar situaciones similares en otros lugares del espacio.

"Plutón nos muestra que los procesos planetarios funcionan de manera similar con independencia del lugar del sistema solar donde ocurran”, valoran los profesores Paul Schenk del Instituto Planetario y Lunar de Texas (EE UU) y Francis Nimmo de la Universidad de Santa Cruz en otro artículo publicado también en Nature Geoscience.


Fuente: Agencia SINC

Vivir en peligro deja huellas en las neuronas 




Cuando una gaviota vuela en forma amenazante sobre la playa, los cangrejos saben que tienen que correr a guarecerse en su cueva. Sin embargo, en las playas de San Antonio Oeste, en la provincia de Río Negro, es posible caminar tranquilamente por la orilla sin que los cangrejos se inmuten.

¿A qué se debe tanta tranquilidad? ¿Será que las características del entorno influyen en el comportamiento de estos animales y dejan una huella en sus cerebros? Estas son las preguntas que se formuló Daniel Tomsic, profesor en la Facultad de Ciencias Exactas y Naturales de la UBA e investigador UBA-CONICET, quien, desde hace varios años, se dedica a estudiar la respuesta de los cangrejos frente a estímulos visuales indicadores de peligro.

“A partir del comentario de colegas de Mar del Plata acerca de la poca reacción de los cangrejos de San Antonio Oeste, y nuestro conocimiento sobre las reacciones de estos mismos cangrejos en otros sitios, decidimos comparar el comportamiento y las modificaciones en el sistema nervioso en animales de la misma especie que se encuentran naturalmente expuestos a mayor o menor presencia de predadores”, relata Tomsic desde el Instituto de Fisiología Biología Molecular y Neurociencias (IFIBYNE) del CONICET y UBA.

Ambas poblaciones de cangrejos viven en ambientes de estuario, que están aislados unos de otros por cientos de kilómetros. Ambos grupos de animales viven vidas muy distintas. Los que habitan en la costa de Mar Chiquita están sometidos a los ataques permanentes de las gaviotas. En cambio, los cangrejos de San Antonio Oeste no sufren esa presencia amenazante, y su vida es más apacible.

Los investigadores decidieron recolectar animales de ambos lugares y estudiarlos en el laboratorio. Así, evaluaron la intensidad con la que respondían a objetos que se movían por encima de sus cabezas, simulando el vuelo rasante de una gaviota. “Encontramos que, de acuerdo a lo esperado, los cangrejos de Mar Chiquita, donde hay más predadores, respondían en forma mucho más intensa”, señala Tomsic, y destaca: “Al registrar la respuesta de las neuronas, vimos que ésta también era más intensa, de modo que había una correspondencia entre la actividad de las neuronas y el comportamiento de los animales relacionada con el riesgo de predación”. Los resultados se publicaron en el Journal of Experimental Biology.

Por su parte, Tomás Luppi y Jesús Nuñez, investigadores del CONICET en la Universidad de Mar del Plata y también autores del trabajo publicado, analizaron la proporción de cangrejos que se convierten a diario en alimento de las gaviotas, y determinaron que ese valor es mucho mayor en Mar Chiquita, es decir, el riesgo para la vida del cangrejo es superior en esas playas bonaerenses.

Desde el punto de vista de la teoría de la evolución, un factor de importancia en los cambios que se producen en las especies es el impacto de la acción de los predadores. Es decir, esa amenaza termina modulando el comportamiento de las especies afectadas.

La originalidad del trabajo realizado por los investigadores reside en mostrar no sólo que la presencia o ausencia de predadores modula el comportamiento de los animales, sino también que ese comportamiento es consecuencia de la actividad de sus neuronas.

“Hasta el momento no había ninguna evidencia de que el impacto de predación podía afectar la respuesta a nivel de neuronas individuales, y eso es lo que pudimos mostrar”, asegura Tomsic.

El investigador aclara que los resultados en cuanto al comportamiento fueron los esperados, pero remarcó que “no es tan fácil vincular directamente el comportamiento con un grupo de neuronas individuales”. Además, el estudio fue posible gracias a la posibilidad de disponer de dos poblaciones de una misma especie que estuvieran aisladas entre sí.

De todos modos, el trabajo abre nuevas preguntas, por ejemplo, si las diferencias halladas en las neuronas se corresponden con una variación genética. Es decir, no se sabe si se trata de un cambio que se produce durante el período de vida de los animales, que genéticamente tienen la misma estructura, o si, por el contrario, esa diferencia se encuentra determinada por los genes. En tal caso, se trataría de dos poblaciones que se están diferenciando genéticamente.

Si estas poblaciones estuvieran en proceso de diferenciación, se trataría, según indican los investigadores, de un caso de microevolución, pues se observan pequeñas diferencias en la manera en que responden determinadas neuronas. Para confirmarlo, una alternativa es criar animales de las dos poblaciones en un mismo ambiente y ver si las diferencias en las neuronas se mantienen cuando los animales se hacen adultos.

En resumen, el trabajo con los cangrejos nacidos y criados en dos ambientes distintos de la costa atlántica confirman algunos supuestos que surgen de la teoría de la evolución, como el hecho de que el impacto de los predadores influye en el comportamiento. La originalidad reside en que muestra algo que hasta el presente no había podido ser confirmado: que una diferencia ecológica de mucha relevancia, como el impacto de predación, se corresponde con una diferencia en la actividad de las neuronas. Si bien existen estudios que establecen correlaciones entre algunas variables ecológicas y el tamaño del cerebro del animal, nunca se habían realizado comprobaciones de cambios a nivel de neuronas individuales.


Fuente: NEX Ciencia

Un paso más hacia una vacuna universal contra el cáncer 




El cáncer no es una invasión de cuerpos extraños como las bacterias o los virus. Esta enfermedad es una especie de reverso tenebroso de nosotros mismos, nuestras propias células enloquecidas, que la convierte en un enemigo muy difícil de combatir. Durante décadas, la opción farmacológica más frecuente contra la enfermedad ha consistido en envenenar a todas las células del cuerpo con la esperanza de que las cancerosas sufran más que las sanas (la quimioterapia). En los últimos años, sin embargo, han aparecido nuevas opciones más efectivas y menos tóxicas.

Uno de estos métodos, cada vez más generalizado y menos experimental, consiste en ayudar al sistema inmune a identificar las células cancerosas para que las destruya. La más común de estas inmunoterapias consiste en desmontar las estratagemas moleculares que utiliza el cáncer para confundirse entre las células normales. De esa manera, los glóbulos blancos son capaces de detectarlas y atacarlas.

Durante muchos años, los científicos han tratado de emplear contra el cáncer el sistema de inmunoterapia más efectivo que conocemos: las vacunas. Estas sustancias introducen en el cuerpo algo que se asemeja al microbio que se quiere combatir. El sistema inmune se prepara así para reconocer a una amenaza contra la que en principio no estaba preparado. Sin embargo, las células tumorales se parecen demasiado a las sanas y los antígenos que suelen servir al sistema inmune para detectar los objetivos que se deben aniquilar se expresan en ambas de forma similar.

En un artículo que se publicó en la revista Nature, un equipo de investigadores de la Universidad de Maguncia (Alemania) explica cómo han logrado desarrollar un sistema que podría ser un primer paso para crear una vacuna universal contra el cáncer. Los autores trataron de alcanzar las células dendríticas del sistema inmune, capaces de provocar una respuesta contra los tumores, y para lograrlo, empaquetaron ARN (las moléculas que le permiten al ADN producir proteínas) con lípidos y se lo inyectaron a ratones. El envoltorio de lípidos conservó el ARN, que normalmente habría sido descompuesto por el organismo, y le permitió llegar a las células dendríticas y los macrófagos (un tipo de glóbulos blancos) presentes en el bazo, los nódulos linfáticos o la médula ósea. Allí, el ARN se convirtió en un antígeno específico para el cáncer, dando la señal necesaria para desatar una respuesta inmune dirigida y potente contra la enfermedad.

Los investigadores probaron el sistema en varios modelos de tumores en ratones observando una intensa reacción de los glóbulos blancos ante el antígeno inyectado en los animales. Además, en un pequeño ensayo con tres enfermos de melanoma también observaron que el mecanismo tenía los efectos esperados y se producía una respuesta del sistema inmune. En opinión de los autores, el hecho de que casi cualquier antígeno se pueda codificar en ARN, este tipo de vacunas podría adaptarse a cualquier tipo de cáncer para provocar un efecto inmunitario contra el cáncer similar.

Los investigadores quieren probar la técnica en melanoma, cáncer de mama y cáncer de cuello y cabeza.

"El reto técnico es que cada tumor es diferente y tiene otros rasgos característicos, por lo que no puedes utilizar una vacuna idéntica para cada paciente", apunta Ugur Sahin, director de TRON, una organización de investigación biofarmacéutica de la Universidad de Maguncia dedicada a buscar nuevos fármacos contra el cáncer. Sin embargo, añade, "el enfoque de la vacuna es como un sobre en el que puedes introducir cualquier información vacunal". Y explica: "El sobre transporta esta información a las células dendríticas que extraen la información y la utilizan para entrenar a otras células inmunitarias. Eso significa que podemos personalizar e incluso individualizar la vacuna utilizando este concepto universal".

Marisol Soengas, jefa del Grupo de Melanoma del CNIO (Centro Nacional de Investigaciones Oncológicas), considera que, aunque la idea de partida no es nueva, el grupo de la Universidad de Maguncia “ha logrado su objetivo de una forma muy sencilla”, un concepto que “resulta interesante”. Sobre la universalidad de un tratamiento como este para atacar a los tumores, aunque considera que es posible, no cree que “los datos que tienen sean suficientes” para poder afirmar que se va a conseguir una vacuna universal contra el cáncer.

Los autores del trabajo que publica Nature están probando ahora su técnica con más pacientes y quieren ampliar el uso de su vacuna a otros tipos de cáncer. Según explica Sahin, están "preparando ensayos clínicos en melanoma, cáncer de mama triple negativo [los de peor pronóstico] y cáncer de cabeza y cuello en 2016, y en 2017 queremos realizar ensayos clínicos de mayor tamaño para varios tipos de cáncer".


Fuente: El País

Científicos de EEUU intentan desarrollar órganos humanos en cerdos 




Un grupo de científicos de Estados Unidos está intentando cultivar órganos humanos en cerdos inyectando células madre en embriones de cerdo para producir embriones de cerdo humano conocidos como quimeras. Esta investigación, impulsada desde la Universidad de California, intenta luchar contra la escasez mundial de órganos de trasplante.

El equipo de la Universidad de California cree que los animales resultantes tendrán la apariencia y el comportamiento de cerdos normales con la salvedad de que uno de sus órganos, de momento el páncreas, estará compuesto por células humanas. La implantación de embriones quiméricos de cerdo-humano está permitida hasta 28 días antes de que la gestación haya terminado. El tejido se retira después para analizarlo.

Pablo Ross, biólogo especializado en reproducción al frente de la investigación, asegura que tienen la esperanza de que el embrión de cerdo resultante se desarrolle con normalidad con la salvedad de que su páncreas esté formado exclusivamente de células humanas y pueda ser compatible con un paciente humano para trasplante. Su proyecto no está exento de polémica. El año pasado la principal agencia de investigación médica, the National Institutes of Health, impuso una moratoria para financiar estos experimentos. La preocupación principal es que las células humanas puedan emigrar al cerebro del cerdo en desarrollo y lo hagan, de algún modo, más humano.

Otros equipos de investigación han creado embriones de cerdo humano pero ninguno ha permitido que los fetos lleguen a nacer. Walter Low, profesor en el departamento de neurocirugía de la Universidad de Minessota cree que utilizar a los cerdos como incubadoras biológicas para desarrollar órganos humanos podría ser utilizado potencialmente para hacer crecer no solo un páncreas, sino también corazones, hígados, riñones, pulmones o córneas.


Fuente: El País

La acumulación de neuronas muertas en el cerebro
agrava las enfermedades mentales
 





Un grupo internacional de científicos ha investigado por primera vez cómo funciona el proceso de fagocitosis que llevan a cabo las células “detectoras de la basura cerebral”: la microglía. Han descubierto que, tras producirse muerte o lesión neuronal en cerebros enfermos, estas células se vuelven “ciegas” y no son capaces de realizar su función. Esto desencadena una respuesta inflamatoria que agrava la lesión cerebral sufrida.

Cuando nos hablan de células muertas, inmediatamente pensamos en las células de la piel. Éste es un proceso que no nos resulta extraño. Las células de nuestra piel mueren y, para evitar su acumulación, nos aconsejan una serie de procedimientos sencillos. Sin embargo, debemos ser conscientes de que en nuestro organismo, las células de la piel no son las únicas que mueren.

Las neuronas del cerebro también lo hacen. Sabemos que estas células mueren tras completar su ciclo natural de vida, por envejecimiento, o debido a lesiones cerebrales traumáticas y enfermedades neurodegenerativas. Pero, ¿nos hemos planteado alguna vez qué ocurre con ellas después de muertas? ¿Cómo puede eliminarlas nuestro organismo ? O, si no son eliminadas, ¿qué sucede entonces?

Ahora equipo multidisciplinar de investigadores ha estudiado por vez primera los procesos de muerte neuronal y de fagocitosis o eliminación de neuronas muertas, llevado a cabo por la microglía de cerebros enfermos. En su estudio describen el funcionamiento de los mecanismos de limpieza del cerebro cuando los pacientes sufren enfermedades neurodegenerativas, concretamente epilepsia.

Para llevar a cabo el estudio, publicado en la revista PloS Biology, los científicos recogieron muestras de cerebro de pacientes que padecían epilepsia, así como de ratones epilépticos.

Los resultados mostraron que las células de la microglía presentaban un comportamiento anómalo, y eran incapaces de eliminar las neuronas muertas. En consecuencia, estas neuronas se acumulan como residuos y provocan el desencadenamiento de una respuesta inflamatoria que empeora la lesión cerebral.

Microglía y enfermedades neurodegenerativas

La muerte de neuronas es un proceso natural de envejecimiento que ocurre en el desarrollo normal del sistema nervioso de todos nosotros. Un fenómeno neuronal al que estamos abocados todos los seres humanos.

En condiciones normales, la eliminación de esta “basura” cerebral permite que el tejido cerebral próximo no sufra ningún tipo de alteración y pueda seguir funcionando de forma adecuada. Este proceso de eliminación se denomina fagocitosis, y las encargadas de realizarlo son las llamadas células de la microglía, que elaboran la primera reacción inmune natural del cerebro, crucial para preservar la integridad del sistema nervioso.

La fagocitosis, por lo tanto, es un proceso esencial para mantener la homeostasis ante un gran número de enfermedades inflamatorias y autoinmunes. Pero su papel en el cerebro está poco estudiado.

Las células de la microglía están continuamente analizando su medio. Presentan una gran cantidad de ramificaciones que están en constante movimiento por todo el cerebro. Gracias a esta particularidad, cuando se produce un daño en el sistema nervioso, reaccionan y migran hacia la zona en cuestión.

Una vez allí, repararan el tejido liberando diferentes componentes que permiten eliminar elementos extraños, no deseados o dañados, mediante la fagocitosis. Sin embargo, estos componentes, en algunas ocasiones, pueden afectar a las neuronas sanas y provocar una eliminación excesiva e innecesaria de neuronas. Esto, que ocurre en enfermedades como el Parkinson y el Alzheimer, origina un ambiente patológico.

Al menos, esto era lo que se creía que ocurría, pues se presuponía la eficacia de la microglía como recolectoras y destructoras (fagocitos) de residuos, también en cerebros enfermos.

Sin embargo, la nueva investigación señala que puede ocurrir todo lo contrario, es decir que, en cerebros enfermos o lesionados, la microglía no elimine neuronas muertas que sí debrían de ser eliminadas para evitar una respuesta inflamatoria del cerebro. Este hecho tendría una grave repercusión patológica.

El experimento

Para comprobar si la microglía se comportaba como fagocitos eficaces en un cerebro enfermo, el equipo de investigación, dirigido por la Dra. Amanda Sierra, directora del laboratorio de Biología Celular Glial del Achucarro Basque Center for Neuroscience (País Vasco), indujo experimentalmente una serie de procesos apoptóticos (que inducen a las células a morir cuando están dañadas).

Con la inducción de estos procesos se observó cómo respondía la microglía, de una forma generalizada. Lo que hacían estas células era establecer diferentes estrategias que mejorasen su eficacia fagocítica. Es decir, aumentaban su capacidad de captación de la “basura celular”.

De esta manera, en caso de generarse un incremento de células apoptóticas (células dañadas que están programadas para morir y evitar enfermedades como el cáncer), la microglía era capaz de mantener una relación adecuada y equilibrada entre la apoptosis y la fagocitosis.

Sin embargo, la sorpresa llegó cuando estudiaron muestras de cerebro extraídas de personas que padecían epilepsia y de ratones epilépticos, desarrollados experimentalmente. En estos casos, se detectó que la relación existente en condiciones normales entre la apoptosis y la fagocitosis de la microglía se perdía de forma crónica.

Este trabajo ha sido el primero en cuantificar el proceso de fagocitosis en el cerebro de personas enfermas de epilepsia.

El descubrimiento

Así que, en el caso de pacientes con epilepsia, la microglía no actúa, digamos que “está ciega”. Por eso no logra detectar las neuronas muertas, y éstas no pueden ser eliminadas ni destruidas, lo que tiene consecuencias nefastas para el paciente.

La inactividad de la microglía hace que la fagocitosis no se lleve a cabo, lo que conlleva que se produzca una enorme acumulación de neuronas muertas en el cerebro. Un acúmulo excesivo de residuos que, al igual que la basura en los basureros, comienza a descomponerse.

En las neuronas muertas, la membrana se va haciendo cada vez más permeable, lo que permite la liberación de compuestos tóxicos presentes en su interior. Esos compuestos dañan a las neuronas vecinas, lo que provoca una respuesta inflamatoria del cerebro que lo daña todavía más.

En el caso concreto de la epilepsia, se sabe que, en algunas ocasiones y durante las convulsiones, las neuronas mueren. Así que el hecho de que la fagocitosis no se realice favorece la inflamación producida en el cerebro. Esto fomenta la aparición de crisis epilépticas, caracterizadas por las impactantes convulsiones.

En un futuro

Este hallazgo abre vías para el desarrollo de nuevas terapias que permitan paliar los efectos de las enfermedades cerebrales, terapias que “enseñen” a la microglía a mejorar su eficacia para la correcta eliminación de neuronas muertas.

De hecho, el equipo de investigación está ya trabajando en el desarrollo de fármacos que promuevan este proceso de limpieza, es decir, que en condiciones lesionadas activen el proceso de fagocitosis. Esto permitiría ayudar en los tratamientos de enfermedades como la epilepsia.


Fuente: Tendencia 21

Una nanofuente cuántica mana fotones de uno en uno 




Las aplicaciones de la fotónica cuántica resolverán en el futuro desafíos que hoy son imposibles de afrontar con las tecnologías actuales, en campos como las telecomunicaciones, la detección de alta sensitividad y la computación cuántica. Pero para lograr esto se necesitan fuentes de luz que puedan emitir fotones idénticos y de uno en uno.




Ahora, un equipo de científicos del Centro Nacional para la Investigación Científica (CNRS) en Francia ha logrado crear una nanofuente que ‘mana’ fotones individuales de una forma muy eficiente y que, además, son indistinguibles al 99,5% unos de otros. El estudio, publicado en la revistaNature Photonics, lo ha dirigido Pascale Senellart en el Laboratorio de Fotónica y Nanoestructuras del CNRS.

“Nuestro dispositivo consiste en un punto cuántico (formado por un material semiconductor de unos cuantos nanometros) en medio de una cavidad óptica con forma de pilar, de unas tres micras”, explica a Sinc Daniel Lanzillotti, investigador argentino del CNRS y coautor del trabajo.

Para que un punto cuántico pueda emitir fotones idénticos debe estar totalmente aislado de su entorno, y el equipo lo ha conseguido aplicando un campo eléctrico. De esta forma, han reducido el ‘ruido’ externo que provoca que los fotones sean distinguibles, un efecto no deseado.

“La mayor aportación de nuestro dispositivo es el número de fotones únicos y casi indistinguibles que puede emitir por segundo (alrededor de 13 millones), lo que supone 20 veces más que lo que aportan las fuentes de SPCD (Spontaneous Parametric Down-Conversion) que se usan actualmente”, destaca el científico español Carlos Antón, estudiante postdoc y participante también en la investigación.

Antón explica que "un fotón individual e idéntico al resto (con igual longitud de onda, polarización, perfil espacial y temporal) constituye un bit cuántico, una unidad elemental de información con propiedades cuánticas –como la posibilidad de formar un estado mixto entre 0 y 1– para poder realizar operaciones solo accesibles de la mano de la física cuántica”.

Según los autores, estas nanofuentes de fotones únicos se pueden implementar directamente en experimentos de computación óptica-cuántica. Además, sus posibles aplicaciones se extienden a otros campos de la información cuántica, la criptografía, el desarrollo de detectores ultrasensibles e incluso en supercomputación de sistemas biológicos.


Fuente: Agencia SINC

Nueva técnica inédita mejora el tratamiento de fertilización asistida 




El equipo de trabajo intenta detectar, en el medio donde crecen los embriones y a través de un método fisicoquímico, si existe un perfil metabólico característico de un embrión que tiene alta probabilidad de implantar en relación a otro con bajo potencial de implantación. El proyecto recibió el premio “Innovar 2015”, el concurso de innovaciones más importante del país.

Las parejas acuden a la fertilización asistida luego de haber intentado otras metodologías para tratar la infertilidad; no son los tratamientos de primera instancia. En general, en los centros especializados a través de un tratamiento hormonal de estimulación ovárica se obtiene de la madre un número significativo de óvulos, que son fertilizados “in vitro” con espermatozoides para obtener los respectivos embriones, los cuales son cultivados en medios de cultivo apropiados entre tres y cinco días.

El gran desafío que tiene la fertilización es determinar con precisión cuál, o cuáles de esos embriones transferir a las madres en primera instancia para tener las mayores probabilidades de éxito en la implantación.

Alejandra Bosch, una de las investigadoras que conforma el equipo encargado de abordar el tema, explicó que “hasta ahora los métodos que se emplean universalmente para seleccionar el, o los embriones, para transferir a las madres, consisten en realizar un análisis microscópico para examinar la morfología, la forma del embrión y las células que lo integran”.

En la actualidad comienzan a implementarse nuevos métodos que buscan filmar el desarrollo del embrión y asociar su evolución durante los tres o cinco días de incubación con su potencial de implantación. Por su parte, Osvaldo Yantorno, otro de los investigadores, explicó que “al estudio del metabolismo lo realizamos a partir del análisis del sobrenadante de cultivo donde crece el embrión, basándonos en que cuando una célula se desarrolla en un medio de cultivo, consume nutrientes y libera productos de desecho”. En este sentido, detalló que “la idea es estudiar ese medio donde se desarrolló el embrión, en este caso, con una metodología que es la espectrocospia infrarroja con transformada de Fourier”.

Las estadísticas de tasa de embarazo por fertilización asistida son bastante bajas; están en un orden del 25 al 30 por ciento. Dados los altos costos de estos tratamientos, el gran desafío en la actualidad es tratar de aumentar este porcentaje de certeza. En muchos casos, para disminuir los costos que implica realizar sucesivos tratamientos, se tiende a transferir tres o más embriones simultáneamente, lo que aumenta en forma significativa los riesgos, tanto para la madre como para los bebés. Este proyecto apunta, entonces, a desarrollar una metodología que permita transferir la menor cantidad de embriones con la mayor probabilidad de éxito en la implantación.

El equipo de investigación desarrolla su actividad en el Centro de Investigación y Desarrollo de Fermentaciones Industriales (CINDEFI), dependiente de la Facultad de Ciencias Exactas y Conicet. Participa también una becaria del Conicet, Cecilia Fígoli, quien explicó que la idea es elegir el mejor embrión de manera de alcanzar el gran objetivo de 1 embrión transferido = 1 embarazo.

Durante dos años y medio, el equipo de investigadores recibió material de una clínica de fertilización asistida de Buenos Aires PREGNA, Medicina Reproductiva, dirigida por el doctor Marcos Horton.

En este marco, la Facultad de Ciencias Exactas recibió los sobrenadantes de cultivos de embriones de más de 250 pacientes. “A lo largo de este tiempo estuvimos analizando los medios de cultivo donde desarrollaron embriones, algunos transferidos con éxito y otros que no implantaron”. En este momento, la investigación se encuentra en la última etapa que consiste en analizar matemáticamente los espectros provenientes de estos sobrenadantes empleando diferentes tipos de software, estudiando si existe algún “marcador” que permita diferenciar los espectros que provienen de embriones que implantaron de los que no implantaron. Para esto se requiere disponer de software especializados y también de conocimientos matemáticos y estadísticos.

En esta última etapa colaboran en el proyecto grupos de espectroscopistas de Noruega y Alemania, especialistas en el desarrollo de modelos matemáticos, por lo que se espera que luego de un trabajo cooperativo entre diferentes centros de investigación el resultado sea exitoso.


Fuente: El otro mate

Programa 229

El gato y la caja


En esta emisión, contamos con la participación de Pablo González, miembro de "El gato y la caja", para reflexionar sobre la comunicación social de la ciencia.

Con respecto al surgimiento de "El gato y la caja", el invitado contó que "nos encontrábamos con conversaciones en las que no había un tabique claro. De golpe, Juan, que sabe muchísimo de música, y Facu, que trabaja con la neurofisiología del oído, hablaban de cómo se forma la música en señales eléctricas para que el cerebro pueda interpretar; y terminamos hablando del valor adaptativo de la música en la historia de la humanidad. Nos dábamos cuenta que esas discusiones nos entusiasmaban y queríamos consumir más de esas discusiones donde la ciencia no estaba separada de absolutamente todo lo demás. Inclusive, (queríamos) discusiones donde el sujeto construye una historia, no fría y objetiva, sino sabiendo que el método científico nos modifica a nosotros como observadores. Nos preguntamos si podíamos empaquetar esto y hacer un proyecto, y así nació el Gato. (...) Lo más importante fue construir una comunidad humana que le presta atención a las mismas cosas que nosotros en aquellas primeras cenas".

En cuanto al gran crecimiento que se verificó en Argentina de la divulgación científica, Pablo afirmó que "hay un proceso lento, pero continuo, que ha ido transformando la idea de divulgación. Divulgación es una palabra horrible, es hablarle al 'vulgo'. Nosotros empezamos a decirle 'comunicación social de la ciencia'; incluso, está el 'public engagement with science'. Lo que queremos es la participación de los no-científicos profesionales en ciencia, que puedan adoptar y apropiarse de un método para encarar y descubrir el universo, el cual es tan lindo y libre que nos ha permitido cambios en los últimos 400 años. Si es tan increíble, no puede ser propio sólo de los científicos".

Resumen científico - 101

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Un 'anillo de Einstein' descubierto por una estudiante 



Una estudiante de doctorado del Instituto de Astrofísica de Canarias (IAC) y la Universidad de La Laguna (ULL), junto con un equipo internacional de astrofísicos, ha logrado descubrir un objeto astronómico inusual: un anillo de Einstein. Estos fenómenos, predichos por la Teoría de la Relatividad General de Einstein, son raros, pero científicamente interesantes. Tanto es así que, según informa el IAC en un comunicado, a dicho objeto se le ha dado un nombre propio: "anillo de Einstein Canarias".




Un anillo de Einstein es una imagen distorsionada de una galaxia muy lejana, denominada "fuente". La distorsión se produce por la deformación de los rayos de luz debido a la presencia de una galaxia masiva que se encuentra entre la fuente y el observador, a la que se denomina "lente". El intenso campo gravitatorio producido por la galaxia lente deforma la estructura del espacio-tiempo en sus inmediaciones, lo que no sólo atrae a otros objetos con masa, sino que curva la trayectoria de la luz.



Cuando las dos galaxias están perfectamente alineadas, la imagen que el observador ve de la más lejana se convierte en un anillo casi perfecto que rodea a la galaxia lente y sus irregularidades se deben a la asimetría de su galaxias originaria.

Confirmación con el Gran Telescopio Canarias

El descubrimiento lo logró de forma fortuita la estudiante Margherita Bettinelli cuando inspeccionaba datos tomados por la Cámara de Energía Oscura (DECam) del Telescopio Blanco, de 4 metros, del observatorio de Cerro Tololo, en Chile. Mientras estaba analizando la población estelar de la galaxia enana de Sculptor, objeto de su tesis doctoral, se percató de la presencia del peculiar anillo de Einstein. El objeto despertó rápidamente la atención de los miembros del equipo y comenzaron a observar y a analizar sus propiedades físicas con el espectrógrafo OSIRIS del Gran Telescopio CANARIAS (GTC).

El ahora llamado 'anillo de Einstein Canarias', es uno de los de mayor simetría de los descubiertos hasta ahora y es casi circular, ya que las dos galaxias están prácticamente alineadas, a una separación angular de 0,2 segundos de arco. La galaxia fuente se encuentra a una distancia de 10.000 millones de años luz. Debido a la expansión del Universo, la luz ha empleado un tiempo algo menor en llegar hasta nosotros, alrededor de 8.500 millones de años, por lo que la galaxia se ve tal como era en aquella época: una galaxia azul, que está empezando su evolución, poblada por estrellas jóvenes que se están formando a gran velocidad. Por el contrario, la galaxia lente, con una masa similar a la de la Vía Láctea, se encuentra más cerca -a 6.000 millones de años luz- y, por tanto, está más evolucionada, con una formación estelar prácticamente terminada, poblada de estrellas viejas.


Fuente: El Mundo

Tabaquismo: 40.000 argentinos mueren al año por el cigarrillo 



La Organización Mundial de la Salud (OMS) conmemora el 31 de mayo el día mundial sin tabaco a fin de desalentar lo riesgos asociados al consumo. Alrededor de 6 millones de personas mueren al año en el mundo a causa del tabaquismo de los cuales 40.000 son argentinos.

Por la adicción al cigarrillo, según la OMS, la cifra de mortalidad podría elevarse a los 8 millones antes de 2030. Por eso, cada 31 de mayo esta organización y sus asociados celebran el día Mundial sin tabaco para hacer hincapié en los riesgos sanitarios asociados al consumo a ese consumo y promover políticas eficaces que contribuyan a reducir dicho consumo.

En sintonía con la fecha conmemorativa, la ministra francesa de Sanidad, Marisol Touraine, denunció hoy el intenso lobby de las compañías tabaqueras, que cada año invierten en promoción y publicidad de los cigarrillos 13.000 millones de euros, es decir, el equivalente al Producto Interior Bruto (PIB) de Islandia.

"Debemos tener la valentía de decir que una sociedad sin tabaco es posible y que la generación que nace hoy podría ser la primera en no fumar nunca", escribió Touraine en una columna publicada en la versión francesa del "Huffington Post" con motivo de la Jornada Mundial sin Tabaco. La titular francesa de Sanidad enumeró algunas de las dolencias asociadas al consumo de tabaco, que describió como una promesa de enfermedad que ocasionará la muerte a uno de cada dos fumadores.

"El tabaco es una destrucción masiva. Cerca de 60.000 europeos mueren cada mes por el tabaco: es el equivalente a todo un estadio una noche de partido en la Eurocopa. Eso es el tabaco", señaló Touraine sobre una "droga" que consumen 122 millones de personas en toda Europa y 20 millones en Francia.

La ministra se refirió particularmente a los industriales, que gastan sumas astronómicas en publicidad, mercadotecnia y comunicación para hacernos creer que fumar es a la vez social y subversivo, que la libertad es precisamente poder fumar, que algunos cigarrillos pueden ser 'light' para la salud".

Touraine denunció que las grandes compañías tabaqueras financian generosamente estudios para relativizar su impacto en la salud y pagan a científicos para usarlos de portavoces, al tiempo que combaten "toda iniciativa gubernamental contra el cigarrillo".

Citó como ejemplo el paquete neutro, es decir, sin distintivos de marca, obligatorios en Francia a partir del próximo 1 de enero en virtud de una ley cuya aprobación se fue perdiendo apoyos a medida que avanzaba en su tramitación parlamentaria, por consecuencia de la presión de las tabaqueras, según Touraine, hija del célebre sociólogo Alain Touraine.

"Debemos luchar contra nuestra propia inercia. Debemos resistir al intenso lobby de las tabaqueras. Debemos desmentir las contra-verdades según las cuales el tabaco llena la caja del Estado, mientras que en realidad su coste para nuestros sistemas de salud es más elevado", concluyó la ministra, subrayando su compromiso con ese "combate”.

A nivel local, el ministerio de Salud de la Ciudad sumó con un cronograma de actividades. Desde las 9 y hasta la 1, se realizará en la Legislatura Porteña, Salón Raúl Alfonsín, una jornada de concientización para desalentar el consumo de tabaco en todas sus formas. En la misma participarán legisladores, funcionarios de la Ciudad, la Fundación Interamericana del Corazón (FIC) y la Asociación de Cardiología.

El Programa de Prevención y Control del Tabaquismo del Ministerio de Salud de la Ciudad ofrecerá un taller de Consejería Breve Antitabaco dirigido a personal del Gobierno de la Ciudad de Buenos Aires que está en contacto con la comunidad.


Fuente: La Nación

¿Ayuda el cigarrillo electrónico a dejar de fumar? 



Los médicos británicos han vuelto a reabrir la polémica sobre el uso de los cigarrillos electrónicos (e-cig) y sus eventuales beneficios para dejar de fumar. En su último estudio, el Real Colegio de Médicos del Reino Unido apuesta por promover los vapeadores (como se conoce coloquialmente a estos cigarros que aspiran vapor de agua) como una alternativa al tabaco porque “puede ayudar a los fumadores a abandonar el consumo”. Los neumólogos españoles, por su parte, contrarios a este método para abandonar el hábito, se mantienen en sus trece y alertan de la falta de evidencia científica sobre esta conclusión. En lo único que coinciden unos y otros es en que los vapeadores no son inocuos (también se inhalan elementos tóxicos) y, aunque menores que los del cigarro normal, tiene efectos adversos sobre la salud y todavía no se sabe a qué nivel a largo plazo.

Sobre la mesa, de nuevo dos enfoques diferentes para abordar el problema del tabaquismo y el papel del cigarrillo electrónico. Los británicos abogan por tratar el tema desde una perspectiva de reducción de daños (si no pueden dejar de fumar, al menos, consumir algo que dañe menos o más lento). Mientras, los estadounidenses, la Organización Mundial de la Salud (OMS) y los neumólogos españoles apoyan la opción de la abstinencia y rechazan, por falta de evidencia científica, emplear los cigarrillos electrónicos como una estrategia de salud pública para ayudar a dejar de fumar. Incluso la población europea se muestra reacia a creer en las bonanzas del e-cig. Según un estudio de la revista Tobacco Control, más de la mitad de los europeos consideran que los cigarrillos electrónicos son perjudiciales. En 2012, una de cada cuatro personas (poco más de 27%) los veía un riesgo para la salud, pero esta cifra había aumentado al 51,5% en 2014.

Para los médicos británicos, de entre todo lo nocivo que puede llevar un cigarrillo de tabaco, la nicotina es lo menos malo. De hecho, pese a ser el elemento que genera la adicción al pitillo, no es un carcinógeno y, per se, no mata. Lo que sí fulmina boca, faringe, pulmones y todo lo que se cruce a su paso es el humo del tabaco, el resultado de la combustión, el alquitrán y otros compuestos que sí son tóxicos.


Fuente: El País

La mayor parte del agua de la Luna procede de los asteroides 



La imagen de la Luna durante su formación, hace unos 4.500 millones de años, era muy distinta a la actual. Un gran océano de magma inundaba el interior de nuestro satélite, donde también había agua procedente de diversos cuerpos del Sistema Solar. La mayor parte de ese agua que llegó a la Luna procedía de asteroides, según sostiene un nuevo estudio publicado esta semana en la revista Nature Communications.

Una de las teorías más aceptadas por los científicos para explicar cómo se formó la Luna sostiene que se originó a partir de los escombros generados durante el choque entre la Tierra y un planeta que tendría un tamaño parecido al de Marte. Esta colisión habría tenido lugar hace 4.500 millones de años. Poco después, se originó un gran océano de magma en el interior del satélite, donde también había agua. Sin embargo, los científicos no tenían claro cuándo llegó ese agua a la Luna y de dónde procedía, es decir, cuánta agua aportaron los distintos cuerpos del Sistema Solar que pudieron haberla llevado allí al chocar con la Luna, asteroides y cometas principalmente.

Y es ahí donde aporta luz esta nueva investigación que, según Jessica Barnes, autora principal, se basó en los datos publicados en la literatura científica obtenidos a partir de las muestras de la Luna que trajeron a la Tierra los astronautas de las misiones Apolo.

Según sostiene este estudio, el agua fue llegando al interior de la Luna durante un período de entre 10 y 200 millones de años, cuando ese océano de magma ya estaba presente. Basándose en la cantidad de hidrógeno y nitrógeno de las muestras lunares, concluyen que un tipo de asteroides clasificados como condritas carbonáceas o meteoritos condríticos fueron los que aportaron a la Luna la mayor parte del agua que había en su interior. Los cometas, por su parte, habrían llevado el 20% de ese agua.

"A pesar de que los cometas pueden tener mucha agua, no encontramos grandes coincidencias entre su composición y la de la Luna porque las composiciones de sus isótopos de hidrógeno y nitrógeno son muy diferentes", explica Jessica Barnes, investigadora de la universidad británica The Open University. "La composición de los asteroides coincide mucho más con la de los elementos volátiles de la Luna. Nuestro trabajo muestra que los cometas sólo contribuyeron en una pequeña proporción".

Los cometas y los asteroides habrían chocado contra esa balsa de magma. En la superficie de ese océano de magma se habría formado una especie de tapa térmica que habría evitado que se evaporaran los elementos volátiles, de modo que ese agua quedó retenida en el interior de la Luna.

El origen del agua de la Tierra

Aunque la mayor parte del agua lunar provendría de asteroides y cometas, los autores del estudio creen que probablemente un pequeño porcentaje procedía de la Tierra, que cuando chocó con el otro planeta también estaba en sus primeras etapas de formación.

Para Jesús Martínez Frías, jefe del Grupo de Investigación del CSIC de Meteoritos y Geociencias Planetarias en el Instituto de Geociencias (IGEO/CSIC-UCM), "los resultados de esta investigación son relevantes y decisivos, ya que consiguen determinar el origen del agua y contextualizar los procesos asociados con su existencia. Permiten concluir que la mayor parte del agua del interior de la Luna fue aportada durante el período de diferenciación lunar, entre 10-200 millones de años, con la posibilidad de que fuera heredada de los materiales derivados de la proto-Tierra", señala.

Y es que, según explica, "esta investigación aborda un problema considerado "clásico" relacionado con el agua (y el nitrógeno), importante para comprender los procesos del Sistema Tierra-Luna. Sobre él, ya se han realizado numerosos estudios, tanto teóricos como experimentales utilizando meteoritos y muestras lunares recogidas durante las misiones Apolo".

Asimismo, Martínez-Frías destaca que "este estudio también subraya el importante flujo de material asteroidal y comentario que sufrió el Sistema Solar interior entre los 4.500 y 3.900 millones de años".

Averiguar de dónde procede el agua de la Tierra y de la Luna es uno de los principales objetivos de los científicos. Esa era también una de las misiones de la sonda Rosetta de la ESA, que explora el cometa 67P/Churyumov-Gerasimenko. Los análisis de muestras de este cometa determinaron, sin embargo, que su agua era distinta a la de los océanos de la Tierra en la actualidad.

Estos resultados del cometa 67P, explica Jessica Barnes, fueron en parte una sorpresa y en parte no: "Ya sabíamos que los cometas tenían diversas firmas de agua (composiciones de isótopos de hidrógeno) pero los resultados de la misión Rosetta revelaron que la razón deuterio-hidrógeno era mucho mayor [que la del agua de la Tierra] y eso sí fue sorprendente", señala.

Agua lunar para producir oxígeno

Por otro lado, la presencia de agua en la Luna es un asunto decisivo a la hora de planificar futuras misiones tripuladas a la Luna y establecer una base que permita a los humanos pasar largos periodos investigando. ¿Cuánta hay en la actualidad?: "El agua que hay dentro de la Luna probablemente no nos va a ayudar a preparar futuras misiones espaciales. Sin embargo, podría haber grandes cantidades en su superficie, aproximadamente mil millones de toneladas de agua helada", señala Barnes.

No obstante, aprovechar ese agua supondría todo un reto: "En primer lugar no estamos seguros de cuánta hay, cómo está distribuida y en qué forma se presenta. Por lo que respecta a futuras misiones tripuladas de exploración, si podemos extraer el oxígeno de las moléculas de agua que hay en la superficie en forma de hielo, podría permitir, por ejemplo, que los astronautas pudieran respirar dentro de la base lunar. Ese agua también podría servir para fabricar combustible de los cohetes", señala.

"Puede parecer ciencia ficción pero esa es una de las razones por las que varias agencias espaciales, entre ellas la NASA y la ESA, actualmente trabajan para desarrollar misiones robóticas cuyo objetivo es explorar los polos de la Luna para caracterizar las cantidades de hielo que hay y sus usos potenciales", explica.


Fuente: El Mundo

El 'gato' de Schrödinger, vivo y muerto en dos sitios a la vez 



El gato de Schrödinger es un famoso experimento mental que explora la forma en la que un sistema cuántico, como un átomo o un fotón, pueden existir en varios estados a la vez, un fenómeno conocido como superposición cuántica.

Un gato desafortunado que se encierre en una caja puede estar o no vivo, pero los científicos que analizan la caja desde fuera no pueden saber su estado a menos que la abran. El animal, por tanto, puede estar tanto vivo como muerto cuando no se le observa.

De forma similar, en física cuántica, las partículas subatómicas pueden estar en un estado o en otro. Sin embargo, estas partículas también pueden estar entrelazadas, 'conectadas' de alguna forma en un estado único a través del espacio.

Ahora investigadores de la Universidad de Yale (EE UU) demuestran con un experimento que un 'gato cuántico' puede estar vivo y muerto pero, además, en dos lugares al mismo tiempo, según publican esta semana en la revista Science.

"El objetivo de nuestra plataforma es investigar y arrojar luz sobre la naturaleza del entrelazamiento, aplicándolo potencialmente a la computación cuántica y a la comunicación a larga distancia", declara a Sinc Yvonne Gao, coautora del trabajo. "Mediante la explotación de estos estados entrelazados, también se allana el camino para realizar operaciones lógicas entre dos bits cuánticos con errores corregibles".

Fotones en cajas

Para realizar el experimento, los científicos indujeron a un conjunto de fotones a tener estados iguales, entrelazarse. Para ello diseñaron un sistema con dos cavidades separadas (denominadas Alice y Bob, que actúan de 'cajas'), y aplicaron ondas de luz, de tal manera que solo una longitud de onda puede existir en las cavidades en un momento dado, lo que las otorga cualidades similares aunque estén distanciadas.

Las dos cavidades se puentearon con un superconductor, un átomo artificial que permite manipular los estados cuánticos dentro de los cajas. Así, el equipo sometió los fotones de una cavidad a un laberinto de puertas que les proporcionó un patrón de giros distintivo. De esta forma, los investigadores pudieron darle a los fotones dos estados distintos (como el gato vivo o muerto) y observaron el mismo estado en los fotones de la cavidad de al lado.

Una situación "exótica"

"Con esta arquitectura, somos capaces de introducir un 'gato' hecho de fotones de microondas confinadas, que se propaga a través de ambas cajas", señala Gao. "Como tal, su estado en cada cavidad está muy entrelazado con el de la otra, y no se puede describir por separado. Su destino es desconocido para nosotros a menos que abramos las dos cajas a la vez". Es decir, el gato solo está vivo y muerto en las dos cajas al mismo tiempo, nunca si una de ellas se abre.

"Hemos creado una situación nueva y más exótica para el gato de Schrödinger (con un 'tamaño' de momento de hasta 80 fotones), una superposición de estados coherentes de luz que viven y mueren en dos sitios al mismo tiempo", concluye la investigadora de Yale. De hecho, el experimento del equipo se puede considerar el primer caso de este tipo de coherencia cuántica a escala macroscópica.


Fuente: El Mundo

La 'guerra' de los transgénicos 



Nunca ha habido paz con los transgénicos. La de los organismos modificados genéticamente (OMG) es una historia de opiniones encontradas. El debate sobre su seguridad alimenticia y su impacto en el medio ambiente y en otros cultivos parece no tener fin. Y ahora la batalla ha saltado también al ámbito empresarial con la oferta de la farmacéutica alemana Bayer de más de 55.000 millones de euros para adquirir Monsanto, el gigante norteamericano de estos organismos modificados.

En medio de las carreras bursátiles que la OPA haya podido generar, la Academia Nacional de Ciencias de EEUU publicó hace días un potente informe que revisaba todas las investigaciones publicadas sobre el impacto de los transgénicos desde que se comenzaron a utilizar hace tres décadas. Y sus conclusiones han vuelto a airear el viejo debate.

Hay dos ideas principales que se extraen del informe. La primera es que los alimentos procedentes de organismos modificados son tan seguros como los que se producen a partir de cultivos convencionales. Y la segunda revela que la resistencia de los OMG a ciertos herbicidas e insecticidas está provocando un «grave problema agronómico». Cal y arena para la industria y los ecologistas y combustible para un debate que no cesa.

Para muchos el informe zanja el debate sobre la seguridad de estos cultivos para la salud de los consumidores. En cambio, quienes ya tenían una posición contraria a los transgénicos no se han contentado con las conclusiones. «El estudio no es tan tajante como parece», asegura Luis Ferreirim, responsable de Agricultura de Greenpeace España. «Los autores señalan que los trabajos de los que se dispone aún tienen deficiencias. Por ejemplo, no existen estudios que analicen las posibles alergias que pueden provocar las proteínas que se le añaden a estos transgénicos», añade. Es cierto que el informe indica las carencias de algunos estudios y se ciñe sólo a las investigaciones de las que se disponía, pero también resalta que no hay ningún trabajo en 30 años que haya demostrado daño alguno de los organismos modificados a los consumidores.

Quizá la vertiente que más controversia ha generado es la de los impactos sobre otros cultivos. La industria de la agricultura modificada genéticamente tiene muy desarrolladas las variedades de algunos cultivos, como el maíz MON-810 de Monsanto -el único autorizado para su cultivo en Europa-, que resisten la aplicación de determinados herbicidas. En los cultivos transgénicos resistentes a estos productos químicos, se planta la semilla junto con el herbicida desde el primer momento. En cambio, los cultivos convencionales han de aplicarlos a ras de suelo después de que la planta haya crecido para que sólo acabe con las malas hierbas y no afecte al cultivo.

«Cuando se habla del daño que están causando las resistencias sobre el sistema agrícola, no se puede hablar de que lo causen los transgénicos en general, porque no todos los transgénicos son resistentes a herbicidas», asegura José Miguel Mulet, autor de Comer sin miedo y profesor de Biotecnología de la Universidad Politécnica de Valencia. En cambio, ecologistas y opositores a estos cultivos modificados han visto una fisura por la que conducir sus dudas y sus críticas. «Los transgénicos vinieron a solucionar los problemas agrícolas y a acabar con el hambre en el mundo, pero este estudio refleja que la producción que se obtiene no es mayor que con la agricultura convencional y que en cambio están provocando un enorme problema en la agronomía por la resistencia a herbicidas e insecticidas que podrían afectar a otros cultivos», opina Ferreirim.

La agricultura ecológica también utiliza productos contra las plagas de origen natural que están autorizados por los organismos reguladores, como la bacteria Bacillus thuringiensis. «Precisamente una proteína de ese microorganismo es lo que usa el maíz BT como insecticida», explica José Miguel Mulet. «Resulta que en la agricultura ecológica pueden usar la bacteria, pero si usas el gen que produce esa proteína en un maíz para protegerlo contra una plaga, entonces es peligroso», ironiza Mulet.

La contaminación de variedades no modificadas a través de la polinización de los organismos transgénicos ha sido siempre otro de las grandes críticas sobre todo de los agricultores ecológicos, a los que los organismos reguladores no les permiten la presencia de transgénicos en sus productos. «No es que pueda ocurrir, es que ya hay casos de hibridación y contaminación de cultivos ecológicos y de plantas silvestres en Aragón y Cataluña», explica Víctor Gonzálvez, director técnico de la Sociedad Española de Agricultura Ecológica. «De hecho, los cultivos de maíz ecológico prácticamente han desaparecido en España porque es imposible aislarlos de los transgénicos», afirma.

Para los ecologistas, el informe no ha atendido a una de sus principales reclamaciones. «Es una oportunidad perdida para comparar la agricultura convencional y los transgénicos, con la ecológica», dice Ferreirim.


Fuente: El Mundo

Científicos en pugna: del laboratorio al debate político 



Por Nora Bär Algo cambió en la comunidad científica: nunca antes la discusión sobre la ciencia local estuvo tan en el candelero, aunque el ministro de Ciencia, Tecnología e Innovación Productiva, Lino Barañao , y el presidente del Conicet, Alejandro Ceccatto, se esmeren en asegurar que todo sigue igual.

El 27 de abril, un grupo de diez investigadores le entregaron a Barañao un petitorio firmado por 3422 integrantes del sistema científico en el que detallaban una serie de puntos que estimaban "preocupantes". Semanas más tarde, en el programa inaugural del ciclo de Adrián Paenza en la TV Pública, el periodista y divulgador de temas científicos expresó su disconformidad con el rumbo de la gestión del presidente Macri y subrayó que no estaba de acuerdo con la presencia del ex ministro kirchnerista en el nuevo gabinete: la describió como una "traición". De allí en más, se desató una tormenta de cruces profusamente repetidos por los medios de comunicación, que expusieron la inquietud de esa parte del sistema científico. Tradicional cultor del perfil bajo, en los últimos días Barañao fue entrevistado en programas radiales y televisivos.

En 48 horas, hasta estuvo en Intratables, de AméricaTV , y comió locro en A dos voces, de TN.

Diferentes posturas ideológicas se pusieron sobre el tapete. De un lado advierten que los sueldos de los becarios son irrisorios, que puede estar en peligro el ritmo de crecimiento en ciencia y tecnología, temen que se avecinen recortes en el Conicet y que los cambios en el contexto económico den origen a una nueva fuga de cerebros, entre otras inquietudes.

Del otro, lo niegan. Destacan que hasta ahora no hay nada que indique que eso vaya a suceder, que no hubo despidos en el área del Ministerio de Ciencia, que se cumplió con los ingresos a carrera aprobados el año último, que se abonaron los compromisos contraídos por la anterior gestión y que esperan que los inconvenientes derivados de los aumentos de tarifas, los retrasos en los sueldos y la devaluación de los subsidios se subsanen cuanto antes. Es más: ven un panorama alentador.

Ante la observación de que "antes se quejaban en privado y ahora lo hacen en público", la doctora Raquel Chan, laureada directora del Conicet Santa Fe, destaca que "es cierto que [con el anterior gobierno] no estaba todo resuelto y que una línea de subsidios estaba atrasada. Pero también que en los últimos tres años y medio en Rosario construimos cinco edificios. Fue un avance tan grande la creación del ministerio, agregar miles de metros cuadrados, que por ahí la gente no se quejaba del sueldo porque le daba vergüenza".

Ante la crispación que se apoderó de los protagonistas, Roberto Salvarezza, presidente saliente del Conicet y director del Instituto de Investigaciones Fisicoquímicas (Inifta), además de premio Konex de Platino, y premio Bunge y Born, desmiente que busquen la renuncia del ministro. "Nadie está atacando a Barañao ni a Ceccatto -dice-. Les estamos pidiendo que aclaren cómo sigue todo."

Entre los aspectos que más inquietan figuran la actualización de los montos vigentes para proyectos en el rubro insumos y bienes de capital, la compensación de la diferencia originada por la devaluación en los recursos para la adquisición de equipamiento, que se cumpla con el Plan Federal de Infraestructura y de obras menores, aumentar las partidas presupuestarias y mantener el crecimiento del personal de investigación del Conicet, entre otros.

"Percibimos dificultades crecientes y nuestra expectativa es que las autoridades actúen para corregirlas -afirma Salvarezza-. Por ejemplo, solicitamos que se actualicen los subsidios al menos un 50% y no el 17% que prometió el ministerio. Se cumplió con la jerarquización, que está muy bien, pero no hubo un aumento presupuestario. Yo tengo presupuesto en el instituto hasta agosto."

Preocupación por el futuro

Para Pedro Bekinschtein, joven investigador que ganó un subsidio PIP (para proyectos de investigación) en 2014 y todavía no cobró, "ni todo era tan maravilloso como plantea Adrián Paenza ni tampoco está todo bien como afirman el ministro y el presidente del Conicet". Bekinschtein recuerda que informalmente se informó que no habrá gran crecimiento del plantel científico. "Esto implica menos becas y menos cargos de investigador -explica-: los científicos más jóvenes no van a conseguir becarios para producir tesis doctorales, con la consecuencia de que disminuirá la producción científica. Esto favorece a los grupos más establecidos e históricos, que suelen ser los menos innovadores", dice.

Para Chan, si no se ajustan los sueldos de los becarios (que ganan entre 11.000 y 13.000 pesos, y recibirán un aumento de apenas el 7% en junio) se corre el riesgo de no encontrar postulantes para las becas de doctorado.

Un científico que pide reserva de su nombre considera que "pasó poco tiempo para decir que fue todo para atrás. Doy fe de que nunca se les dejó de pagar a los investigadores ni a los becarios, como dijo alguien, pero la jerarquización fue la mitad de lo que se había prometido y encima el impuesto a las ganancias diluyó todo. Los subsidios siempre fueron bajísimos. En 2002, un PICT (para proyectos de investigación científica) era de 50.000 dólares anuales. El último que saqué era de alrededor de 400.000 pesos por tres años. Por otra parte, se llegó a decir que los científicos hacemos ciencia para mostrarnos frente a nuestros colegas, para sacar chapa, que somos curiosos, pero egoístas."

Y enseguida agrega: "La comunidad científica se polarizó mucho, como la sociedad. Todo el mundo está tan seguro de que las cosas van a salir mal que es probable que salgan mal. Yo quiero que le vaya bien a este gobierno como quería que le fuera bien al de Cristina, pero estoy muy preocupado".

En el exterior

La misma preocupación tienen algunos investigadores que están haciendo su posdoctorado en el extranjero. Como Adrián Jacobo, que trabaja en la Universidad Rockefeller, de Nueva York: "Tanto yo como mi esposa estamos tomando la decisión de si volver o no -escribe por mail-. Como se ve la situación desde afuera, el panorama es un poco desalentador, porque no hay señales claras de cómo van a seguir las cosas, entonces te jugás a regresar y en un año o dos tener que irte de nuevo porque se corta el apoyo".

Ceccatto pone paños fríos y subraya que "con todo lo bueno hecho en ciencia por el gobierno anterior, en los últimos años se percibían algunos problemas". Según el funcionario, ya se gestionaron y obtuvieron 815 millones de pesos adicionales que permiten cubrir los aumentos por jerarquización y proporcionan fondos para garantizar los ingresos a carrera y las becas previstos para este año. Están viendo cómo obtener las partidas necesarias para cumplir lo más rápido posible con los subsidios y definirán una política sobre la convocatoria que debería llamarse en el segundo semestre.

Solicitaron un presupuesto para 2017 que permitiría mantener el número de becarios actuales (es decir, cubrir el 20% de becarios doctorales que terminan su beca de cinco años y el 50% de los posdoctorales). Y están gestionando presupuesto para entre 740 y 780 nuevos cargos. También sigue en pie el plan federal de infraestructura.

Concluye Ceccatto: "No quiero seguir discutiendo hechos que deben estar claramente aceptados por todos como datos de la realidad. Después, las interpretaciones corren por cuenta de cada uno de acuerdo con su postura política, y es libre de decir lo que quiera. Flaco favor le haríamos al país si desde una comunidad de ciencia no pudiéramos acordar esa racionalidad en el análisis de la coyuntura".

Aunque el fragor de la discusión (que el espectáculo montado en la arena pública no contribuyó a apaciguar) impresione a los no habituados a las turbulencias de la ciencia, no es nada nuevo en un sistema que no se rige por el principio de autoridad y en el que vale tanto la afirmación de un becario como la del presidente del Conicet, siempre que tenga evidencias concluyentes. Los próximos meses permitirán demostrar cuál de los bandos tiene razón.

Una amistad de larga data

Tal vez la vehemencia que atraviesa la controversia entre varios de los más destacados integrantes del sistema científico local surja de una circunstancia particular. Se trata de un enfrentamiento entre viejos amigos y compañeros de ruta que defendieron juntos la supervivencia de la ciencia local durante décadas en las que ocupaba el último lugar en la lista de preocupaciones de los gobernantes. Como mencionó el ministro Barañao, fue Paenza el que sugirió su nombre para que ocupara la dirección del flamante ministerio. Investigadores de los más diversos ámbitos hicieron conocer su apoyo al ganador del premio Leelavati. "No es científico, sino divulgador, y tiene derecho a expresarse políticamente", destacó Salvarezza.


Fuente: La Nación