Programa 218

Lo que la Ciencia nos dejó


En esta emisión, contamos con la participación de Sebastián Barbosa y Manuel Giménez para realizar un repaso de las noticias científicas más destacadas de la semana. Entre ellas, se destacaron: los desafíos futuros del sector de la Ciencia y Tecnología, la inauguración del Centro Cultural de la Ciencia "Lugar a dudas", los riesgos del sedentarismo, y las preguntas curiosas que hacen los niños y los padres encuentran difíciles de resolver.

Resumen científico - 93

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Al futuro presidente 




* Por Adrián Paenza

Falta muy poco para que se defina el nuevo presidente de la Argentina. Durante los últimos doce años el país ha dado un vuelco espectacular. Pasamos de minimizar o ningunear a la comunidad científica a generar un ministerio. Pero todavía quedan muchísimas cosas por hacer, muchísimas. En términos de presupuesto será imprescindible en los próximos cuatro años concretar una promesa que viene de larga data: elevar al uno por ciento el porcentaje del PBI asignado a Ciencia y Tecnología. La Alianza que terminó con De la Rúa como presidente lo había incluido en su plataforma. No puedo escribir que fracasaron, porque para hablar de “fracaso” es necesario haber intentado. No me interesa ahora hacer acá un análisis histórico de las razones porque no me quiero desviar de mi objetivo. Mi idea es exhibir argumentos que servirán (o les deberían servir) a los candidatos y a la sociedad toda, para entender por qué un país necesita invertir en ciencia básica.

Cuando escucho que el dinero invertido en algunas áreas de investigación es un despilfarro me gustaría que quien quiera que sea el futuro presidente tenga en cuenta algunas historias muy ilustrativas que voy a reproducir acá abajo. De todas formas, como no me gustaría escribir una nota solamente para seis personas, le sugeriría que viera qué le parece a usted.

Me apresuro a decir que lo que va a leer está extractado en forma “casi textual” de una charla pronunciada el 18 de abril de este año 2015. La pregunta natural es: ¿quién dio la conferencia? Mi respuesta a esta altura: tanto el orador como sus credenciales las voy a incluir al final. Si me permite, le pediría que lea las ideas y júzguelas como tales. No se someta al principio de autoridad (o falta de ella). No permita que el nombre del orador (u oradora) le tuerza su percepción. Lea libremente y, en todo caso, después complete la información que le falta leyendo las últimas dos líneas de este artículo.

Suficiente preámbulo. Ahora sí, quiero ofrecer algunas razones por las cuales un país “tiene que invertir en ciencia básica”.

El orador empezó su alocución como si le estuviera hablando a los miembros del Congreso de un país, a políticos, a aquellos que tienen que tomar las decisiones sobre cómo invertir el presupuesto que tienen disponible. Y les dijo:

“Cuando se trata de fondos públicos, es tradicional que las personas que tienen que decidir el destino de los fondos traten de garantizar tres puntos: a) objetivos claros; b) plazos cortos en el retorno; c) evitar el gasto inútil”.

Y siguió: “Por supuesto, nada que aparezca en el Presupuesto Nacional puede escapar a este tipo de monitoreo y no hay ninguna razón para que cuando se habla de producir investigación básica, estas reglas no sean cumplidas. En realidad, ¿cómo no estar de acuerdo? Por ejemplo, si estoy construyendo autopistas o rutas o puentes en un país, quiero verificar la conexión directa entre inversión social y retorno de la inversión”.

Acá hace una pausa y dice: “¿Cuál es el error de este planteo? Bueno, el error es que ¡todo este razonamiento está mal! Cuando se habla de investigación básica, todo esto es totalmente equivocado. Sería terrible para un país planificar de esa forma. La investigación básica es fundamentalmente diferente de cualquier otro tipo de inversión. Ni siquiera tiene sentido plantear los retornos en términos de 10 a 1, o de 100 a 1, o de 10.000 a 1... El problema con este planteo es que en general, o mejor dicho, muy frecuentemente, las ideas aparecen en forma totalmente inesperadas. No importa cuánto ustedes busquen, es imposible determinar cuándo van a materializarse y por dónde”.

Y acá es donde el orador expone algunos ejemplos. Le sugiero que los lea con cuidado. Como son de disciplinas que uno no trata necesariamente con frecuencia, si hay algún término que se le pierde (como me pasó a mí), siga adelante. No se detenga por cuestiones técnicas. La idea es entender conceptualmente de qué estoy hablando... Una cosa más: si bien todas las historias están extractadas de la charla y he tratado de ser lo más fiel que pude al discurso original, edité algunas partes porque o bien no son pertinentes o bien son demasiado extensas y se alejan del objetivo. Ahora sí, acá voy.

“Empiezo con la matemática. Uno de los más grandes matemáticos del siglo XX fue el británico G. H. Hardy. Hardy vivió enamorado de la Teoría de Números. Sin embargo, a pesar de haber escrito que la amaba, también escribió en un ensayo muy famoso (1) que la consideraba totalmente inservible. Hardy siempre ligó la matemática con la pintura, la poesía y en algún sentido, se sentía orgulloso en poder decir que ¡no tenía ninguna aplicación práctica! Más aún, dijo: ‘veo claramente improbable que esto tenga alguna utilidad en el futuro’. Hoy, se debe estar revolviendo en su tumba, porque la Teoría de Números en general y los números primos en particular, son los que yacen en las bases de las comunicaciones, la criptografía, los cajeros automáticos, las contraseñas de todo tipo... esencialmente, la factorización de números primos y la Teoría de Números es central por sus aplicaciones comerciales y para proteger la privacidad de cualquier transacción.”

Y siguió: “Ahora, volvamos un poco más atrás, al siglo XIX. Supongamos que yo tuviera que explicarles a los miembros del congreso de un país que sería conveniente destinar una parte del Presupuesto al estudio de lo que se llaman ‘Geometrías No-Euclideanas’. Imagínense que uno se para frente a diputados y senadores y les dice: ‘Durante más de 2000 años hemos visto que las rectas paralelas no se cortan. Bien. Ahora imaginemos un mundo en donde eso no es cierto, un mundo en donde todas las rectas se cortan. Un mundo en donde no hay rectas paralelas como las conocemos hoy y acá’”.

“Estoy seguro que el orador hubiera sido considerado una suerte de ‘loco’, aunque más no sea porque no describe al mundo real. Por lo tanto, no es práctico. ¿Por qué habríamos de destinar fondos públicos a una investigación de ese tipo?

“Lo notable, lo extraordinario es que sí, que sí describe al mundo real. Es que en algún sentido, la matemática estaba por delante de lo que nosotros entendíamos como mundo real, o lo que verdaderamente significa el mundo real. De hecho, esta idea es central para la teoría de la Relatividad General de Einstein, en el mundo curvo espacio/tiempo (y le pido por favor que no abandone acá, no se asuste porque lo que sigue es híper-interesante. Téngame confianza...).

“Esto seguro que usted se estará pensando: ‘todo bien, pero ¿y para qué sirve? ¿cómo se usa en la práctica?’ Respuesta: cualquier persona que tenga un teléfono celular ha utilizado su GPS. Justamente, tanto los teléfonos celulares como cualquier otro dispositivo que tenga incorporado un GPS está usando la relatividad general, porque sin que uno lo advierta es la que permite hacer las correcciones necesarias para evitar los ‘retrasos’ que tienen las señales satelitales que usan los GPS para determinar la posición correcta en la que usted se encuentra. De hecho, todos los iPhones (o el que fuere) tienen incluidas estas correcciones.

Ahora sigo con otra ciencia. Hablemos de física. “Corría el año 1957 cuando Charles Townes inventó los lasers. En ese momento, le dijeron que tenía ¡una solución pero que le faltaba un problema! ‘¿Qué vas a hacer con estos objetos?’, fue la pregunta que recibió. Ya existían los masers (2)” (de los que yo nunca había escuchado hablar antes... ¿usted sí?).

“En algún sentido, un laser es un maser óptico. Como producto de la curiosidad básica, Townes quiso ver si él podía hacer lo mismo con la frecuencia de la luz que lo que ya existía con las microondas e inventó los lasers en lugar de masers.

“Resulta que los lasers sirven hoy (entre otras múltiples aplicaciones) para cortar, soldar, imprimir cds, códigos de barras, scanners, para tratar piedritas en los riñones, cirugía en los ojos, hologramas, análisis de huellas digitales, en las dentaduras, etc, etc... ¿Hace falta algo más? Justamente, la Academia Sueca le dio a Townes el Premio Nobel de Física en el año 1964.

Más ejemplos dentro de la física. “Algo que estuvo muy de moda hace un par de años: ¿para qué habríamos de querer enormes aceleradores de partículas? (como el Cern, ubicado en la frontera suizo-francesa y también conocido como ‘la máquina de dios’ o el que está en el Fermilab, en Batavia, Illinois). ¿Para qué habríamos de querer invertir dineros impresionantes para estudiar partículas subatómicas, que aparecen oscuras, escondidas? ¿A quién podría interesarle estudiar este tipo partículas que uno nunca verá en su vida? Quarks, leptones, bosones... ¿de qué me habla? ¿Qué excusa podrá encontrar uno para fabricar máquinas de esas características? ¿Estamos todos locos? ¿Lo hacemos por curiosidad?

“Lo notable es que la tecnología para construir estos aparatos es la misma tecnología que usamos para construir fuentes de luz de sincrotrón que son las que usamos también para cristalografía de rayos X, que sirven para estudiar la estructura de proteínas y que son centrales para el desarrollo de virtualmente todos los medicamentos. Todo desarrollo de medicamentos necesita tener un estudio serio de la estructura de las proteínas y eso se resolvió haciendo uso de las fuentes de luz de sincrotrón.

“Al mismo tiempo, es muy difícil decir que la investigación de los quarks es inútil porque este tipo de investigaciones tienen algo muy curioso: comienzan a hacerse útiles cuando uno menos lo espera. Un sincrotrón es una fuente de luz brillante que los científicos usan para juntar información sobre las propiedades químicas y estructurales de ciertos materiales. Es una herramienta poderosa que se ha transformado en indispensable en varias disciplinas como la ciencia de materiales y la nanotecnología y también la nano y micro fabricación de productos. La radiación sincrotrónica permite observar organismos vivientes, materiales fabricados por el hombre y componentes útiles para la ingeniería, sin necesidad de ‘destruirlos’, in situ, revelando detalles estructurales, propiedades químicas, magnéticas, electrónicas...

Otro ejemplo, ahora en nanotecnología. “Hay unos animalitos muy pequeños llamados ‘geckos’ (o gecos) que investigó un físico nacido en la ex Unión Soviética y después terminó siendo holando-inglés. Me refiero a Andrei Geim. Por lo que voy a describir, le dieron también el premio Nobel en Física en el año 2010. Fíjese lo que hizo Geim. Los geckos pesan alrededor de 150 gramos, casi nada. Pero la particularidad que tienen es que se adhieren a cualquier superficie independientemente de la posición en la que estén: horizontal, vertical, oblicua, hacia arriba, hacia abajo... como sea. Entender cómo hacían para trepar en superficies lisas, resbaladizas, enjabonadas, empujaron a Geim a dedicar horas y horas tratando de dilucidar este misterio.

“Ahora bien: ¿quién, en su sano juicio, habría de invertir dineros públicos en un proyecto de estas características? Usted... ¿subsidiaría a un ‘loquito’ para que estudie cómo se adhiere un animalito a un vidrio o a un mármol? ¿No tienen otra cosa mejor que hacer con el dinero? Resulta que por esas investigaciones Geim consiguió un material superadhesivo, que se pega virtualmente a cualquier superficie: el Gecko tape. Pero hay más: Geim utilizó sus investigaciones con los geckos y también la cinta Scotch, para ir despegando de a una las capas de grafito, y justamente, con este proceso de ‘despegue’ paulatino llegó a tener una capa que tiene ¡un átomo de espesor! Eso es lo que hoy se llama grafeno. Es un material increíblemente delgado, increíblemente fuerte, increíblemente flexible, totalmente transparente...”

Ahora, me voy a otra ciencia: la biología. “Algunos biólogos decidieron ir hasta Yellowstone el parque nacional norteamericano que ocupa una parte de los estados de Wyoming, Montana y Idaho. Se fueron a investigar las bacterias que viven en las termas que están allí y se conocen como ‘hot springs’. ¿Cómo? ¿Hay que usar los impuestos de la gente para ir a buscar bacterias allí? ¿No hay bacterias más cerca? Lo notable, es que estas bacterias no son bacterias cualesquiera sino que tienen enzimas muy estables porque están acostumbradas a tolerar temperaturas altísimas. Una de ellas es una enzima muy particular: la ADN polimerasa. Resulta que esta enzima es hoy una componente crucial en la tecnología de amplificación del ADN conocida con el nombre de PCR (3). Esta tecnología en biología molecular, se usa para amplificar una o varias copias de un trozo de ADN, generando desde miles hasta millones de copias. Más aún: ¡se usa hoy todos los días, en el mundo entero, millones de veces! Uno puede decir sin temor a equivocarse que tenemos la tecnología del PCR porque alguien fue a estudiar las bacterias en las termas de Yellowstone... y aunque parezca loco: es estrictamente así. Y los biólogos que fueron allí, ¡no sabían la utilidad que tendrían sus estudios! Fueron por curiosidad, porque conjeturaron que algo podrían encontrar en esas bacterias (4).

Ahora, le pido que preste atención a este otro ejemplo siempre dentro de la biología. “Ahora quiero hablar de las aguas vivas o medusas. Algunas de ellas brillan. Sí, brillan... en color verde. ¿No parece una locura que alguien se ponga a estudiar por qué brillan en verde? Y cuando las estudia, descubre que hay una proteína que justamente brilla en color verde y que se conoce como Green Fluorescent Protein (Proteina Verde Fluorescente). Si uno las pega o adjunta a cualquier otra proteína usando ingeniería genética, esta nueva proteína brilla en verde también. No solo eso: se la puede cambiar y hacer que ahora brillen en rojo, en amarillo, en otros colores hasta lograr una suerte de ensalada tutti-frutti de proteínas y con ellas estudiar la arquitectura de las células y hacer todo tipo de ensayos. Por supuesto, y antes que me olvide, a las personas que se preguntaron por qué las aguas vivas o medusas brillan en verde les dieron el premio Nobel también (5).

Ahora, uno de los ejemplos más trascendentes en la historia de la humanidad. “En el año 1953, Francis Crick y James Watson descubrieron la estructura en doble hélice del ADN e infirieron que la información estaba codificada en estas dos cintas. Una secuencia de bases en una de ellas y la complementaria en la otra (6). Con eso, revolucionaron el mundo. Ni Crick ni Watson tenían la menor idea que serían capaces de leer esa información. Y lo sé porque ¡se los pregunté a cada uno de ellos! (7) Fue un sueño increíble. Decenas, centenas, miles de científicos se pusieron a trabajar en conjunto. Y develaron como el ADN está copiado en células, en el ARN y cómo se interpreta para hacer proteínas. Después vimos cómo se podían tomar algunos trozos y los empezamos a leer en los laboratorios. Después clonamos ADN, lo secuenciamos. Primero lo hicimos con decenas de letras, después cientos, miles, millones... Cuando empezó el proyecto en el año 1985 fue considerado como ‘totalmente loco’, algo así como ‘tirar el dinero de la gente’. Algunos consideraban que era un despilfarro de miles de millones de dólares. Pero en 1990 ya había un plan en marcha y el 25 de abril del año 2003, se completó la secuenciación del genoma humano. Y elegimos ese día en particular porque se cumplían exactamente 50 años de la publicación del paper de Crick y Watson. Fue como decir: “miren lo que se pudo hacer en medio siglo”.

“Por supuesto, había muchísimas cosas que esperábamos entender si lográbamos leer el genoma, pero después surgieron muchísimas más, totalmente inesperadas. Empezaron a emerger una cantidad enorme de fuentes de información sobre genes para distintas enfermedades. Cuando comenzamos a entender las bases de enfermedades cardíacas, aprendimos que el LDL es el colesterol ‘malo’, que el HDL es el colesterol ‘bueno’. Fuimos encontrando caminos totalmente novedosos en muchísimas áreas. Aprendimos sobre la diabetes, sobre la esquizofrenia, sobre el autismo, y ni hablar sobre el cáncer. Y aparecieron cientos de drogas y muchísimas más que están hoy en desarrollo debido a esta cantidad de información. Más aún: aprendimos cómo está estructurado el ADN, cómo está plegado sobre sí mismo...

“Y entendimos mucho más sobre la teoría de la evolución, vimos cómo las especies están relacionadas, cómo la población mundial está esparcida por el mundo. Y de pronto, nos golpeó algo totalmente inesperado: ver cómo nos hemos relacionado con el hombre de Neandertal. Esto lo descubrimos leyendo el ADN y usando una dosis extraordinaria e imprescindible de análisis matemático.

Ahora bien: los políticos electos preguntarán con razón: “¿Y quién toma las decisiones de en cuáles proyectos conviene invertir? ¿A cuáles subsidiar? ¿Quién decide?” Acá es donde necesito decir algo muy controversial y que algunos lo van a tomar como muy ‘elitista’, pero es lo que pienso: “las decisiones la tienen que tomar los expertos. En una sociedad democrática uno no querría dar la respuesta que estoy dando, pero determinar cuál es una buena pregunta o qué pregunta sería interesante contestar... ¡la tienen que dar los expertos! No estoy diciendo que tomen decisiones ilimitadas o sin control: “Confíe, sí, pero verifique”.

Para terminar, preste atención a cómo terminó la charla.

“En lugar de mirar hacia el futuro, en lugar de ver qué renta o rédito uno podría sacar en pocos meses, le propongo que mire hacia atrás y vea lo que hemos obtenido en los últimos 25 años. Puede que haya habido momentos en los que no tuvimos los resultados que queríamos, pero necesitamos seguir entrenando mentes jóvenes, necesitamos promover las mejores, porque al menos hasta acá, ¡nadie ha inventado un sistema mejor que este para procurar el bienestar de la sociedad toda!

Dato final

Tal como había prometido más arriba, quien dio esta conferencia fue Eric Lander. ¿Quién? Eric Lander. Lander es un matemático que después se dedicó a la biología y se transformó en especialista en genética. Nació en New York y es miembro del consejo directivo de dos de las universidades más importantes del mundo (MIT y Harvard). Lander es además, el presidente del consejo de asesores en temas de ciencia de Barack Obama, actual presidente de Estados Unidos. Su opinión es altamente considerada no solo en su país de origen sino que también en el resto del mundo.

De todas formas, lo que sí me parece importante es que quien quiera que sea el futuro presidente de los argentinos, tenga en cuenta lo que ha pasado en nuestro país en los últimos doce años. Llega el momento de renovar la apuesta, mejorar lo hecho y apuntar cada vez más hacia arriba.

Incorporar a los científicos para planificar las políticas de estado que nos sirvan para pensar el país que queremos ser, incluyendo a todos y que sirva también para mejorar la calidad de vida de la sociedad toda. Habrá que incrementar aún más el presupuesto para que la Argentina ocupe el lugar en el mundo que le corresponde de acuerdo con la calidad de nuestros investigadores y técnicos.

Justamente, esas políticas de estado que nos sirvieron para llegar hasta acá, requieren del nuevo presidente y sus ministros/asesores, un renovado compromiso para mejorar lo hecho. Supongo que queda claro que toda la sociedad estará atenta: Nunca menos.

Notas:

(1) A Mathematician Apology (Las Disculpas de un Matemático).
(2) Maser: Microwave Amplification by Stimulated Emission Radiation (Amplificación de Microondas por la Emisión Estimulada de Radiación). Laser: Light Amplification by Stimulated Emission of Radiation, (Amplificación de Luz por la Emisión Estimulada de Radiación).
(3) PCR son las iniciales en inglés de Polymerase Chain Reaction (Reacción en cadena de la Polimerasa).
(4) El más relevante de esos biólogos, Kari Mullis, recibió el Premio Nobel en el año 1993 por la invención de la PCR.
(5) Martin Chalfie, Osamu Shimomura y Roger Tsien recibieron el Premio Nobel de Biología del año 2008 por el descubrimiento y usos de la proteína flourescente verde.
(6) Complementaria porque “apareada” con cada A hay una T (y viceversa) y con cada C una “letra” o base G (y viceversa).
(7) Dice el orador, no yo.

Fuente: Página 12

”Lugar a Dudas”, un centro para
difundir el pensamiento científico
 





A cualquier edad, la propuesta es irresistible: asomarse a grandes temas de la ciencia a través del juego y de la experimentación. Se podrá, por ejemplo, componer un vals único, producto de una combinación entre más de 43 mil millones de posibilidades, con 16 compases creados por Mozart hace dos siglos y medio. O ver desfilar frente a nuestros ojos la historia del universo en un par de minutos. O mirar con "visión infrarroja".

Estas experiencias y otras cincuenta igualmente divertidas y provocativas esperan a quienes se acerquen al nuevo Centro Cultural de la Ciencia ubicado en el Polo Científico de las ex bodegas Giol, inaugurado la semana última (junto con la nueva sede del Conicet) por la presidenta Cristina Kirchner.

"Este centro tiene un propósito educativo, pero también lúdico -cuenta el conocido divulgador de la ciencia Diego Golombek, que condujo el equipo a cargo del diseño de contenidos y ayer hizo la presentación pública-. Intentamos que tuviera múltiples niveles de lectura. Nuestro público «ideal» son los adolescentes, porque uno de los objetivos de todo esto es fomentar vocaciones científicas, pero queremos que lo disfrute gente de cualquier edad, e iremos corrigiendo a medida que avancemos".

Según explicó Golombek, a pesar de que hay empresas que venden los museos "llave en mano", en este caso se tomó la decisión de pedir el asesoramiento de científicos, artistas y diseñadores locales.

El producto estrella de este esfuerzo es el nuevo espacio llamado Lugar A Dudas, que recibirá a grupos de escolares desde el miércoles próximo y al público general, desde el 21.

Además del museo interactivo, el nuevo Centro Cultural de la Ciencia tiene un auditorio para 500 personas, completamente equipado y con diseño acústico de Diego Basso (el mismo ingeniero que se ocupó de la sala del Teatro Colón, el Argentino de La Plata y la Ballena Azul), laboratorio, salas para talleres y lo que será la primera biblioteca especializada en divulgación de la ciencia.


Fuente: La Nación

El Estado como promotor de la ciencia 




Feld analiza el proceso de institucionalización del sistema científico desde 1943 y destaca el rol que cumplieron las políticas públicas. También recorre los cambios en la valoración de las ciencias y en la forma en que se concibe al científico.

En el libro Ciencia y política(s) en la Argentina –recién publicado por la Universidad Nacional de Quilmes–, la historiadora Adriana Feld recorre las políticas de ciencia y tecnología que signaron la producción nacional durante un período de 40 años, entre 1943-1983, en el que se sucedieron gobiernos democráticos y dictaduras sangrientas, proyectos nacionales y miradas internacionalistas. Feld escogió ese lapso para anticiparse brevemente a las iniciativas del primer peronismo, momento en el que se crearon instituciones emblemáticas del área, y culminar con la recuperación democrática del 83, año en que identificó el cierre de una etapa de “institucionalización” y el viraje de la discusión hacia nuevos horizontes. A lo largo del libro aparecen, en compleja interrelación, actores, aspiraciones y paradigmas diversos que, dejando de lado la idea que postula a la ciencia como un esfera neutral, la exhiben como un campo más donde lo que pregna es la disputa.

–¿La política científica del peronismo coincide con las versiones historiográficas más difundidas respecto a ese período?

–Me parece que en la historiografía no hay una clara definición del perfil de las políticas de ciencia y tecnología durante este período porque los trabajos que lo abordan son relativamente recientes y porque, si bien en estos años la política de ciencia y tecnología se plantea como una política explícita y se crean algunos organismos, es muy difícil ver cuestiones como los patrones de inversión en ciencia y tecnología o cómo se orientó la política en este área. Ahora, lo que uno tiene son algunas innovaciones institucionales y un énfasis retórico en algunas cuestiones. En la revista Mundo Atómico uno puede ver un discurso en donde la ciencia aparece como subsidiaria del desarrollo económico, fundamentalmente del desarrollo industrial y del desarrollo de algunos sectores estratégicos de interés militar y también, en algunos casos, como una forma de afirmación de la soberanía sobre el territorio. Una segunda cuestión que uno encuentra es un mayor énfasis sobre la necesidad de crear o fortalecer organismos de investigación insertos en estructuras ministeriales por sobre las universidades.

–Usted señala dos “culturas políticas” en torno de la política científico tecnológica: la burocráctico-estratégica y la académica. ¿Qué características tienen?

–En esos años hay una tensión entre la retórica oficial y la retórica de la elite científica argentina. No es una tensión propia de la Argentina, pero adquiere cierta virulencia en el marco de las tensiones políticas y socioculturales del peronismo. Digamos que si el discurso de Perón era muy nacionalista y señalaba la necesidad de planificar la actividad científica y que hubiera comités o consejos para las políticas científicas, el discurso de la elite académica era fuertemente internacionalista. Uno también encuentra en el discurso de la comunidad científica, que analicé a través de revistas como Ciencia e Investigación, cierta exaltación de la autonomía y de la libertad de investigación y cierta concurrencia a un discurso que después nosotros llamamos un discurso lineal, vinculado con el modelo de investigación lineal: que fomentando la ciencia básica se pueden obtener beneficios socioeconómicos de un modo casi automático, sin intermediación de otros tipos de instrumentos institucionales.

–¿Por qué el período 1955-1966 suele ser conceptualizado como los “años dorados” de la ciencia y la universidad nacionales?

–Es un modo de interpretar este período que tiene cierta coherencia con un proceso de creación o refundación de instituciones de ciencia y tecnología como el INTI, el INTA... Se crea el Conicet sobre la base administrativa del consejo que había creado Perón. Se produce también un proceso de cambio de formación en las universidades, con la creación de cargos exclusivos. Se crean laboratorios de investigación, nuevas carreras y la idea de asociar docencia con investigación. Eso coincide además con lo que se consideran los años dorados de la asistencia técnica internacional, con una gran afluencia de recursos de organizaciones norteamericanas. Se empiezan a establecer instrumentos para la formación de nuevos investigadores y criterios para evaluar la calidad de las producciones o para otorgar becas o subsidios. También intervienen otros factores. Por un lado, la marca del discurso de los protagonistas de la época, caracterizado por un espíritu refundacional y, por otro lado, hay una valorización de este período en función de lo que pasó después: lo más emblemático fue La noche de los bastones largos, que destruyó experiencias muy interesantes.

–¿Cómo fueron cambiando, durante el período analizado, las concepciones en torno de la figura del investigador?

–Yo analizo algunos editoriales de la revista Ciencia e Investigación de los años 60 y veo que si para los años 40, 50 la imagen del investigador aparece como una especie de sabio abnegado, como una figura excepcional, cuyas características principales son la objetividad, la capacidad crítica, el desinterés económico –la actividad científica como una especie de sacerdocio–, en las editoriales de esta revista ya aparece con rasgos más parecidos al hombre común, con sus pasiones, marchas y contramarchas.

–¿De qué se trata el cambio en la representación y valoración de la ciencia que ubica entre fines de los 60 y principios de los 70?

–Ahí analizo la emergencia de lo que hoy se conoce como el pensamiento latinoamericano en ciencia, tecnología y desarrollo. Sin perder de vista el panorama regional, trato de mirar la foto un poco más amplia y ver qué pasa en el mundo. Lo que sucede a fines de los ‘60 es que la ciencia y la tecnología se vuelven más claramente objeto de estudio en las ciencias sociales. Se empieza a cuestionar que la relación entre ciencia, tecnología y desarrollo no es tan lineal y que la investigación científica de excelencia que había tenido logros importantes en Argentina no es suficiente para lograr el desarrollo.

–¿Qué impacto tuvo en el sistema científico tecnológico la dictadura del 76?

–Este período está atravesado por interpretaciones vinculadas con dos rasgos salientes: con las políticas económicas liberales y con las represivas: con la violación de los derechos humanos. Este segundo aspecto yo no lo abordé porque es algo que me parece que se expresó de igual modo en todos los ámbitos: no sé si en el ámbito científico hay algo tan específico. Pero efectivamente hubo despidos, exilios, desapariciones y me parece más interesante mostrar cómo eso interrumpió ciertas trayectorias y líneas de investigación. Uno puede ver, por ejemplo, cómo la política de investigación y extensión del INTA viró hacia problemas de interés para las grandes corporaciones terratenientes en detrimento de otras líneas de investigación que se venían pensando a principios de los 70 y hacían hincapié en las economías regionales.

–¿Se puede concluir que en Argentina el motor de la ciencia estuvo centrado en el Estado y no en el sector privado? ¿Es una particularidad de nuestro país?

–Sí, a lo primero y no a lo segundo. Me parece que muchos países en la región tienen situaciones similares, aunque no es la tendencia mundial. En el caso de Argentina y de otros países de América latina hay una cultura que es muy débil en términos de demandas específicas y el Estado vino a suplir esa falencia.


Fuente: Página 12

Política científico-tecnológica para el desarrollo 




* Por Agustín Campero

El actual gobierno deja, a nivel nacional, algunos avances en materia de ciencia y tecnología: la creación del Ministerio, el aumento en la cantidad de investigadores y becarios, en algunos sectores el aumento del equipamiento, en cierto momento el aumento de sueldos y monto de becas, la profundización de las políticas de repatriación de científicos (larga tradición de los presidentes democráticos), el relativo aumento de las dedicaciones exclusivas y semi exclusivas en las universidades nacionales. Algunos hitos en el desarrollo de áreas estratégicas importantes a partir de capacidades históricas de nuestro país (atómica, espacial) y el ayudar a instalar la idea de que es muy bueno y deseable para un país que haya ciencia y científicos.

Pero también deja puntos grises. Si la política científica no es sólo la gestión en un ministerio sino el conjunto de acciones estatales dirigidas a producir, sistematizar, difundir y utilizar conocimientos de base científica para contribuir a solucionar problemas graves como la pobreza, la falta de vivienda, el transporte o el acceso al agua potable, y procurar lograr competitividad genuina y bienestar, entonces no fue una buena gestión.

Hubo una escasa o nula articulación y planificación entre distintas oficinas del Estado. La política científica tiene que ser sistémica, articulada entre todas las instituciones públicas que hacen investigación y desarrollo y pertenecen al campo del conocimiento, y tiene que estar coordinada y en esa coordinación el Ministerio de Ciencia y Tecnología tiene que tener un rol importante pero no excluyente. Además, la administración del Estado necesita del auxilio de la innovación para modernizarse acercando con prontitud las soluciones a las necesidades sociales. Estas políticas requieren de un Estado profesional, cuestión a la que la organización estatal federal y la gran mayoría de las provinciales han descuidado.

En la actualidad la inversión en I+D como porcentaje del PBI (el indicador de referencia más importante a nivel mundial para ver cuán importante son la ciencia y la tecnología para un país) es del 0,58%. Se produjeron avances en este sentido, pero no se alcanzó la tan mentada meta que se recomienda como mínimo para los países: el 1%. Tampoco se alcanzó la meta de que la mitad del esfuerzo en I+D lo haga el sector privado: hoy estamos en el 20%. A esto se agrega que la inversión en ciencia y tecnología por parte del Estado creció menos que el gasto público. Es decir, para el Estado, en términos relativos, hoy la ciencia y la tecnología son menos importantes que antes.

La reconocida y acertada repatriación de científicos no fue acompañada con la misma intensidad con iniciativas de trabajo conjunto con los talentos de origen argentino que desarrollan sus actividades fuera del país. Son desaprovechados para los sistemas de evaluación, para el armado de redes de conocimiento, para la formación de otros talentos argentinos.

Hay que continuar con el sendero histórico virtuoso de la política nuclear y aeroespacial de nuestro país, que lleva años; desarrollar más proveedores nacionales en áreas con mucha proyección (energía, biotecnología) y hacer avanzar mucho más rápido la aplicación de los conocimientos en aquellas áreas consideradas socialmente prioritarias para garantizar una mejora en la calidad de vida presente y futura: vivienda, infraestructura, alimentación, cuidado del medio ambiente, transporte, energías alternativas. Pero la mejor primer medida en políticas del conocimiento debe ser sanear el hoy destruido INDEC, tan esencial e imprescindible para avanzar en el conocimiento de nuestros problemas sociales y económicos y en sus posibles soluciones.


Fuente: Clarín

Científicos argentinos logran que
pacientes cuadripléjicos caminen
 





Siete personas con hasta 12 años de cuadriplejía lograron ponerse de pie y caminar tras haber sido tratados con células madre de su propia grasa corporal, afirmaron científicos argentinos, para quienes esos resultados “abren una esperanza de recuperación inédita para los pacientes y sus familias”.

Es la primera vez que un tratamiento induce la reconexión de tantos segmentos medulares, y eso implica una recuperación funcional que puede ser corroborada por un estudio electrofisiológico. Más aún, la recuperación de esas funciones musculares implican un real cambio en la calidad de vida de los pacientes.

Los resultados del ensayo clínico en pacientes con lesión traumática de médula espinal completa y crónica fueron presentados por primera vez en el XXII Congreso Mundial de Neurología, en Santiago de Chile.

Hasta el momento, con los tratamientos empleados se había logrado avanzar hasta detectar actividad tres niveles por debajo de la lesión; pero, con la nueva técnica, en siete de los ocho casos estudiados se detectó actividad de conducción entre 6 y 17 segmentos medulares por debajo del nivel de la lesión al cabo de sólo 30 meses, explicó el especialista.

Así, siete de los ocho pacientes que formaron parte del ensayo (tres cuadripléjicos y cinco parapléjicos de entre tres y 12 años post accidente), hoy pueden pararse por sus propios medios y caminar utilizando músculos que estaban totalmente denervados antes del tratamiento, dato constatado por estudios objetivos de electromiografía.

Los resultados alcanzados abren una esperanza de recuperación inédita para los pacientes y sus familias, aunque sólo se podrá hablar de cura cuando puedan recuperar el 100 por ciento de las funciones perdidas.

Mientras que los pacientes parapléjicos sólo deben reconectar las vías cortadas para recuperar la funcionalidad de sus miembros inferiores, en lo que respecta a las lesiones cervicales también deben generar neuronas que reemplacen a las destruidas -de donde nacen los nervios motores-, lo que quedó demostrado en las personas estudiadas.

“La importancia a nivel mundial es plena. Es la primera vez que en forma tan contundente se demuestra este avance en células adultas sin alteración genética pero con una importante inmunomodulación, y en todos los casos utilizando células autólogas -del propio paciente- y por ende no embrionarias”, destacó el especialista.


Fuente: Tomá mate y avivate

INVAP fabricará dos reactores
para una farmacéutica estadounidense
 





La compañía estadounidense de farmacéutica radiológica Coquí Pharma contrató a la empresa estatal rionegrina INVAP para el diseño de dos reactores de investigación y producción de radioisótopos, y una planta de procesamiento de radioisótopos, que será construida en Florida.

El contrato fue firmado en Bariloche por Carmen Bigles, CEO de Coquí Pharma, y Juan Pablo Ordóñez, subgerente general de INVAP, en el marco de la 16ª edición del congreso mundial de reactores experimentales, denominado IGORR (sigla de International Group on Research Reactors).

Se trata de un emprendimiento pionero ya que será la primera licencia de construcción y operación de los últimos 40 años en Estados Unidos, y además serán los primeros reactores nucleares desarrollados en el mundo por una compañía con fondos totalmente privados, entre otros aspectos inéditos.

Carmen Bigles, destacó la experiencia de la empresa rionegrina en el manejo de uranio levemente enriquecido y consideró que la empresa argentina logró “un desarrollo magnífico” en este conocimiento y aplicación. “Estamos muy satisfechos del acuerdo con INVAP, desde 2009 estamos en conversaciones, y antes de negociar estudiamos mucho los distintos grupos y compañías del mundo, y concluimos que esta es la mejor según lo que buscamos”, expresó la ejecutiva.

La directiva estadounidense informó que los reactores, que tendrán menos de 10 megawatts de potencia cada uno, y la planta estarán operativos en 2020, y se transformará en la primera compañía del país en producir comercialmente Tecnesio 99, el insumo de todas las prácticas y estudios de la medicina nuclear.


Fuente: Argentina

¿Ir al trabajo en colectivo es más
saludable que hacerlo en auto?
 





El curioso hallazgo surge de un estudio publicado por la American Heart Association, y se basa en una cuestión de probabilidades para garantizar un mínimo de ejercicio físico a diario.

La investigación comparó el estado físico de personas que a diario viajan en colectivo, subte o tren -o combinan varios de esos medios de transporte- para ir a trabajar, con el de aquellos viajan en su propio auto, caminando o en bicicleta.

Sorprendentemente, viajar en transporte público sería mejor para la hipertensión y la diabetes que hacer el viaje a pie o en bicicleta: aquellos que tomaron trenes o colectivos redujeron un 27% el riesgo de sufrir hipertensión, y un 34% la diabetes en comparación con los otros grupos.

Los investigadores que impulsaron el estudio, que involucró a más de 5900 casos, pertenecen al Centro de Servicios de Salud de Moriguchi en Osaka, Japón. Explican que se trata de una cuestión de porcentajes y de probabilidades. Esto es que existen más posibilidades de que una persona haga a diario una breve caminata para subirse a un transporte público y llegue a su trabajo, que contar todos los días con el tiempo suficiente como para hacer ese trayecto a pie o en bici.

Caminar hasta la parada, subir al colectivo, tren o subte, mantener el equilibrio a bordo, hacer lugar para un pasajero más, bajar y caminar hasta el destino implica un mayor consumo de calorías que el subirse al coche y conducir.

Durante un año los investigadores evaluaron a usuarios de la red de transporte público y los compararon con automovilistas. Los resultados permitieron cuantificar el beneficio del esfuerzo: quienes viajaban en colectivo o tren habían perdido, en promedio, tres kilos en un año, frente a los que iban al trabajo en su propio vehículo.

¿Es posible adelgazar viajando en colectivo? "Claro que sí -dice la doctora María Emilia Mazzei, asesora nutricional de la Fundación Cardiológica Argentina-. La gente cree que la solución para la obesidad es ir al gimnasio, pero no es consciente de la cantidad de calorías que suma la vida sedentaria".

Según los datos que aporta Mazzei, si una persona hace la cama todos los días, baja de su edificio por la escalera, y de lunes a viernes toma el colectivo dos paradas más lejos y se baja dos paradas antes, al mes habrá bajado medio kilo, y al año, seis kilos.

El cálculo que hace es el siguiente: se consumen 4,2 calorías por minuto de caminata o actividad física. "Hacer la cama insume unas 15 flexiones. Bajar tres escaleras equivale a subir una. Retrasar unas paradas implica caminar 32 cuadras diarias. Si se suma todo, ya se hacen 24 minutos de ejercicio de ida y otros 24 de vuelta del trabajo. Son 200 calorías menos por día, 1000 por semana, 4000 por mes. Para bajar un kilo de grasa se requiere quemar 7650 calorías. Es decir que en un mes se habrá bajado al menos medio kilo, casi sin darse cuenta", dice Mazzei.

Los investigadores estadounidenses, en tanto, concluyeron que, cuanto más extendida está la red de transporte público de una ciudad, tanto más delgados y saludables serán sus ciudadanos. En cambio, cuando, ante la falta de opciones, deciden movilizarse a todos lados en auto, acumularán más kilos.


Fuente: La Nación

Corazones en riesgo: hacer poco ejercicio
 causa el 17% de las muertes
 





En la Argentina se evitarían más de 7000 decesos anuales si los mayores de 30 años alcanzaran la meta mínima recomendada: media hora diaria.

Investigadores argentinos acaban de estimar que hacer poca actividad física explica el 17% de las muertes por causas cardiovasculares en el país entre los 30 y los 70 años de edad. Eso equivale a 7278 personas que murieron debido a la enfermedad coronaria o un accidente cerebrovascular (ACV) isquémico y podrían haberlo evitado con sólo recibir a tiempo el consejo de hacer dos horas y media por semana de actividad física o una rutina aeróbica de intensidad moderada y cumplirlo.

El equipo del Instituto de Efectividad Clínica y Sanitaria (IECS), afiliado a la UBA, calculó la magnitud del problema con las estadísticas de salud nacionales. Rosana Poggio, cardióloga del Centro de Excelencia en Salud Cardiovascular para el Cono Sur (Cesacas) del IECS, presentó los resultados en el 41er Congreso de la Sociedad Argentina de Cardiología.

"Nuestro análisis sugiere que caminar por lo menos 30 minutos a paso rápido 5 días a la semana reduciría la mortalidad por enfermedad cardiovascular a cualquier edad, en particular en las mujeres y en la población menor de 70 años -indicó Poggio-. Nuestros resultados tienen implicancias en la salud pública y destacan la importancia de que las mujeres, en especial, estén más activas físicamente".

En el país, el 52,5% de los mayores de 30 hace menos de media hora diaria de actividad física. "Si esa población empezara a caminar 30 minutos diarios, cinco veces por semana, en 2010 se habrían evitado el 17% de las muertes por causas cardiovasculares. Es decir, 7278 muertes", explicó Poggio.

"La Argentina tiene altas tasas de inactividad física. La falta de tiempo libre es la excusa principal de los sedentarios. Por otro lado, los médicos no recomiendan el ejercicio como deberían hacerlo", opinó Roberto Peidro, vicepresidente de la Fundación Argentina de Cardiología.

Peidro señaló que faltan políticas para alentar a la población a moverse más: "Las sociedades científicas, los profesionales de la salud y el Estado deben trabajar juntos para resolver el problema del sedentarismo y, así, mejorar la duración y la calidad de vida", indicó.


Fuente: La Nación

La CyT vivió su fiesta en la UBA 




Seis emprendedores de distintas empresas tecnológicas y científicos de la Universidad de Buenos Aires fueron galardonados con más de un millón de pesos en premios.

En un salón del Rectorado de la Universidad de Buenos Aires repleto de invitados y autoridades, se dieron a conocer esta tarde los ganadores de los Premios UBATEC 2015a la Innovación e Investigación Aplicada.

"Esta sociedad del conocimiento en la que vivimos hace imprescindible que la universidad apueste y fortalezca cada vez más su estructura científica y tecnológica", aseguró el rector de la UBA, Alberto Barbieri, y agregó que: "UBATEC es el vehículo entre la universidad y la empresa".

"El conocimiento es el capital social más preciado. La UBA, que es la institución de mayor generación de conocimiento en la Argentina, debe tener un vínculo real, y tan postergado en el tiempo con el mundo empresarial", completó el rector.

Por último, Barbieri felicitó a todos los finalistas "por esforzarse y capacitarse" y agregó: "Ustedes son el futuro y la necesidad de que el país siga adelante con más desarrollo".

Por su parte, Lorenzo Basso, presidente de UBATEC, afirmó: "En la UBA tenemos un potencial enorme; tenemos que hacer que ese potencial sirva para los intereses del país. Esa inversión que hace el pueblo argentino en la universidad se derrame en avances en innovación en empresas y aplicarla en beneficio de todos los argentinos".

Los proyectos ganadores fueron seleccionados por su aporte a la mejora de la calidad de vida de las personas o por contribuir a su bienestar socioeconómico. En total se presentaron 123 proyectos.

Los ganadores en todas las categorías:

En la categoría "Investigadores, Docentes, Graduados y Alumnos de la UBA", el primer lugar fue para Julián Rodríguez Talou y equipo, por su proyecto "Desarrollo de un enzimoinmunoensayo de bajo costo para el diagnóstico de dengue", de la Facultad de Farmacia y Bioquímica (UBA-CONICET).

En la categoría "Empresas de Base Tecnológica", el primer premio fue para Indrasa Biotecnología S.A., por su proyecto "Optimización de la producción de toxinas fúngicas por hongos fitopatógenos y su potencial utilización como bioherbicidas", cuyo responsable fue Diego Perrig.

Con la entrega de estos premios, UBATEC SA busca continuar promoviendo la investigación e innovación tecnológica de la UBA y de las empresas de base tecnológica. Así cumple con su misión de articular el triángulo virtuoso entre la universidad, el Estado y las empresas, fortaleciendo la puesta en marcha de soluciones que den respuesta a necesidades sociales o productivas.


Fuente: La Nación

Las 10 preguntas básicas de ciencia que
los adultos no saben responder a los chicos
 





Según un sondeo hecho recientemente en Inglaterra, cuando las preguntas de los niños se refieren a temas de ciencia, tecnología, ingeniería y matemáticas, el 83% de los padres no tiene ni la más remota idea de qué decirles a sus hijos.

No se trata de preguntas necesariamente elaboradas o profundas las que según la encuesta los progenitores no pudieron responder. Son cosas básicas como por qué el cielo es azul o por qué los gatos tienen cola y los peces no tienen pestañas.

Desconocer la respuesta es sólo una parte del problema: dos tercios de los encuestados reconocieron haber respondido de forma errónea con tal de no admitir su ignorancia. El 61% de los padres dijeron sentir pavor cuando sus niños los toman por sorpresa con preguntas difíciles y admitieron, también, haber esquivado con artimañas a estas pequeñas mentes inquisidoras.

En la encuesta, participaron más de 1000 padres con hijos de entre 4 y 12 años. A continuación, las preguntas.

1. ¿Qué es la fotosíntesis? Es el proceso por el cual las plantas verdes y algunos organismos usan la luz del sol para transformar el CO2 y el agua en azúcares y oxígeno.

2. ¿Cómo puede ser que el Universo sea infinito? El universo puede ser infinito, pero nosotros solamente podemos ver una parte finita del mismo por causa de la velocidad -también finita- de la luz. En otras palabras, únicamente podemos ver aquellas partes cuya luz ha tenido tiempo para alcanzarnos desde el inicio del universo. Es decir, en teoría podemos ver nada más un universo esférico con un radio de aproximadamente 15.000 millones de años luz. Lo que está más lejos aún no nos ha alcanzado.

3. ¿Por qué el Sol es tan grande y no hay humanos viviendo allí? No es tan grande: es mucho más pequeño que la mayoría de estrellas que puedes ver en el cielo. ¿Vivir allí? Imposible: ¡nos moriríamos de calor!

4. ¿Por qué brilla el Sol? El Sol brilla debido a que la enorme presión en su centro hace que los átomos de hidrógeno se transformen en helio. Este proceso se llama fusión nuclear. La fusión ocurre cuando los elementos más livianos son forzados a mantenerse juntos para transformarse en elementos más pesados. Cuando esto pasa, se crea una cantidad enorme de energía.

5. ¿Cómo llegaron las estrellas al cielo? Colapsaron bajo su propia gravedad desde las grandes nubes de gas que dejó el Big Bang.

6. ¿Por qué la Luna no se cae? La verdad es que sí se cae hacia la Tierra, por la fuerza de gravedad. Pero lo hace de forma continua, y su velocidad es tan grande que logra seguir la curvatura de la Tierra y por lo tanto nunca se choca con nosotros.

7. ¿Por qué el cielo es azul? La luz que llega del Sol ingresa en la atmósfera y se dispersa en todas las direcciones. La luz azul tiene una longitud de onda más corta, por lo que se dispersa más que las luces rojas y amarillas, dándonos la impresión de que ocupa todo el cielo.

8. ¿Quién inventó las computadoras? Es difícil de decir con exactitud. Podríamos decir fueron Charles Babbage y Ada Lovelace en el siglo XIX, cuya máquina hecha de latón era algo así como una calculadora. O podríamos decir que fueron Alan Turing y John von Neumann que diseñaron las primeras máquinas electrónicas. ¡Fue un trabajo de mucha gente!

9. ¿Los ladrillos son de un material hecho por el hombre? El ingrediente, la arcilla, es natural, pero el ladrillo está fabricado por el hombre.

10. ¿Cuántos tipos de dinosaurios hay? Se estima que hay aproximadamente entre 700 y 900 especies de dinosaurios. Pero todo el tiempo los arqueólogos encuentran nuevos fósiles, así que, ¿quién sabe? Quizás aún queden muchas por descubrir.


Fuente: La Nación

Chromebit: el dispositivo de U$S 85
que convierte cualquier pantalla en una PC
 





Finalmente ASUS, el fabricante, y Google, el desarrollador, comenzaron a vender el Chromebit, que se trata de un dispositivo que convertirá a cualquiera pantalla o TV que tenga HDMI en una computadora.

Sale US$85, tiene las medidas de una barra de cereal y funciona con teclado y mouse Bluetooth. La idea detrás de Chromebit es tener una Chromebook en el bolsillo que se puede transportar a todas partes sin la necesidad de una mochila y donde solo se necesitará una pantalla con HDMI.

Lógicamente no se trata de una computadora veloz, pero tendrá acceso a cualquier servicio de Google y al navegador para poder navegar sin problemas. Dentro tiene un procesador Rocketchip y 2GB de RAM. Es un dispositivo lento que le servirá a aquellas personas que quieran revisar el mail, escribir un documento y usar el navegador para consultar información.


Fuente: Minuto Uno

Philae celebra su primer año en el cometa
mientras se acerca el fin de su misión
 





El módulo Philae, que viajó al espacio con la sonda Rosetta, cumplió el 12/11/2015 un año posado en la superficie del cometa Churyumov-Gerasimenko y, a pesar de que sus transmisores y receptores fallan, todavía podría enviar señales antes de apagarse definitivamente en unos dos meses.

En estos momentos, el módulo Philae se encuentra a 245 millones de kilómetros de distancia del sol y cada día -que en el cometa dura 12,6 horas- recibe alrededor de cuatro horas de sol, suficiente para cargarse de energía.

Las condiciones, sin embargo, empeorarán en las próximas semanas al alejarse del sol y descender su temperatura; si el interior de Philae baja de los 51 grados celsius bajo cero, el módulo ya no será operativo y la misión acabará, lo que ocurrirá previsiblemente y como muy tarde en enero. El pasado 13 de agosto el cometa se situó en el punto más cercano al sol y, al parecer, Philae superó ese momento sin recalentarse, al haber aterrizado en un lugar de sombra que le protegió de las altas temperaturas.

Según explicó el ingeniero del DLR Koen Geurts, si el módulo ha recibido los comandos que se le han enviado, su disco duro debe estar cargado de datos científicos. De las señales captadas, los científicos deducen que uno de sus dos receptores y uno de sus dos transmisores no funcionan y que el segundo transmisor puede tener también problemas, lo que explicaría por qué la comunicación es tan irregular. En el DLR siguen diseñando estrategias para activar el transmisor no dañado e intentar restablecer una comunicación lo suficientemente estable como para transferir datos.


Fuente: La Nación

Femicidios: la casa es ocho veces
más riesgosa que la calle
 





Puertas adentro, una mujer tiene ocho veces más posibilidades de ser asesinada por alguien de su entorno, incluso de su propia casa, que de morir a manos de un extraño, en un robo.

Las cifras surgen de comparar las últimas estadísticas disponibles a nivel nacional sobre homicidios dolosos que presentó el Ministerio de Justicia de la Nación con las de femicidios que registra la ONG Casa del Encuentro, que es el único centro que aglutina información sobre asesinatos vinculados a la violencia de género.

A lo largo del año, 27 mujeres murieron durante un robo, según el último estudio sobre homicidios dolosos de la Secretaría de Política Criminal, que llamativamente sólo tiene cifras actualizadas hasta 2009. Ese mismo año, la Casa del Encuentro registró 231 femicidios. Es decir, comparativamente, una mujer fue asesinada en un robo por cada 8,5 que fueron víctimas de violencia de género.

"Es efectivamente así. Hoy, el peligro para las mujeres se encuentra principalmente dentro del hogar. Es un dato real y verificable que no debería pasarse por alto", apunta Genoveva Cardinalli, fiscal porteña que preside el Observatorio Contra la Violencia de Género del Ministerio Público. "Cuando una mujer logra salir de ese cautiverio que es la violencia doméstica y denunciar tiene que encontrar un respaldo rápido de la Justicia. Porque, si no, vuelve a vivir en un territorio en el que su vida corre peligro", agrega.

La Oficina de Violencia Doméstica (OVD), que se creó en 2006 dentro de la Corte Suprema de Justicia por iniciativa de la jueza Elena Highton de Nolasco, recibe unas 900 denuncias por mes. En el 71% de los casos, el agresor es o fue pareja de la víctima. Más detalladamente: en el 49%, el ex; el concubino, en el 17%; en el 12%, el cónyuge y en el 1%, el novio.

Además, en el 39% de las situaciones quien denuncia vive en la misma casa que la persona denunciada. Hay un riesgo bajo para quien denuncia sólo en el 4%. En contrapartida, en el 79% de los casos, el riesgo es alto, medio o moderado. Y en el 5%, el riesgo es definido por el equipo interdisciplinario como "altísimo". En el 2% restante, es indeterminado.

Desde su creación, la OVD recibió unas 58.000 denuncias. Año a año, gracias a las campañas de difusión, el número de denuncias se fue incrementando. Sin embargo, hay un dato preocupante. Sólo 22 de esas denuncias fueron hechas por vecinos.

"La gente no se mete. Ése es el mandato social. Y la Justicia forma parte de esa sociedad. Todavía el sistema judicial sigue sin entender la violencia de género. Hoy son mayoría los jueces que deciden archivar una causa cuando una mujer decide levantar una denuncia contra el agresor.

Fabiana Túñez, directora de La Casa del Encuentro, lo confirma: "Sólo en casos de femicidios han existido condenas contra los agresores. En cambio, cuando se trata de lesiones, leves o graves, no. Es gravísimo, porque sabemos cómo es el círculo de la violencia: nunca para".

No significa, según explican los expertos, que las denuncias no prosperen. La mayoría se traduce en medidas de exclusión del hogar del violento y, en algunas jurisdicciones, en la instalación del botón antipánico, para alertar a la policía en caso de que el agresor se acerque al hogar. La contrapartida es que a la medida de exclusión hay que renovarla periódicamente. Y no son pocas las veces que las personas que denunciaron no realizan ese trámite.

"El hombre que es excluido del hogar automáticamente deja de pasar alimentos. Entonces, no sirve sólo que se vaya. Si el Estado no le puede garantizarle un sostén, es muy probable que ella acceda a que el violento vuelva al hogar", apunta Cardinalli.


Fuente: La Nación

China iguala a Europa en gasto en
ciencia y se acerca a EE.UU.
 





Tanto los países desarrollados como los emergentes volcados en la investigación y desarrollo (I+D) han superado el frenazo en sus inversiones en ciencia y tecnología, provocado por la crisis económica de 2008-2009, y han empezado a remontar sus partidas de gastos, según el informe de la OCDE (Organización para la Cooperación y el Desarrollo Económico).

El gasto total en I+D en los 34 países de la OCDE alcanzó 1,1 billones de dólares en 2013, último año para el que hay datos completos, lo que supone un crecimiento de 2,7% respecto al año anterior. El incremento de inversión registrado en la zona OCDE se atribuye al sector empresarial, mientras que el gasto público se ha visto afectado por las medidas de consolidación presupuestaria, señala el informe Indicadores OCDE de Ciencia Tecnología e Industria 2015.

EE.UU. sigue siendo el líder mundial por gasto en ciencia y tecnología, con casi 433.000 millones de dólares en 2013, “lo que significa poco más de un tercio por encima de la cantidad invertida por China, el segundo del mundo”, señala el resumen del documento. “China parece estar en camino de alcanzar a EE.UU. en términos de gastos en I+D y en publicaciones científicas (OCDE, 2014) en unos pocos años, siempre y cuando se mantengan las tendencias”, añade.

“Desde 2005 ha habido una considerable convergencia en los países de la OCDE hacia la paridad de género en cuanto a doctores en la mayoría de los dominios”, señala el informe de marcadores de I+D de dicha organización. Sin embargo, aumenta la desproporción entre hombres y mujeres, y las diferencias entre países, en los mayores niveles de responsabilidad de la ciencia. Solo el 15% o menos de los líderes de investigación (autores principales de los artículos de resultados) son mujeres en las áreas de física, ciencias de materiales e ingeniería química, mientras que superan ligeramente el 30% en ciencias sociales.

El esfuerzo del gigante asiático en investigación y desarrollo tiene su lógica manifestación en el crecimiento de su producción científica. China ha pasado de generar 75.890 artículos científicos en 2003 a 409.301 en 2012, con un crecimiento medio anual del 20%, mientras que EE.UU. pasó de 388.323 publicaciones en 2003 a 574.865 en 2012 con un incremento medio del 4,7%. Pero la OCDE aconseja cautela ante estos datos globales: “China invierte relativamente poco en investigación básica en comparación con la mayoría de las economías de la OCDE (4% y 17%, respectivamente, en 2013)”. Pekín se vuelca especialmente en áreas relacionadas con la ingeniería.

En cuanto a la investigación del más alto nivel, sigue concentrada en el mundo. EE.UU. contó con 22 de las 30 universidades con mayor impacto y los centros de investigación más importantes se concentran en unos pocos países. Pero la colaboración internacional se ha incrementado notablemente y a ella respondía ya el 20% de las publicaciones científicas en 2013.

También la innovación avanzada está muy concentrada: en 2012, las 2.000 empresas más activas del mundo en I+D y sus redes de filiales acumularon más del 90% de la I+D empresarial total y el 66% de las familias de patentes concedidas en las cinco oficinas de propiedad intelectual más importantes del mundo. De esas 2.000 empresas, 250 multinacionales representaron el 70% del gasto en I+D, el 70% de las patentes y, en concreto, el 80% de las relacionadas con las tecnologías de la información y la comunicación.

“La forma en que trabajan los científicos está cambiando con la creciente y masiva digitalización, que permite un acceso más fácil a los datos, fortalecer la cooperación científica y crea grandes oportunidades para el análisis de los problemas científicos a través de la ingente cantidad de información accesible. En este panorama es importante, advierte la OCDE, modificar los marcos legales de acceso a los datos de las investigaciones a nivel nacional e internacional, así como avanzar hacia lo que denomina el sistema abierto de ciencia, que permite el acceso a los resultados, especialmente de la investigación financiada con fondos públicos. Esto supone un cambio de cultura de los propios investigadores y de los sistemas de evaluación de resultados que hasta ahora están predominantemente basados en los artículos publicados en revistas especializadas con acceso de pago. El acceso abierto en ciencia se está imponiendo como un medio de acelerar la investigación, garantizar la transparencia, favorecer la colaboración y promocionar la innovación.


Fuente: El País

Programa 217

Galectina-1: ¿ángel o demonio?



En esta emisión, contamos con la participación de Gabriel Rabinovich, Dr. en Ciencias Químicas (UNC), Profesor Titular (FCEN-UBA), Investigador CONICET y Vicedirector del IBYME, para reflexionar sobre cáncer y el rol de la galectina-1.

Para comenzar, Gabriel explicó que "la inmunología es la ciencia que estudia nuestras defensas. (...) Los linfocitos son células que tenemos en nuestro organismo (...) y que aprenden a reconocer absolutamente todo lo peligroso que puede invadir nuestro organismo (virus, bacterias, hongos, parásitos, tumores). Aún cuando uno vive en Argentina, tenemos linfocitos que nos permiten defendernos de parásitos que están en África; esto significa que estamos preparados para tener una vida plena. Todos tenemos, por ejemplo, células tumorales creciendo en nuestro cuerpo y, sin embargo, tenemos linfocitos que las están eliminando. Un tumor empieza a crecer cuando un individuo se torna inmunodeficiente, es decir, cuando empezamos a perder esa capacidad de defendernos". 

Respecto al descubrimiento de la galectina-1 y su rol en el organismo, el Dr. Rabinovich comentó que "con el tiempo, descubrimos que esta proteína, la galectina-1, estaban en células llamadas macrófagos y en otras células llamadas dentríticas (que son aquellas que se ocupan de avisarle al sistema inmunológico que estamos en peligro). Entonces empezamos a preguntarnos para qué puede existir en nuestro organismo esta proteína. En los tumores, un fenómeno que veíamos era que aquellos tenían entre diez y quince veces más galectina-1; cuanto más malignos eran los turmores, más cantidad de galectina-1 tenían. Entonces, la pregunta era por qué puede ser que un tumor tenga tanta galectina-1". 

Sobre la importancia de esta proteína, el invitado expuso que "los linfocitos son el ejército que lucha mientras que las células dendríticas son las encargadas de avisar al linfocito qué tiene que hacer. Lo que vimos era que, cuando aislábamos esta proteína

Programa 216

"Divulgar es empoderar a la gente"


En esta emisión, contamos con la participación de Sebastián Barbosa, Lic. en Biología (UBA), y Manuel Giménez, Lic. en Ciencias de la Computación (UBA), para reflexionar sobre divulgación científica.

Con respecto a qué entender por divulgación científica, Manuel comentó que "uno de los grandes hitos de la divulgación científica argentina fue la publicación de los libros de (Adrián) Paenza (Matemática, ¿estás ahí?). Esa 'fiebre' por la matemática, por suerte, se fue contagiando y nos mostró a los más jóvenes que había una tarea en comunicar Ciencia. Aquella no tenía que ser una 'torre de marfil' ni tampoco tenía por qué ser aburrida". Inmediatamente, Sebastián complementó afirmando que "hoy en día, divulgar es algo absolutamente necesario no sólo para quienes hacen ciencia e investigación, sino para cualquier persona. Vivimos en un mundo repleto de personas que no comunican lo que piensan y no dicen lo que siente; si un investigador no divulga sus logros, entonces para qué investiga... Tal vez el investigador (que no divulga) lleve sus logros a revistas del estilo de las más prestigiosas, salga publicado su estudio y la comunidad científica se entere. Pero en realidad el que se tiene que enterar es la población entera porque la Ciencia tiene implicancias en todo lo que hagamos en nuestra vida cotidiana. No hay nada que escape a la Ciencia en todo sentido". 

En relación al significador de la divulgación, "cuando hablamos de conocimiento científico-técnico, hay que diferenciar dos grandes grupos: uno es lo que está pasando ahora -la frontera del conocimiento humano-, y otro es todo el conocimiento científico-técnico que ya existe. En la realidad, la mayoría de la gente desconoce ese segundo grupo. Para mí, divulgar Ciencia o Técnica es empoderar a la gente; significa que la gente entienda que es lo que existe, por qué funcionan las cosas, de dónde vinieron las cosas que existen... Por ejemplo, el teclado que usamos, que obviamente no está en la frontera de la tecnología, ¿por qué funciona como lo hace? Bueno, eso es divulgación científica. Ahora, si yo hablo sobre lo que está haciendo el grupo de investigación de punta de inteligencia artificial en el Departamento de Computación de la Facultad de Exactas, eso también es divulgación científica. Definitivamente te estoy empoderando de dos maneras distintas. Luego, estará bajo la responsabilidad de cada comunicador determinar cuál es el objetivo de su trabajo, cómo empoderar a las personas", expuso Manuel. Continuando con lo anterior, Sebastián destacó la importancia de "qué se va a trasmitir y qué contenidos tiene que saber la gente que no hace ciencia profesionalmente (porque todos hacemos ciencia). El desafío es saber qué se va a comunicar y cómo porque esa será la manera en que vas a contagiar a la persona de eso que estás transmitiendo".

Resumen científico - 92

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Puiggrós: "Hay que evitar la
elitización de las universidades"
 





Adriana Puiggrós, diputada del Frente para la Victoria e impulsora de la reforma a la Ley de Educación Superior (LES) sancionada el miércoles 28/10, defendió la norma y dijo que pretende impedir la elitización de las universidades.




-¿La reforma refuerza la idea de que el ingreso a la universidad debe ser libre y gratuito?

-Así es. Lo que se buscó fue impedir que haya ingresos restrictivos a las universidades. Hay que evitar la elitización de las mismas. Al mismo tiempo, en función del uso de sus autonomías, las universidades puedan mantener o crear los cursos de nivelación que sean necesarios.

-¿Un curso de nivelación como el CBC es legal?

-Por supuesto, se trata de una política interna de la UBA.

-¿Y cursos de ingreso como los de las facultades de Medicina de la universidades de La Plata y Córdoba también son legales?

-En la medida en que no sean restrictivos, como han sido hasta ahora los de la Facultad de Medicina de la Universidad de La Plata, donde en 2012/3 se presentaron entre 2000 y 3000 alumnos y entraron 80 nuevos estudiantes. Eso no puede ser.

-Pero en el CBC ocurre algo parecido. El 50% de los alumnos no pasa el primer cuatrimestre de cursada.

-La diferencia es que el examen de ingreso a la Facultad de Medicina es un momento absolutamente decisivo en la vida de un alumno. El CBC, en cambio, le da una oportunidad al estudiante para que aprenda.

-¿No podríamos volver a pensar el sentido de una defensa ideológica del ingreso irrestricto a la universidad cuando las cifras indican que muchos alumnos se quedan en el camino?

-No creo que sea una cuestión ideológica. Lo veo desde el punto de vista pedagógico. El título de secundario habilita para ingresar a las universidades.

-¿Por qué no pensar cuotas arancelarias en función de los ingresos?

-Creo que no. El financiamiento tiene que resolverse por la vía impositiva.


Fuente: La Nación Fuente: La Nación

El reloj biológico, clave en la esclerosis múltiple 




Desde hace años la melatonina es conocida por su rol en la regulación del ciclo sueño-vigilia y en el reloj biológico. En humanos es producida por una glándula cerebral, llamada epífisis o pineal, y desde la identificación de su rol en la regulación del ritmo circadiano ha sido utilizada para tratar este tipo de desórdenes y como regulador natural del sueño.

Investigadores de la Fundación para la Lucha contra Enfermedades Neurológicas de la Infancia (FLENI), del Instituto de Biología y Medicina Experimental (IBYME, CONICET-FIBYME), del Hospital de Clínicas de la Universidad de Buenos Aires y de la Universidad de Harvard, identificaron por primera vez los mecanismos que median la interacción entre la melatonina y las células del sistema inmune que están involucradas en esta patología, que según la Organización Mundial de la Salud afecta en el continente americano a 8.3/100.000 habitantes.

Después de cinco años de investigación y con la participación de 139 pacientes, describieron los mecanismos a través de los cuales las concentraciones en sangre de melatonina están relacionadas con la ocurrencia de brotes de Esclerosis Múltiple (EM). El trabajo fue publicado en la prestigiosa revista científica Cell.

“Un brote es la exacerbación de un síntoma previo o la aparición de un nuevo síntoma, que dure más de 48 horas y que esté separado al menos 30 días del último episodio”, explica Jorge Correale, jefe del Servicio de Neuroinmunología del FLENI y coordinador del trabajo.

En la EM algunas células del sistema inmune atacan a las vainas de mielina de protegen a los axones de las neuronas. Si bien aún no se conocen en profundidad los factores que conducen al desencadenamiento de esta enfermedad, se sabe que la dieta, el tabaquismo, el consumo de sal, el déficit de vitamina D y virales son factores que predisponen a los brotes.

La hipótesis apareció cuando los autores, durante una revisión de historias clínicas, notaron que en otoño e invierno disminuía la frecuencia en la aparición de los brotes. En un principio pensaron que estaba relacionado con las concentraciones de vitamina D, pero la evidencia terminó demostrando que no.

“En ese punto nos encontramos con una paradoja estacional. Sabíamos, por estudios anteriores, que la vitamina D protege contra la enfermedad”, explica Mauricio Farez, también investigador en el FLENI. “Pero si así fuera, justamente en primavera y verano – cuando más vitamina D se produce, ya que su síntesis está relacionada con la exposición a la luz solar – debería haber un menor registro de brotes. Sin embargo era justamente al revés: en las temporadas más cálidas los pacientes registraban una mayor incidencia”.

Fue así que se abocaron a buscar otro mediador que permita explicar la estacionalidad de los brotes y se toparon con la melatonina. Analizaron sus concentraciones en 139 pacientes y encontraron que durante esa misma época los niveles plasmáticos eran mayores que durante el resto del año.

“El fenómeno de que los niveles de melatonina eran mayores en invierno y menores en verano, y que los brotes se comportaban de manera inversa fue el punto de partida que impulsó el trabajo”, dice Gabriel Rabinovich, investigador superior del CONICET en el Instituto de Biología y Medicina Experimental (IBYME, UBA-CONICET).

En este estudio el equipo de Rabinovich, del cual fue clave la participación del becario doctoral del CONICET Santiago Méndez Huergo, trabajó junto con los profesionales del FLENI realizando los estudios en modelos de trabajo animales que reproducen los síntomas de EM.

“Notamos que la melatonina tenía un rol protectivo en el modelo en ratón de Esclerosis Múltiple, y lo vimos reflejado en la sintomatología de los animales”, cuenta Méndez Huergo y agrega: “Luego corroboramos que lo visto en ratones era extrapolable, en parte, a humanos”.

Según la Organización Mundial de la Salud se estima que en el continente americano la prevalencia media de la EM es de 8.3 cada cien mil habitantes, y en el mundo hay más de 2 millones de individuos afectados. Los datos publicados en 2002 por el Ministerio de Salud de la Nación muestran que la incidencia calculada para Argentina es 2,24 personas cada 100 mil (Cristiano y col.). La esclerosis múltiple representa la segunda causa de discapacidad en adultos jóvenes (20-40 años) luego de los accidentes automovilísticos.


Fuente: El Otro Mate

Unas proteínas determinan en
qué órgano habrá una metástasis
 





El cáncer mata a más de ocho millones de personas en el mundo cada año. Es como aniquilar a toda la población de países como Suiza e Israel. Y el 90% de esas muertes son provocadas por la metástasis, el viaje de las células cancerosas desde el tumor original a otros órganos. Detener esa peregrinación mortal por el cuerpo humano podría salvar millones de vidas.

Medio centenar de científicos de siete países presentan un nuevo frente para intentar ganar la guerra a la metástasis. Los investigadores, encabezados por el bioquímico español Héctor Peinado, han descubierto que los tumores primarios envían “avanzadillas militares” a otros órganos para preparar la invasión del cáncer. Son millones de vesículas de millonésimas de milímetro emitidas por los tumores, con una muestra de sus proteínas y su ADN. Además, estos destacamentos, denominados exosomas, llevan “una especie de código postal”, en realidad unas proteínas en su membrana, que los dirigen a un órgano concreto.

“Hemos abierto el camino a posibles nuevas terapias”, celebra Peinado. Para confirmar sus observaciones en células tumorales humanas, los autores del estudio han borrado ese código postal de los mensajeros tumorales en ratones, logrando una reducción del 80% de las metástasis. Sus resultados fueron publicados en la revista Nature.

Las naves mensajeras que salen del tumor original llevan información suficiente para inducir cambios en el órgano de destino, como la inflamación o la formación de vasos sanguíneos, que favorecen la llegada de las células tumorales y su proliferación.

Peinado, sin embargo, es cauto. El código postal detectado no funciona al 100%, sino que más bien “predispone el órgano de destino”. Desbaratar ese código, además, se ha hecho en ratones mediante una modificación genética, algo mucho más complicado de lograr en humanos. “En personas no es tan trivial, porque estas proteínas tienen otras funciones. Las células de la médula ósea utilizan estas integrinas para moverse por el cuerpo y bloquearlas podría tener efectos colaterales, como una hemorragia”, admite el bioquímico español. El grupo de la Universidad Médica Weill Cornell trabaja ahora con la industria farmacéutica para encontrar fármacos que bloqueen el código postal solo en las células tumorales.


Fuente: El País

"Argentina podría casi triplicar su PBI
en 15 años si sube 25 puntos en PISA"
 





* Por Ricardo Braginski

Eric Hanushek (72) se recibió de economista a fines de los sesenta y desde entonces dedicó todo su tiempo a la educación. Publicó más de 200 papers científicos y 23 libros que buscan establecer cómo impactan los resultados de la educación en el PBI. Una de las conclusiones más llamativas a las que llegó es que no hay ninguna relación entre años de escolarización y tasa de crecimiento y que más importante que el tiempo que los chicos están en la escuela es qué aprenden allí.

Hanushek estuvo en Buenos Aires, para hablar en el Foro por la Calidad Educativa. Llegó con los deberes hechos: completos power points con gráficos que cruzan los resultados de educación y economía en nuestro país.

–¿Qué encontró entre los datos de la Argentina?

–La Argentina está estancada en educación, a diferencia de otros países de la región, como México, Colombia, Brasil y Chile, que en los últimos 15 años pudieron mejorar sus escuelas y obtuvieron logros en los aprendizajes. Lo que se necesita es un plan de mejora educativa a largo plazo. De acuerdo a los registros históricos internacionales, si Argentina lograra en los próximos 15 años subir 25 puntos en las calificaciones de la prueba PISA (mide los conocimientos de los chicos de 15 años), podría llegar a casi triplicar su actual PBI.

–¿Qué hay que hacer para llegar a esos resultados?

–Son muchas cosas. Lo más importante es desarrollar un buen sistema de rendición de cuentas, que mida el desempeño de los alumnos y haga responsables a las personas involucradas. También, evaluar el desempeño de los docentes y tomar decisiones en función de esas evaluaciones.

– Usted viene investigando la educación en el mundo desde hace años. ¿Cuáles fueron los resultados más importantes que encontró?

–Primero, que el gasto en educación no tiene una correlación directa con el desempeño. Segundo, que la calidad de los docentes es lo más relevante, pero al mismo tiempo que es difícil evaluar qué es un buen docente. Y tercero, que es lo que presenté aquí en Buenos Aires, que la calidad de la educación tiene un impacto en la economía de un país tan grande que hay que tenerlo realmente en cuenta si se quiere obtener un crecimiento.

–¿A qué llama calidad educativa?

–A ciertas habilidades que los chicos deben aprender, en la escuela o fuera de ella, y que son las que luego impactan en el crecimiento de los países. La escolarización en sí misma no genera resultados. No importa cuánto tiempo estén los chicos en la escuela, lo que importa es lo que efectivamente aprenden. No es lo mismo lo que aprende un chico en un año de escuela en Japón que en Perú, por ejemplo.

–¿Cuáles son esas habilidades?

–Son habilidades básicas relacionadas con las ciencias, la matemática y la lectoescritura. Porque esos son los cimientos sobre los que se construyen todos los demás conocimientos, desde ingeniería hasta periodismo o leyes. Si una persona no tiene esa base sólida no podrá construir el resto.

–¿Está hablando de las habilidades que mide la prueba PISA?

–Es una combinación, pero la mayoría de los datos que yo tomo sí son de PISA. Es un indicador confiable del dominio de las habilidades de las que estamos hablando.

–Usted hace énfasis en que lo importante no es cuánto se invierte en educación sino cómo se invierte ...

–Si, es correcto. Para explicarlo mejor: si se invierte más, es mejor. Pero si no se hacen bien las cosas, no importa cuánto uno esté invirtiendo, que igualmente no va a obtener buenos resultados. Esto le pasa a muchos países que incrementaron su inversión en educación.

–Como Argentina ...

–Es posible.

–¿Qué es lo más importante a tener en cuenta para invertir bien en educación entonces?

–La clave está en medir si la inversión que se hizo repercute en mejores aprendizajes o no. Si no se puede probar eso, no tiene mucho sentido la inversión. Para eso, como decía, es fundamental contar con buenos docentes, eficientes y de alto impacto, y evaluarlos en términos de las habilidades buscadas.

–¿Cómo debería ser esa evaluación?

–La eficiencia de los docentes no está necesariamente relacionada a la formación académica previa sino a la capacidad de producir buenos aprendizajes. Es fácil identificar buenos y malos docentes. Como padres, nos damos cuenta al instante con solo verlos actuar. Pero luego es muy difícil regular el camino para que en el sistema haya buenos docentes. Ese es el desafío.

–Usted habla de incentivar con más salario a los docentes que obtengan mejores resultados. Esto aquí es polémico ...

–Como en cualquier profesión, el que se desempeña mejor tiene que tener mejores retribuciones. Hay docentes malos, que le pueden estar haciendo un daño a los alumnos. Y ese docente debería ser removido, por el bien de esos chicos.


Fuente: Clarín

La ciencia, desafío del próximo gobierno 




* Por Arturo Prins

Pronto concluirá la gestión del primer ministro de ciencia que tuvo la Argentina. Cuando se designó a Lino Barañao se destacó su participación como científico en una innovación en la que pocos creían, que luego se transfirió a la industria: la clonación de una vaca que producía en su leche hormonas de crecimiento humanas para combatir enfermedades. La Argentina fue uno de los pocos países que lograron un avance de esta importancia, que tendrá impacto económico cuando se apruebe el uso en humanos de esas hormonas. Barañao se anticipó a su época, pues la investigación biotecnológica era entonces poco comprendida.

Desde esa experiencia, se preocupó de construir puentes entre ciencia y producción. "Que el conocimiento llegue a la sociedad y sea factor de crecimiento", se propuso. "El sistema académico obtiene conocimientos; la industria los toma y los convierte en bienes o servicios que llegan al ciudadano común". Resumía así el proceso de I+D (investigación y desarrollo) que la OCDE definió en 1963 para medir el crecimiento por la relación ciencia-industria.

Al iniciar su gestión, Barañao reiteró que debía favorecerse una economía del conocimiento: "Una política de Estado que el país nunca tuvo", decía. Singapur, Corea del Sur, Taiwán y Hong Kong aplicaron esta economía en los años 60. Se los llamó "tigres" por el impresionante crecimiento alcanzado: de 1960 a 2014 sus PBI reales aumentaron entre 1400% (Hong Kong) y 4900% (Singapur); el de la Argentina, 330%. En estos años crecimos menos que gran parte de los países de América latina. El economista Jeffrey Sachs decía, tras la crisis de 2001: "La Argentina está estancada en una economía tecnológicamente atrasada".

Los países desarrollados invierten del 2 a más del 4% de sus PBI en I+D; los rezagados no llegan al 1%, punto de partida para lograr una economía avanzada. La Argentina no supera el 0,65%, debajo de la media latinoamericana (0,74%). En 2003 el Gobierno anunció que llegaría al 1% en 2006, y continúa anunciándolo.

Para crecer es necesaria la inversión de la industria: en los países desarrollados ella aporta del 50 a más del 70% del total en I+D; en la Argentina, 26%. Nuestro Estado alimenta instituciones científicas mayormente desconectadas de la industria. Razones: tenemos pocas grandes empresas, el sector se ha extranjerizado y la industria nacional está protegida con altos aranceles que le aseguran un mercado interno cautivo, sin necesidad de innovar. El Banco Mundial señaló "la muy baja inversión de las empresas argentinas en I+D", su escasa cultura innovadora. Por eso la mayor parte de nuestras exportaciones son de bajo valor agregado, proporción similar a la de Etiopía, Uganda, Nicaragua o Panamá.

A pesar de estos indicadores, la gestión en ciencia desde 2003 fue la mejor desde aquella fundacional de Bernardo Houssay, que creó el Conicet y la carrera del investigador científico (1958). Se incrementaron presupuestos, institutos, becas, equipamientos y se creó el Ministerio de Ciencia, Tecnología e Innovación Productiva. Aunque hay una asignatura pendiente: los bajos salarios de los investigadores. ¿Se estima, cuando emigran, el costo de su formación y el beneficio de retenerlos? Si valiosa fue la gestión en ciencia, insuficiente lo es en tecnología e innovación productiva, pues no se implementó "la política que el país nunca tuvo". Barañao no fue escuchado: faltaron decisión presidencial y partidos políticos que aseguraran su continuidad, con la participación no sólo del Ministerio de Ciencia, sino también de los de Industria, Agricultura y Economía, que ante la insolvencia recurre a deudas improductivas, emisión y más impuestos; el Congreso tampoco debatió una legislación acorde.

Consecuencia o causa de esta insuficiencia es nuestra baja protección del mayor valor de la economía, el conocimiento. Esto priva a la industria de ingresos que en los países desarrollados obtiene por patentar innovaciones, y a las universidades y científicos, de recursos cuando priorizan publicar sin proteger, no siendo acciones contrapuestas. En la Universidad Nacional de Quilmes se comprobó que avances en biomedicina, publicados sin protección, fueron patentados por laboratorios y universidades del exterior; los autores de la investigación, difundida en el Journal of Technology Management & Innovation, 2012 (Vol. 7, Issue 2), calificaron el hecho de "inteligencia regalada", pues fue subsidiada con fondos públicos. ¿De qué vale incrementar presupuestos en ciencia si no se recogen sus frutos o, peor aún, se los regala?

Las patentes reflejan la potencialidad científica e industrial de una nación: las instituciones y empresas argentinas solicitan unas 800 por año en el país, mientras que las empresas extranjeras, más de 4000, también en el país.

La UBA y el Conicet son las instituciones que más recursos destinan a la ciencia. La UBA financia 2000 investigaciones y solicitó en el país sólo 35 patentes en 40 años (1973-2013): 21 le fueron concedidas (fuente: Instituto Nacional de la Propiedad Industrial); en plazas importantes como Estados Unidos y la Unión Europea solicitó 4 (3 concedidas). El Conicet, en cambio, en 38 años (1977-2015) solicitó en el país 351 patentes (131 concedidas) y en el exterior tiene 80 concedidas (10 en Estados Unidos, 27 en Unión Europea); varias ya le generan ingresos. El Conicet tiene un área especializada, pero debería dotársela de más recursos para proteger más. Si queremos crecer sostenidamente, será un desafío del próximo gobierno implementar la economía del conocimiento.


Fuente: La Nación

Plutón sigue asombrando a los científicos:
 superficies rojas y cielo azul
 





Plutón despliega una gran variedad de colores, según los últimos resultados de las observaciones de la sonda New Horizons de la NASA, publicados por la revista Science.

Desde las zonas sombrías y rojas del ecuador hasta las regiones brillantes y azules de las latitudes más elevadas, el planeta enano presenta una paleta cromática sorprendentemente rica.

La imagen en color publicada en Science y obtenida con la Cámara de Imagen Visible Multi-Espectral (MVIC) de la nave revela multitud de colores en la superficie del planeta enano, desde áreas rojizas oscuras en el ecuador a zonas más claras y azuladas en latitudes mayores.



Entre otras cosas, "New Horizons" determinó con exactitud por primera vez la dimensión del diámetro del planeta, de 2.374 kilómetros. La sonda no pudo constatar un achatamiento provocado por su propia rotación, como en el caso de la Tierra, lo que hace concluir que el planeta enano es completamente esférico.

Además, la superficie del planeta se caracteriza por el hielo. Sin embargo "New Horizons" fotografió también montañas que alcanzan hasta los 3.000 metros de altura. El hielo de nitrógeno, monóxido de carbono y metano descubierto antes de la visita de la sonda espacial al planeta enano sería demasiado blando para tales alturas. Por eso los investigadores creen ahora que esos tipos de hielo forman en muchas partes una capa relativamente fina en las superficies y en realidad se apilarían sobre hielo de agua, considerablemente más fuerte. Las montañas de Plutón, que se asemejan a las Rocosas en Norteamérica, serían entonces montañas de hielo.

De forma sorprendente, en Plutón hay relativamente pocos cráteres resultado de impactos, si se tiene en cuenta el bombardeo de cuerpos cósmicos que es de esperar en el lugar donde se ubica el planeta, el cinturón de Kuiper. Los astrónomos creen que los cráteres podrían haber desaparecido mediante procesos geológicos activos.


Fuente: La Nación

El descubrimiento que obliga a repensar
el origen de nuestro Sistema Solar
 





La sonda espacial Rosetta detectó oxígeno molecular en la nube de gas que rodea al cometa 67P. El hallazgo tomó a los científicos de la misión completamente por sorpresa, ya que la molécula de este gas es tan reactiva que se pensaba que habría reaccionado con otros elementos durante la formación de los planetas. Los resultados indican que las ideas actuales sobre cómo se formó el Sistema Solar podrían estar equivocadas. El estudio fue publicado en la revista Nature.

Los científicos utilizaron un instrumento de la sonda llamado Rosina para "oler" la atmósfera que rodea al cometa 67P/Churyumov-Gerasimenko durante un período de seis meses. En 2014, se descubrió que el agua hallada en 67P es distinta a la de la Tierra. Así comprobaron que la concentración del gas es constante, lo cual quiere decir que está presente en todo el cuerpo, y no sólo en la superficie que va desprendiendo material a medida que se acerca al Sol. Además, el oxígeno resultó ser el cuarto gas más común alrededor del cometa después de vapor de agua, monóxido de carbono y dióxido de carbono.

En un principio, los científicos involucrados en la investigación pensaron que se trataba de un error. Esto es porque el oxígeno reacciona muy fácilmente con otros elementos para formar compuestos y no se mantiene en su forma original. Los investigadores creen que el oxígeno podría haberse congelado muy rápidamente y luego quedó atrapado en pedazos de material durante las primeras etapas de la formación del Sistema Solar.

Muchas de las teorías actuales de cómo los planetas y los cometas se formaron alrededor del Sol sugieren que se trató de un proceso violento que habría calentado el oxígeno congelado, que a su vez habría reaccionado con otros elementos. Pero este hallazgo parece indicar que, en realidad, la formación del Sistema Solar podría haber sido un proceso más apacible. "Si tenemos O2 al comienzo de la formación de un cometa, ¿cómo logró sobrevivir por tanto tiempo?", se preguntan los científicos.


Fuente: La Nación

Las encuestas políticas truchas y el club
de los economistas que "p-hackean"
 





* Por Walter Sosa Escudero

Tres décadas atrás, un profesor de Economía tomaba exámenes de seis preguntas. Durante la prueba les advertía a los alumnos que tan sólo una seria corregida, elegida al azar luego de lanzar un dado en la reunión de cátedra previa a la corrección. Esto era parcialmente cierto, porque de hecho el académico tiraba el dado, pero lo hacía repetidamente hasta que salía el número de la pregunta que él quería que se corrija.

Algo vergonzosamente similar ocurre en muchas disciplinas empíricas (como la economía o la política), en donde, por ejemplo, se realizan varias encuestas y sólo se muestra la que da el resultado que uno quiere (cualquier semejanza con la realidad de las últimas mediciones previas a los comicios del domingo pasado es pura coincidencia).

Ahora, ¿qué significa que una encuesta "funcione"? Dos cosas. Una es que dé el resultado que uno quiere, más allá de que sea cierto o falso. Todo político enfrenta el dilema de que por un lado querría que las encuestas lo den como ganador, pero también que le digan la verdad. No hay mucho que la ciencia pueda hacer por esta cuestión, es un problema ético.

La otra es que la encuesta pase un mínimo estándar técnico para que sea confiable. Toda encuesta tiene un margen de error, atribuible a la naturaleza aleatoria del mecanismo que elige quién es encuestado y quién no. El trabajo de la estadística científica es justamente medir este error, de modo que la encuesta funciona si el así llamado "error estadístico" es pequeño. Por ejemplo, si una encuesta dice que Daniel Scioli tendrá el 35,2% de los votos y Mauricio Macri el 34,2%, a fines de concluir que la encuesta sugiere que Scioli ganará, el margen de error estadístico debería ser menor a uno por ciento. De no serlo, un analista honesto debería decir "si bien entre los encuestados Scioli aventaja a Macri, no es posible extrapolar estos resultados a la población". Pregunto aquí al lector si alguna vez vio un comentario por el estilo. Yo tampoco.

Entonces, si la barrera a saltear es la del margen de error estadístico, una trampa posible es realizar un montón de encuestas hasta que alguna, de chiripa, pase este umbral. ¿La misma trampa que la del dado del profesor del primer párrafo? Efectivamente. A esta práctica de "jorobar con los datos hasta que pase el estándar estadístico" se la llama p-hacking, en donde la "p" tiene que ver con el "valor-p", una técnica estadística usada y abusadaad-nauseam para medir estos márgenes de error.

Las disciplinas no experimentales como la economía son bastante proclives a esta práctica deportiva del p-hacking. Nate Silver es un famoso analista de datos -que pronosticó con altísima precisión las últimas elecciones presidenciales en Estados Unidos-, creador de Five Thirty Eight, un popular blog sobre estos temas en donde hace poco plantearon un interesantísimo juego, para advertirnos acerca de cuán fácil es p-hackear. El problema en cuestión consiste en ver si la presencia de demócratas en el poder favorece a la economía norteamericana.

A tal fin, los autores del blog crearon una aplicación online que contiene varias formas de medir la performance de una economía (crecimiento del PBI, inflación, desempleo, etc.) y también de cuantificar la presencia de demócratas en el poder (si el presidente es demócrata, la proporción de gobernadores demócratas, etc.). Cualquiera puede entrar a la aplicación y "jugar" eligiendo variables, que son utilizadas por el software para estimar un modelo estadístico. Una cuenta simple da que con las variables disponibles habría 1800 combinaciones posibles de modelos a estimar, de los cuales 1078 pasan el test del "valor p". Es decir, jorobando con el programita uno puede encontrar muy rápidamente una combinación de variables que pasa el estándar científico del p-valor y así justificar "científicamente" votar a los demócratas. O todo lo contrario, como le venga en gana.

Números y chequeos

El famoso "valor-p" es la herramienta más utilizada en ciencia para chequear si un resultado es estadísticamente significativo o no. A modo de ejemplo, toda vez que en los medios aparece alguna noticia pseudocientífica tal como "jugar a los videojuegos mejora la capacidad sexual", posiblemente se deba a que algún científico encontró que la diferencia en la performance sexual entre quienes juegan y quienes no pasa la barrera del "valor p". Lo que no resulta obvio es si se trata de un experimento honesto o de una "p-hackeada". Hace falta mucho más que mirar el valor-p para evaluar la calidad de un trabajo científico y el alcance de sus conclusiones.

Muy recientemente, la revista Basic and Applied Social Psychology generó un enorme revuelo en la ciencia: directamente prohibió el uso del valor-p en sus artículos.

Tan mayúsculo fue el escándalo que la Asociación Americana de Estadística (quizá la más importante del mundo) convocó urgentemente a un comité de doce expertos, que en breve se expedirá sobre el asunto.

Los críticos de la prohibición aducen que es el uso y no el abuso lo que causa problemas, remarcando que la ciencia y el conocimiento son los últimos lugares en donde uno querría prohibir prácticas.

Los que tienen una postura favorable argumentan que prohibiendo el valor-p eliminarían las actitudes tramposas de quienes "torturan datos hasta que confiesan" (como Ronald Coase, Nobel en Economía en 1991), forzándolos a presentar pruebas más sólidas acerca de si algo funciona o no.

Cuidado. P-hacking se refiere a la práctica de jugar con los datos hasta que el resultado pase el umbral del error estadístico. Obviamente existen cosas mucho peores que pueden hacerse para trampear con los datos, prácticas con nombres menos aparatosos, pero igual de nefastas.

Hay una clásica p-hackeada en el mercado de analistas económicos. Es posible convertirse en un analista certero (y en un "p-hacker", ¡que tanto!) en una semana, sin gimnasia, pastillas ni dietas. Envíe 1000 emails en donde en 500 dice que el dólar va a subir y en los restantes, que va a bajar. Fíjese si subió o bajo, suponga que subió. Ahora envíe emails a los 500 a quienes ayer les dijo que subió, y a 250 dígales que el dólar subirá y al resto que bajará. Siga con el jueguito. Al cabo de 5 días habrá (más o menos) 30 personas que dicen "que usted es un genio, que hace cinco días que viene pegándole al dólar". De nada.


Fuente: La Nación

China anuncia que liberará al mercado
 la cotización del yuan
 





China liberará la cotización del yuan en 2020, una medida de extraordinario significado detrás de la ambición de Beijing de convertir su divisa en una moneda de reserva junto al dólar y el euro. La decisión, anunciada este martes, fue adoptada en la cumbre del liderazgo del Partido Comunista que preparó el decimotercer plan quinquenal (2016– 2020), el primero del mandato del presidente Xi Jinping.

El acuerdo fija que la moneda china deberá ser “de libre transacción y libre uso” para el final de ese programa. La medida está a tono con los pedidos insistentes de Occidente para que Beijing elimine los controles sobre la moneda. El yuan ha venido cotizando detrás de las oscilaciones del dólar, una estrategia del régimen para preservar sus mercados comerciales. La demanda occidental se fundaba en que si China soltaba la cotización de su moneda, eso encarecería las exportaciones locales y abarataría las internacionales, lo que permitiría aprovechar el enorme mercado doméstico del coloso asiático.

La política económica china ha mutado lentamente desde la gran crisis occidental de 2008 que redujo el apetito de los mercados tradicionales para los productos de ese país. De modo que la balanza comercial se fue equilibrando entre exportaciones e importaciones ya en épocas del anterior gobierno de Hu Jintau y su primer ministro Wen Jiabao. Ese criterio fue acompañado de un estímulo para el crecimiento del consumo interno que Xi Jinping, en el poder desde inicios de 2013, ha venido profundizando.

Hoy China posee la mayor clase media del mundo con más de cien millones de integrantes y aspira a superar los 700 millones más allá del 2030. La liberación del yuan convierte a ese gigantesco mercado en un espacio central para el comercio mundial y a China le suma un decisivo poder político.


Fuente: Clarín

La Unesco premia trío de científicos argentinos 




La Unesco entregó el premio Sultan Qaboos a la Preservación Ambiental a un trío de científicos de la Universidad de Buenos Aires (UBA) integrado por Fabio Kalesnik, Horacio Sirolli, y Luciano Iribarren. Los reconocieron por sus estudios del ecosistema del Delta del Paraná, y por sus iniciativas de capacitación y educación ambiental.

Desde 1991, la distinción se otorga de manera bianual a individuos o grupos que realizan contribuciones sobresalientes a la conservación de ecosistemas. Lleva el nombre del Sultán de Omán que donó los 70.000 dólares que le dan a los ganadores.

El jurado resaltó que los argentinos contribuyeron “al establecimiento y al manejo de la Reserva de Biosfera del Delta, que forma parte del programa de ‘La biosfera y el hombre’ de la Unesco”.

La reserva fue creada en el año 2000 y es un área protegida ubicada en las secciones segunda y tercera de las islas del Delta bonaerense, comprendidas en el sector del partido de San Fernando. Cuenta con una superficie de 90.000 hectáreas aproximadamente.

Los tres científicos recibieron el premio durante un acto en el marco del Foro Mundial de la Ciencia, en Budapest, Hungría. También la Unesco galardonó a Diego Golombek con el premio Kalinga por la Popularización de la Ciencia al científico y divulgador argentino. Golombek trabajó en prensa gráfica y condujo diversos ciclos televisivos como Proyecto G, Desde la ciencia, El cerebro y yo, La fábrica y otros. Dirige la colección de libros Ciencia que ladra, de editorial Siglo XXI y es también investigador del Conicet en el área de cronobiología.


Fuente: Clarín

Osvaldo Canziani: el científico argentino
que luchó contra el cambio climático
 





A los 92 años, murió el jueves 29/10 el científico Osvaldo Canziani, quien integró el Panel Intergubernamental de Cambio Climático (IPCC) que depende de la Organización de las Naciones Unidas, entidad que ganó el Premio Nobel de la Paz en 2007, compartido con el ex vicepresidente de los Estados Unidos Al Gore.

Canziani era licenciado en Ciencias de la Atmósfera y se había doctorado en 1969 en la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (UBA). Entre otras actividades académicas, trabajó en el Instituto de Estudios e Investigaciones del Ambiente, en el Servicio Meteorológico Nacional y en la Universidad Católica Argentina. Entre 1981 y 1982, lo hizo en el Centro de Investigaciones Biometeorológicas del Conicet y fue autor de más de un centenar de trabajos de investigación.

A nivel internacional, trabajó como miembro de la Organización Meteorológica Mundial y luego fue seleccionado como científico representante de la Argentina en el Panel de la ONU. Desde ese lugar, fue uno de los líderes del grupo de trabajo II, dedicado a reunir información sobre impactos, adaptación y vulnerabilidad frente al problema del cambio climático.

Su muerte causó tristeza en las ONG ambientalistas del país. De hecho, la Fundación Ambiente y Recursos Naturales lo recordó de esta manera: "Siempre al tanto de las últimas tendencias en materia de meteorología y ambientalismo, ha hecho una gran y pionera contribución a la lucha contra la crisis de cambio climático global que atravesamos".

"Sus aportes siempre serán importantes al momento de reflexionar sobre los cambios que debemos hacer para no empeorar el futuro del planeta", escribió la filial local de Greenpeace.


Fuente: La Nación

Digitalizan archivo de TV Pública y Radio Nacional 




El sitio web Prisma comenzó a digitalizar el acervo audiovisual y sonoro del Archivo Histórico de la Radio y Televisión Argentina (RTA). En primera instancia, el material que ya está disponible en el sitio web www.archivoprisma.com.ar fue emitido o grabado por Canal 7 y Radio Nacional, más algunas piezas audiovisuales de distintas producciones, como los Sucesos Argentinos de la década del 40 y 50. El material que se va subiendo al sitio es el resultado del proceso de digitalización y catalogación que se lleva a cabo en Radio Nacional y en Canal 7 actualmente y se trata de un archivo en construcción que recién comienza.


Fuente: Diario Z

Violencia machista: el 70% de
las mujeres no hace la denuncia
 





La “Primera encuesta sobre violencia psicológica, física y sexual en la Ciudad” tomó mil casos de mujeres mayores de 18 años y entre sus resultados refleja que 6 de cada 10 entrevistadas fueron víctimas de violencia psicológica y 2 de cada 10 sufrieron violencia física.

El estudio, además, reveló que en cuanto a violencia sexual, 3 de cada 10 mujeres fueron atacadas por su pareja o esposo y concluye que el asalto sexual se da también en situaciones de intimidad.

Otro de los datos alarmantes que se desprende es que el 70% de las entrevistadas dijo que las situaciones de violencia se dan cuando están a solas y que, por miedo o creer que no va a volver a pasar, no denuncian ni se lo cuentan a nadie. Si piden ayuda, refleja el sondeo, es acudiendo a personas cercanas y no a instituciones.

La línea telefónica de atención inmediata de la Dirección General de la Mujer en la Ciudad es 0800-666-8537. Funciona las 24 horas todos los días del año y brinda asistencia especializada, orientación y derivación tanto a las mujeres víctimas de violencia de género, como a los niños y niñas víctimas de maltrato y abuso infantil.

La Línea telefónica Nacional es 144, depende del Ministerio de Desarrollo Social de la Nación y está destinada a brindar información, orientación, asesoramiento y contención para las mujeres en situación de violencia de todo el país, los 365 días del año, las 24 horas, de manera gratuita.

El maltrato psicológico, la violencia verbal y los abusos físicos, todo eso es violencia y no tiene que suceder. Las denuncias son anónimas y si la víctima no puede realizarla, puede llevarla adelante cualquier otra persona, integrante del grupo familiar o que haya tomado conocimiento de los hechos.


Fuente: Diario Z

Previenen infección del parásito
de Chagas en células cardíacas
 





Hasta un tercio de los pacientes infectados con el parásito de la enfermedad de Chagas pueden sufrir lesiones cardíacas. Ahora, un estudio de investigadores argentinos identificó una especie de “paraguas biológico” que ayuda a poner a resguardo al corazón y abre la puerta al desarrollo de nuevas estrategias futuras de prevención o tratamiento.

Los científicos del CONICET, la UBA y el Instituto Nacional de Parasitología “Mario Fatala Chabén” probaron en cultivos celulares el efecto de una proteína endógena que regula la proliferación celular, galectina-1. Y comprobaron que disminuye el número de parásitos en la célula cardíaca y las protege de la muerte inducida por ese invasor.

En otro experimento relacionado, los investigadores comprobaron que en ausencia del gen que produce galectina-1, animales de laboratorio infectados presentaron mayor número de parásitos en sangre y nidos del patógeno en el tejido cardiaco y muscular.

La administración de galectina-1, o alguna droga que recree su función, podría servir como coadyuvante de la terapia convencional con antiparasitarios, que por lo general son efectivos sólo en la fase temprana de la infección, señaló la doctora Karina Gómez, investigadora del CONICET en el Instituto de Investigaciones en Ingeniería Genética y Biología Molecular (INGEBI).

“Sin embargo, hay mucho para seguir investigando, ya que el efecto de galectina-1 depende de varios factores, como la vía de entrada del parásito, la cepa de Trypanosoma cruzi o la respuesta inmunológica que desarrolla el hospedador”, añadió Gómez.


Fuente: Argentina

La OMS declara cancerígena la carne procesada 




Comer carne procesada como salchichas, hamburguesas o embutidos aumenta el riesgo de sufrir cáncer, según ha concluido un panel de expertos de la Organización Mundial de la Salud (OMS). El dictamen considera que este tipo de alimentos es “carcinógeno para los humanos” y lo incluye en el grupo de sustancias más peligrosas para la salud junto con el humo del tabaco, el alcohol, el plutonio o el aire contaminado, entre otros más de 100 compuestos analizados anteriormente. El organismo también considera que la carne roja (vacuno, cerdo, caballo, cordero, cabra…) es “probablemente carcinógena”.

El estudio de la OMS considera carne procesada "cualquier tipo de carne que ha sido transformada con sal, curación, fermentación, ahumado, para mejorar el sabor y preservar el alimento". Esto incluye salchichas, algunas hamburguesas de carne picada y también embutidos, desde el peor chorizo al mejor jamón. Aunque la mayoría de estos productos son de carne de vaca o cerdo, este grupo también incluye embutidos hechos con sangre, carne picada de ave o vísceras. La OMS considera carne roja la que proviene del músculo de un mamífero, lo que incluye vacuno, cordero, cerdo, caballo y cabra.

El estudio de la ONU es concluyente y encuentra suficientes evidencias científicas para considerar las hamburguesas y el resto de las carnes procesadas como un producto que genera cáncer. Los trabajos muestran que este tipo de carnes se asocian con una mayor incidencia del cáncer colorrectal. Además, señala, "hay una asociación positiva" entre el consumo de estos alimentos y el cáncer de estómago.


Fuente: El País

La supercomputadora 




* Por Pablo Esteban

El cerebro funciona como una compleja computadora que tiene sus cables, sus vehículos, su hardware y su software. Una máquina que almacena y procesa una innumerable cantidad de datos que viajan por intermedio de un sistema integrado de conexiones –un conjunto de autopistas y accesos– que facilitan que la comunicación sea rápida y eficaz.

En este sentido, si bien su estructura se repite en todos los seres humanos por igual, las experiencias particulares de cada quien configuran ejemplares con características específicas y únicas. De aquí, la belleza de lo inexplicable.

Damián Refojo es médico egresado de la Universidad de Buenos Aires. Además realizó un Doctorado en la Facultad de Ciencias Exactas y Naturales (UBA), y un Posdoctorado en el Instituto Max Planck de Psiquiatría (Munich). En 2008 ganó el concurso Max Planck Junior Group organizado por la Sociedad Max Planck, el MinCyT, el Conicet y la Fundación Volskswagen para pasar un período de trabajo de investigación en Alemania y luego regresar al país con el objetivo de desarrollar sus experiencias en el ámbito local. Ha estudiado los mecanismos del desarrollo neuronal y enfermedades como la ansiedad y la depresión. En la actualidad, lidera un equipo especializado en neurobiología molecular desde el Instituto de Investigación en Biomedicina de Buenos Aires (IBioBA) radicado en el Polo Científico-Tecnológico ubicado en Palermo.

En esta edición, narra cómo se produce el proceso comunicacional –esto es, el intercambio de mensajes entre agentes emisores y receptores– en los insondables senderos que constituyen el sistema nervioso de los seres humanos.

–Si tuviera que explicarme qué estudia la neurobiología, ¿qué me diría?

–En principio, la neurobiología busca entender cómo funciona el cerebro y a través de ello analizar todas sus actividades, vinculadas con aspectos tales como el aprendizaje, la memoria, el comportamiento, la conciencia. Además, comprende el estudio de las patologías asociadas y, en efecto, intenta identificar qué procesos se desarrollan para que un cerebro enferme. Quizás esto último involucre la rama más interesante de las que conforman el corpus teórico del campo, aunque, sin embargo, es de la que menos conocemos hoy en día. En este marco, nos interesa saber de qué manera un pequeño proceso molecular al interior de una subestructura celular puede influir en el funcionamiento de una neurona, luego en las actividades de circuitos neurales de las que esas neuronas forman parte y, por último, conocer el modo en que dichos mecanismos repercuten en los aprendizajes, las conductas.

–¿Cómo se comunican las neuronas? Cuénteme en qué consiste el proceso de sinapsis.

–El cerebro es un complejo entramado de elementos simples y únicos, las neuronas, que se comunican a través de uniones llamadas sinapsis. Una prolongación especial de la neurona llamada axón libera un neurotransmisor –una sustancia química– que le comunica a la siguiente neurona esencialmente dos mensajes: “debes excitarte” y/o “debes inhibirte”. Ello permite que todo ese enorme cableado desarrolle flujos de información o los enlentezca. Además, el proceso de intercambio de datos involucra la activación de conjuntos específicos o “engramas” de neuronas que el cerebro usa para codificar la información que necesita almacenar, procesar o incluso eliminar.

–Funciona como una computadora...

–Exacto. El cerebro es una gran supercomputadora moldeada y desarrollada durante años, pues, tiene sus cables, sus sistemas de procesamiento y sus vehículos. Las neuronas son esos vehículos, pero al mismo tiempo forman parte del hardware que procesa los estímulos, elabora respuestas, toma información del pasado y recuerda.

–Desde esta perspectiva, ¿en todos los seres humanos la supercomputadora funciona del mismo modo?

–Todos los seres humanos tienen esencialmente el mismo hardware y el mismo software, pero dependiendo de la información que cada individuo fue guardando a lo largo de su vida, la maquina adquirirá rasgos tan particulares hasta convertirla en un ejemplar único. Tan simple, bello e incomprensible como ello.

–En este marco, ¿de qué manera los procesos de socialización –la interacción del individuo con diversos contextos– participan del procesamiento de la información que se pasea por el cerebro? ¿Qué ocurre con esa información cuando el cerebro enferma?

–Te lo voy a contestar con un ejemplo. Cuando nosotros analizamos enfermedades psiquiátricas como la ansiedad y la depresión, el factor estrés se torna central. Cuando el estrés –puede definirse como una mala adaptación del individuo a su ambiente– se perpetúa en el tiempo, emerge la enfermedad. No siempre sucede con todos los individuos de igual modo, pero hay un patrón que asocia los altos niveles de estrés crónico a este tipo de enfermedades. Desde aquí, el contexto y lo social, por supuesto, son clave para comprender muchas de estas patologías.

–Le preguntaba porque, en general, se explican los efectos de las enfermedades psiquiátricas desde visiones muy esquemáticas. O bien se las concibe desde un enfoque de corte médico o bien se las describe a partir de circunstancias meramente sociales. Por ejemplo, con el autismo, sucede en esa línea...

–Tal vez se pueda ensayar una visión muy esquemática de la neurobiología entre aquellos procesos fisiológicos que suceden con normalidad –en los que se estudian neuronas, circuitos, estructuras cerebrales, etc.– y lo que ocurre en presencia de alguna patología. En este sentido, cuando uno estudia enfermedades, no se analizan neuronas, estructuras ni cerebros; más bien, se aborda un complejo integral: los pacientes. Desde aquí, en el autismo, la esquizofrenia o bien en enfermedades neurodegenerativas resulta imposible discriminar y realizar una correcta evaluación de la dimensión de esas patologías si no se tienen en cuenta los aspectos sociales, interpersonales, etc.

–Leí en un paper que su último trabajo se vincula con el descubrimiento de la proteína Nedd8. Desde esta perspectiva, ¿qué es la nedilación?

–Para explicarlo, debo comenzar por detallar un paso previo.

–Adelante...

–Todas las células tienen lo que se denomina vía de traducción de señales, es decir, pequeñas moléculas que funcionan como etiquetas que se les “pegan” a las proteínas y permiten la emisión de mensajes. La célula es una estructura dinámica en permanente contacto con el medio ambiente, de modo que ante la recepción de información debe responder a diversos tipos de estímulos.

–Tengo entendido que la mayor cantidad de los receptores se ubican en la región de la membrana celular...

–Exacto. De modo que la célula recibe las señales que modifican receptores en la membrana y que se traducen hacia su interior en forma de nuevas “etiquetas” que se “pegan” a nuevas proteínas y así sucesivamente como una cascada de modificaciones moleculares dentro de la célula. Ahora bien, ¿qué explica este proceso? En pocas palabras, el pegado de las pequeñas moléculas o etiquetas ocasiona modificaciones en la función, la estructura y la localización de las proteínas. En este sentido, nosotros descubrimos que Nedd8 funciona, también, como una vía de traducción de señales y es fundamental para el desarrollo de los axones (que liberan los neurotransmisores) y la formación y el mantenimiento de las sinapsis. Observamos que cuando se inactiva Nedd8, las neuronas no desarrollan sinapsis y las que ya desarrollaron sinapsis las empiezan a perder.

–¿Esa inactivación de la proteína Nedd8 se evidencia en alguna patología?

–Aunque se sabe que cumple funciones muy importantes en células tumorales, no se han encontrado genes de la vía de señalización de Nedd8 asociados a enfermedades cerebrales. Hasta el momento no hemos estudiado su posible relación con patologías cerebrales aunque esto no será sencillo porque no es tan fácil saber bien dónde buscar.

–Me interesa, ¿en qué sentido?

–Para ser sincero aún no sabemos cómo funcionan muchas de las patologías del sistema nervioso. Es decir, no está totalmente probado cómo son los mecanismos moleculares cerebrales en la generación y el desarrollo de enfermedades como el Alzheimer, el Parkinson, la depresión, la ansiedad o la esquizofrenia. Porque para comprenderlos mejor necesitaríamos estudiar un cerebro humano y eso no es posible. Los animales que se utilizan en los laboratorios no desarrollan ninguna de estas patologías y la inmensa mayoría de los estudios se hacen en roedores. Por lo tanto, si bien hemos avanzado bastante lo hemos hecho gracias a modelos, a veces, muy artificiales.

–Si ustedes, los científicos, no consiguen describir con claridad cómo son los mecanismos en un cerebro enfermo, ¿de qué manera se producen los medicamentos destinados a regular estas patologías?

–La inmensa mayoría de los medicamentos para la depresión, por ejemplo, son derivaciones de drogas antituberculosas o antihistamínicas que surgieron en la década de 1950. Por aquella época, cuando se suministraban los remedios advirtieron que los pacientes mejoraban el humor y así aparecieron en la escena pública los primeros antidepresivos. Por supuesto, tienen una implicancia en el sistema neurológico –son inhibidores de la recaptación de serotonina o inhibidores de la recaptación de noradrenalina– pero a ciencia cierta no sabemos explicar bien qué es lo que hacen. Es decir, actuamos por asociaciones que no siempre implican causalidades.

–¿Qué implica esta última afirmación? ¿Me podría brindar algún ejemplo que explicite más su postura?

–Por ejemplo, respecto de los pacientes con Alzheimer sabemos que tienen placas, es decir, depósitos de proteínas que se acumulan en el cerebro. Ahora bien, hay individuos que presentan toda la sintomatología clásica de la enfermedad y no tienen placas, y a la inversa hay pacientes que sí las tienen y no desarrollan la enfermedad. Hay un problema –casi epistemológico– relacionado con las patologías que tiene que ver con que el cerebro es humano y para estudiarlo contamos con un problema de accesibilidad. Utilizamos modelos que se acercan pero estamos lejos de la perfección, más allá de nuestra rigurosidad. Pienso que para comprender mejor cómo se desarrollan las patologías es necesario conocer mejor cómo funcionan las neuronas normalmente.


Fuente: Página 12

Crean una piel artificial que permite
"sentir" el calor y la presión a la vez
 





Un equipo de investigadores surcoreanos desarrolló una nueva piel artificial hecha de una fina lámina ferroeléctrica que, por primera vez de manera simultánea, puede detectar y diferenciar entre calor y presión.

Este tipo de piel electrónica o "e-skin", desarrollada en el Instituto Nacional de Ciencia y Tecnología de Ulsan, en Corea del Sur, podría emplearse en robots, sensores y aparatos para diagnóstico médico, indica el estudio publicado por la revista Science Advances.

La piel humana contiene microestrías y receptores sensoriales epidermales y cutáneos únicos, y el microtrazado de la yema de los dedos está específicamente diseñado para afinar la percepción de la textura superficial y para amplificar y transmitir de manera eficiente la información sensorial al cerebro.

La tecnología actual de piel electrónica permite a los robots y las prótesis robóticas manipular objetos y asirlos con precisión, así como diferenciar la textura de las superficies, su dureza y sentir el calor de las cosas vivas.

Sin embargo, desarrollar una piel electrónica que pueda detectar de forma simultánea tanto el calor como los diferentes tipos de presión con un alto nivel de sensibilidad era aún un reto. Pero ahora se ha diseñado una lámina ferroeléctrica que imita el tipo de estriado y la estructura microscópica en forma de montañas de la piel de las puntas de los dedos humanos. Además, añadieron compuestos de un tipo de polímero y grafeno, de manera que la lámina tiene propiedades especiales para detectar el tacto y la temperatura.

Los expertos probaron la respuesta de este tipo de piel artificial a los cambios sensoriales creados por pequeñas gotas de agua y comprobaron que puede detectar el agua que cae a diferentes presiones y temperaturas, además del pequeño aumento de presión ejercido por un cabello humano.


Fuente: La Nación

Las historias narradas en la Odisea y
en la Ilíada podrían haber ocurrido de verdad
 





Un equipo de arqueólogos que excavaban en las ruinas de Pilos, en el sudoeste de Grecia, encontraron un verdadero tesoro: la tumba de un guerrero que fue enterrado allí en los inicios de la civilización europea. Junto a él se encontraron una espada de bronce y una excepcional colección de anillos de oro, piedras preciosas y sellos exquisitamente tallados, según publicó The New York Times.

Pero la riqueza encontrada allí es tan real como metafórica: lo que los científicos encontraron puede iluminar los comienzos de la civilización de Micenas, el mundo perdido de Agamenón, Néstor, Ulises y otros héroes descriptos en la Odisea y la Ilíada. Probar la existencia histórica, al menos en parte, de los hechos y personajes de los poemas épicos de Homero es uno de los objetivos más ambiciosos -e irreales, afirman sus detractores- de los arqueólogos que trabajan en estos yacimientos.

El guerrero perteneció en vida a un tiempo y un lugar que le otorgan especial importancia al descubrimiento de su tumba. Fue enterrado en Pilos alrededor del 1500 a.C., cerca de donde, años después, se erigiría el palacio de Néstor, un importante centro administrativo que fue destruido en 1180 a.C., fecha cercana a la de la Troya de Homero. El palacio era parte de la civilización micénica; de sus cenizas surgiría, siglos después, la cultura griega.

La tumba fue descubierta el último 18 de mayo por Jack L. Davis y Sharon R. Stocker, arqueólogos de la Universidad de Cincinnati que han excavado en Pilos durante los últimos 25 años. La losa de la tumba del guerrero está a nivel del suelo, tan sencilla de hallar que parece imposible pensar que permaneciera intacta durante 35 siglos.

Lo que Davis y Stocker encontraron fue una inusual fosa de 2,50 metros de profundidad, dos metros de ancho y cuatro de largo. El sepulcro estaba intacto salvo por una roca de una tonelada que probablemente fuera la losa de la tumba, que al precipitarse aplastó al ataúd de madera que protegía.

Dentro del ataúd yacen los huesos de un hombre de entre 30 y 35 años de edad. A su izquierda se habían colocado sus armas: una espada de bronce con empuñadura de marfil y oro y una daga con oro. A su derecha, cuatro anillos de oro con finas tallas minoicas y cerca de 50 sellos de piedra con imágenes de diosas y toros. Entre sus piernas se halló una placa de marfil tallada con un grifo, la criatura mitológica que protegía a diosas y reyes. También se encontraron copas de oro, plata y bronce.

Dado que la tumba permaneció intacta 3500 años, los arqueólogos que realizaron el hallazgo esperan sacar partido de técnicas modernas como el análisis de ADN para investigar el origen del guerrero, quizá proveniente de sus dientes. La materia vegetal presente en el suelo podría datar con mayor precisión la fecha de su entierro a través de los métodos de datación por radiocarbono.


Fuente: La Nación