Programa 214

"La insuficiencia de divisas limita la capacidad
de crecimiento del sector industrial
en la medida en que no esté integrado"



En esta emisión, contamos con la participación de Marcelo Rougier, Dr. en Historia, Investigador UBA-CONICET, Miembro del PIUBAD, para reflexionar sobre la historia de la industria argentina.

En primer lugar, con respecto a la metodología utilizada en la investigación de "La industria en su laberinto. Historia de empresas argentinas", Marcelo comentó que "hay algunas dimensiones metodológicas a nivel internacional para el abordaje de historia de empresas de las cuales uno obviamente se nutre. Pero, básicamente, como me interesaba mostrar la relación entre empresarios, empresas y el Estado en pos de interpretar un proceso de desarrollo junto a sus limitaciones y dilemas, fui armando una metodología propia y específica. Yo había comenzado a trabajar cuestiones vinculadas a la historia de la industria desde las políticas públicas e industriales. Eso me abrió un panorama de la evolución de algunas empresas. Básicamente, la idea es considerar los factores internos (propios de la dinámica empresaria: fundador, tipo de financiamiento, organización, estructura, estrategias empresariales de largo plazo) y factores externos (contexto macroeconómico, institucional, las políticas económicas, las políticas industriales particulares, los desarrollos tecnológicos) para analizar la interacción entre el Estado y los empresarios".


Como segundo punto se consultó si los factores externos afectan de igual manera a las distintas industrias. Al respecto, Rougier afirmó que "los cambios macroeconómicos no afectan del mismo modo a las empresas. Una de las cosas que surge con claridad de las investigaciones es 
un alto grado de inestabilidad macroeconómica, institucional y

Programa 213

"El punto central es que estemos convencidos de
la condena social de las situaciones de violencia
"



En esta emisión, contamos con la participación de Laura Pautassi, investigadora UBA-Conicet y miembro del Instituto de Investigaciones Jurídicas y Sociales "Ambrosio L. Gioja", para reflexionar sobre el 30º Encuentro Nacional de Mujeres

Con respecto al significado del Encuentro Nacional de Mujeres, Laura afirmó que "es muy importante porque consiste en un espacio que las mujeres fueron logrando construir a lo largo de los años. Se trata de un ámbito pluralista dado que los movimientos de mujeres no son homogéneos. Cada colectivo revindica particularidades dentro de lo que son las distintas demandas de las mujeres. El Encuentro Nacional de Mujeres ha atravesado la historia argentina desde la recuperación democrática y en aquel confluyen, año a año, distintos colectivos de mujeres en un gran espacio de debate sobre diversas temáticas con múltiples modalidades. Lo que se plantea principalmente 
en el encuentro no son

Premio Nobel 2015


A continuación, compartimos con Uds. lo que ha dejado la entrega de los Premios Nobel 2015.

Premio Nobel de Química 




Junto a Tomas Lindahl, la Real Academia de Ciencias Suecas ha galardonado con el Premio Nobel de Química 2015 a Paul Modrich y Aziz Sancar. A los tres se les reconocen sus trabajos para desvelar cómo se corrigen los errores que van sufriendo las células humanas con cada nueva división o cuando se exponen, por ejemplo, a agentes externos como el tabaco o las radiaciones solares.

El jurado ha destacado también que sus trabajos, cada uno de ellos de manera independiente, han permitido no sólo conocer el funcionamiento interno de las células y cómo protegen su información genética, sino que han tenido aplicaciones prácticas directas en el desarrollo de nuevas terapias contra el cáncer. Al fin y al cabo, el cáncer no es sino un proceso por el que estos mecanismos de reparación del ADN dejan de funcionar y las células van acumulando mutaciones hasta malignizar. Ellos abrieron la puerta a este cambio, nos enseñaron que el ADN se puede dañar y que existen proteínas encargadas de su reparación, como si fuesen cirujanos.

En la mayoría de los casos, y pese a que a lo largo de la vida cada célula puede llegar a dividirse millones de veces, el ADN se mantiene prácticamente idéntico al que heredamos en el momento de la fecundación vía paterna y materna. Como cualquier proceso químico, incluso aunque no se someta a ninguna agresión externa, esta división celular a lo largo de nuestra vida es objeto de mutaciones y pequeños errores aleatorios. Los mecanismos que ha estudiado la terna de premiados son los que mantienen dentro de un orden controlado esta inestabilidad genética.

Lindahl describió por primera vez a principios de los años setenta la reparación por escisión de base que impide la descomposición del ADN. Sancar fue capaz de clonar el gen de la enzima que repara los daños de los rayos UV en el ADN y realizó varios trabajos sobre la fotoliasa como enzimas clave en la reparación causada por la luz ultravioleta: primero en bacterias y, en segundo lugar, en humanos. Modrich demostró cómo corrige la célula los errores que se producen en el proceso de división celular, reduciendo su frecuencia hasta mil veces. En el caso de algunos tipos de cáncer de colon hereditario, por ejemplo, el origen de la enfermedad está en una brecha en este control de seguridad.

Sin todos los mecanismos de reparación del ADN, ha destacado el Jurado del Nobel, nuestro genoma se colapsaría. De hecho, un sólo error en esta compleja maquinaria puede ser el primer peldaño hacia la aparición de un cáncer.

Más información a continuación:
Información de prensa
Anuncio del premio
Entrevista
Trabajo general
Trabajo detallado

Fuente periodística: El Mundo

Premio Nobel de Física 




El premio Nobel de Física de 2015 ha sido concedido a Takaaki Kajita y Arthur McDonald por el descubrimiento de las oscilaciones de neutrinos, que demuestran que los neutrinos tienen masa. Los neutrinos son partículas elementales del Modelo Estándar, la exitosa teoría que describe los componentes más fundamentales de la materia.

De todas las partículas existentes, los neutrinos son las peor conocidas por la dificultad que entraña su detección. Por ejemplo, la masa de los neutrinos es tan pequeña que hasta que los experimentos liderados por Kajita y McDonald publicaron sus resultados, se pensaba que era nula. Hoy en día seguimos sin saber cuál es su masa, pero sí sabemos que no es cero.

Esto replantea el lugar de los neutrinos dentro del Modelo Estándar: si obtienen su masa del campo de Higgs como el resto de partículas, ¿por qué la de los neutrinos es tan pequeña? Y abre nuevas posibilidades como que el neutrino obtenga su masa de un mecanismo alternativo, pudiendo ser su propia antipartícula, o que los neutrinos sean responsables de por qué vivimos en un Universo hecho de materia y no de antimateria.

Para entender las oscilaciones de neutrinos, es necesario saber que existen tres identidades de neutrinos: electrónica, muónica y tauónica. Si los neutrinos no tuvieran masa, un neutrino creado con una identidad la mantendría durante toda su existencia. El fenómeno de las oscilaciones de neutrinos consiste precisamente en que estas identidades no son inmutables, y que los neutrinos alternan entre ellas periódicamente, con una frecuencia que es proporcional a su masa.

La primera manifestación de este comportamiento se observó en los neutrinos electrónicos producidos en las reacciones nucleares del interior del Sol. Raymond Davis midió el número de estos neutrinos con un detector en la Tierra (hazaña por la que compartió el premio Nobel de 2002), midiendo aproximadamente un tercio de los que se esperaban. Esto condujo a proponer las oscilaciones de neutrinos como una solución al problema: la desaparición de neutrinos electrónicos podría deberse a que en su viaje desde el corazón del Sol hasta nuestros detectores los neutrinos mutaban a sus otras identidades, que no podían ser detectadas.

El experimento de McDonald confirmó esta interpretación de manera unívoca en 2002, midiendo por vez primera el número de neutrinos total, sin distinguir identidades, usando la disociación del deuterio, hallando un buen acuerdo con la predicción teórica. La segunda manifestación de las oscilaciones se encontró en los neutrinos producidos por los rayos cósmicos en la atmósfera. Al igual que sus compañeros solares, el número medido de neutrinos (en este caso muónicos) era inferior al esperado. El misterio quedó resuelto en 1998 cuando el experimento de Kajita anunció que el déficit de neutrinos dependía de cuánta distancia habían viajado, tal y como predecía la teoría de oscilaciones.

Más información a continuación:
Información de prensa
Anuncio del premio
Entrevista
Trabajo general
Trabajo detallado

Fuente periodística: El Mundo

Premio Nobel de Medicina 




La salud global está de enhorabuena porque por primera vez en muchos años, la academia sueca ha premiado con el premio Nobel de medicina la labor de tres gigantes que han trabajado (y siguen haciéndolo) por mejorar el tratamiento de varias enfermedades infecciosas que afectan a algunos de los países más pobres del mundo. La investigación de Youyou Tu, William C. Campbell y Satoshi mura, fundamental para el desarrollo de nuevos tratamientos como las artemisininas o la ivermectina para enfermedades tan dispares como la malaria, la filariasis linfática, o la oncocercosis, ha recibido por fin el reconocimiento merecido.

El trabajo de estos investigadores en las últimas décadas ha permitido el descubrimiento y desarrollo de fármacos para la lucha contra enfermedades relacionadas con la pobreza, y a menudo injustamente olvidadas por los países más ricos, donde no suelen ser un problema de salud pública. Sin embargo, el impacto de los millones de dosis distribuidas en los países más pobres de estos dos tipos de tratamientos antiparasitarios es incalculable, y ha contribuido de forma significativa a una reducción masiva del número de casos y muertes atribuibles a estas enfermedades. El simple hecho de que dispongamos a día de hoy de un arsenal de fármacos que funcionan de forma muy eficaz contra algunas de estas infecciones ha motivado un renovado ímpetu por avanzar hacia su erradicación a nivel global, algo impensable y utópico hace apenas algunos años.

Que la malaria siga causando cerca de medio millón de muertes anuales, a pesar de existir fármacos eficaces para su tratamiento, o que infecciones perfectamente prevenibles sigan siendo una importante causa de ceguera o de elefantiasis en pleno siglo XXI debería hacernos reflexionar sobre las enormes inequidades que persisten en nuestro mundo a nivel de acceso a la salud. Este año la academia sueca ha sido valiente, pronunciándose a favor de recordarnos que las enfermedades olvidadas no pueden seguir siéndolo, y revalorizando la importancia que el desarrollo de nuevas herramientas de control y tratamiento sigue teniendo para mejorar la salud de los más pobres.

Más información a continuación:
Información de prensa
Anuncio del premio
Entrevista
Trabajo detallado

Fuente periodística: El Mundo

Premio Nobel de Economía 




Deaton (Escocia, 1945) ha ganado el Premio Nobel de Economía por sus análisis sobre "consumo, pobreza y bienestar". "La vida es mejor ahora que en cualquier otro momento de la historia. Más personas son más ricas y menos personas viven en la pobreza extrema". Tras ocho años de una crisis devastadora el mundo está agotado. Los estragos con visibles en todas partes, hay guerras y una emergencia de refugiados sin parangón desde la Segunda Guerra Mundial. Pero la vida ahora es mejor que en cualquier otro momento de la historia. Con esa frase, esa evidencia, empieza Angus Deaton su último libro, "The Great Escape".

Profesor de la Universidad de Princeton, Deaton es una leyenda. Un economista respetado, admirado por liberales, keynesianos o neoclásicos. Un gigante del desarrollo y el enfoque micro, uno de los popes que revolución la forma que tenemos de entender la pobreza, la renta y la distribución. "The Great Escape" empieza con optimismo, pero justo después da una bofetada: "Millones de personas todavía sufren los horrores de la miseria y de muerte prematura. El mundo es enormemente desigual".

Su trabajo en las últimas décadas nos explica qué ha permitido a ciertos países escapar de las muertes prematuras, de la desigualdad crónica. Cómo se ha pasado, después de milenios, de una esperanza de vida de 30 años a una de 80 en buena parte del planeta. Un trabajo de hormiga, detallado, cuidadoso que nos permite acercarnos de forma más seria a algo subjetivo como el bienestar.

Comparar la vida en dos países es tremendamente complicado. No basta con hacer una conversión con el tipo de cambio. El coste de los servicios se puede cuantificar, pero la economía está llena de bienes y servicios complicados de equiparar. Deaton, con un esfuerzo titánico, ayudó a construir los índices que permiten hacer esos análisis con más precisión y rigor que nunca antes. Qué importa, cuándo es la preferencia cultural y no la pobreza lo que marca algo, cuándo se puede usar una calculadora sin más y cuándo no. Y ahí su aportación, el Sistema Casi Ideal de Demandas (AIDS) para calcular la demanda en su interacción continua con el precio de todos los bienes y servicios del mercado y de los ingresos del consumidor.

"¿Podemos entender los patrones a larga escala sin información detalladas sin procesos a pequeñas escalas? Queremos pensar que sí, pero no teníamos datos de elecciones a niveles del individuo y de los hogares. Hacíamos nuestros análisis asumiendo que todos nos comportamos de forma similar. Por ejemplo, los hogares ricos se comportan igual que los pobres. Hoy, gracias al trabajo de Angus Deaton tenemos los datos y las técnicas para saber que no es así y para hacerlo mejor", explicaba la Academia en la presentación del premio.

Su trabajo en microeconometría ha sido clave para comprender mejor el papel del consumo como elemento fundamental en la medición del bienestar y la pobreza. Para encuadrar factores como la alimentación, los patrones que diferencian a una familia con hijos de otra sin ellos. Por qué la alimentación es crítica. Por qué el tener un acceso directo a crédito o no condiciona la forma de vivir y de gasta siempre. Por qué los que piensan que algo es causa ignoran a menudo que en realidad están ante las consecuencias. Para ir más allá de las relaciones habituales entre la renta disponible de los hogares y su nivel de consumo. Y, sobre todo, para que los economistas acepten con más humildad las limitaciones para ese análisis.

Los países tienen que desarrollarse, crear instituciones, proveer y cubrir las necesidades de sus ciudadanos. El flujo de dinero desde fuera ayuda a muchas personas, pero impide un paso esencial. "El desarrollo no es un problema técnico o económico, sino político, y la industria de la ayuda hace que la política sea peor", sobre todo el regímenes dictatoriales, que usan en su provecho las buenas intenciones de los países ricos y las ONG.

Más información a continuación:
Información de prensa
Entrevista y anuncio del premio
Trabajo general
Trabajo detallado

Fuente periodística: El Mundo

Premio Nobel de Literatura 




Svetlana Alexiévich, periodista bielorrusa, conocida por su crónica del desastre de Chernobil, es la ganadora del Premio Nobel de Literatura de 2015.

“Voces de Chernóbil” consiste en relato monumental en el que la voz narradora apenas se deja notar. Aparecen los físicos que llevaban la planta, los vecinos explicando el desamparo en el que fueron abandonados, los políticos con sus corruptelas, la investigación sobre las negligencias que se sucedieron antes y después del desastre nuclear de Chernóbil.

El valor de Alexiévich y de aquel libro está en el hallazgo de un método que siempre estuvo allí y que nadie había explotado en este tipo de temas: la historia oral. Alexiévich organiza las voces como si fuera el coro de una tragedia griega, pero consigue un efecto muy íntimo.

“He escrito cinco libros pero, en realidad, llevo casi cuarenta años escribiendo una única obra, consistente en hacer la crónica de lo que fueron los Gulag –campos de concentración estalinistas-, las guerras, la catástrofe de Chernóbil y la desintegración del Imperio Rojo. Atrás queda un mar de sangre y una gigantesca fosa común”, declaró la ganadora.

Alexiévich fue acusada de "pacifista" y de "retratar a la Unión Soviética de una manera poco heroica" durante los tiempos la URSS. También se vio acosada por el régimen del presidente bielorruso Aleksander Lukashenko. Una primera lectura del fallo apunta al argumento geopolítico: el Nobel se dirige a una voz contracorriente y de mujer en un territorio en el que la libertad está en entredicho. La otra tentación es interpretar el fallo como la dignificación de un oficio, el periodismo, que siempre ha estado en las afueras de la literatura.

Más información a continuación:
Información de prensa
Anuncio del premio
Entrevista

Fuente periodística: El Mundo

Premio Nobel de la Paz 




El Nobel de la Paz este año premio el triunfo de la Primavera Árabe, es decir al Cuarteto Nacional de Diálogo de Túnez, país en el que se originó el levantamiento democrático en 2010. Es, además, un galardón para su sociedad civil. Pues cuando éste se veía amenazado, en el verano de 2013, se conformó esta agrupación compuesta por la Unión General Tunecina de Trabajo, la Confederación de Industria, Comercio y Artesanía de Túnez, la Liga de Derechos Humanos y la Orden Tunecina de Abogados.

"Su contribución decisiva para la construcción de una democracia plural en Túnez a raíz de la Revolución del Jazmín en 2011" es el motivo por el que el Comité Noruego del Nobel les ha concedido el galardón entre los 273 candidatos este año. Así "el Cuarteto estableció un proceso político alternativo y pacífico en un momento en el que el país estaba al borde de la guerra civil", añadió. El Comité destaca, sin dar nombres propios, que mientras la Primavera Árabe se contagió rápidamente a otros países, en muchos de ellos la lucha por la democracia y los derechos humanos está detenida o ha sufrido grandes reveses, mientras que Túnez ha presenciado una transición democrática basada en una vibrante sociedad civil que exige respeto por los derechos humanos básicos.

El Cuarteto, asimismo, desempeñó un papel fundamental en las últimas elecciones democráticas de Túnez, allanando el camino a un diálogo pacífico entre ciudadanos, partidos políticos y autoridades, y ayudó a encontrar soluciones basadas en el consenso para un amplio rango de retos ante las divisiones políticas y religiosas.

Más información a continuación:
Información de prensa
Anuncio del premio
Entrevista

Fuente periodística: El Mundo

Resumen científico - 91

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Lanzamiento del ARSAT 2 







Claves para entender el lanzamiento del ARSAT 2 




Matías Bianchi, el presidente de ARSAT, habló sobre artefacto que será enviado al espacio para mejorar la transferencia de contenidos audiovisuales en el continente; además, aseguró que en 2019 estará listo el ARSAT 3.





Fuente: La Nación

Un país que se pone en órbita 




* Por Adrián Paenza

Los nombres Luis Genovese e Ignacio Grossi quedarán para siempre ligados a la historia de la política satelital en la Argentina. Ignacio fue el jefe del proyecto Arsat-1 mientras que Luis, recién llegado de la Guayana Francesa, es el jefe del proyecto Arsat-2. Ellos representan a la empresa Invap. La trilogía de invitados se completa con el ingeniero Hugo Nahuys, quien es uno de los pocos científicos que quedaron de la “otra época”, la época del Nahuel-Sat, la época en la que alquilábamos los satélites que ocupaban nuestras órbitas. Hugo es el jefe de Calidad y Procesos de Arsat. No son los únicos, ni mucho menos. Hubo y hay más de 450 personas, entre científicos, técnicos, operadores, electrónicos, matemáticos, ingenieros, físicos y de otras áreas que me es difícil enumerar, que participaron de una u otra forma para que mientras yo escribo y usted lee, haya un par de satélites argentinos dando vueltas en el espacio.

Nos encontramos en un camarín de la TV Pública junto con Claudio Martínez, el productor general del programa y una de las personas más importantes que tiene este país en materia de comunicación. Parecemos niños, no solo con un juguete nuevo, sino con una juguetería completa a nuestra disposición. Sin saber por dónde empezar, sin saber qué elegir primero.

Preparamos el programa como si nos conociéramos de memoria. Luis cuenta la emoción del conteo. Los diez segundos que un locutor lee en forma regresiva, en francés, es donde todo termina... o empieza. Es el momento de tensión donde todo el proyecto queda en manos extranjeras. Los primeros 32 minutos, esos primeros 32 minutos cuestan casi 86 millones de dólares. El cohete y toda la parafernalia que lo rodea para que pueda llevar al satélite y dejarlo en la órbita elíptica inicial tienen un costo descomunal. Está todo asegurado, pero uno no quiere cobrar el seguro. No queremos que salga mal para hacer negocio con el dinero de las aseguradoras. Queremos que salga bien.

Sin embargo, hay una diferencia entre ambos satélites: no es lo mismo el primer hijo que el segundo. No es que uno lo quiera menos, seguro que no, pero es distinto. Uno ya fue padre por primera vez y ya nunca lo será otra vez. La euforia del lanzamiento del Arsat-1 tuvo toda una incógnita y un dramatismo que este no tuvo. El del año pasado salió con el último suspiro. Los semáforos que tenían que estar todos en verde, marcaban varios rojos cuando no debería haber sido así. Con el Arsat-2 todo fue de acuerdo a la pauta.

Los abrazos son distintos ahora. La emoción está pero ya tenemos la experiencia de quien lo hizo alguna otra vez, y salió bien también. Cada uno de los involucrados entiende que la primera vez pudo haber sido algo aislado, sin continuidad. Es el segundo satélite argentino... y piense bien lo que acaba de leer, porque esto siempre les pasaba “a los otros”: a los norteamericanos, los rusos, los franceses, los chinos, los alemanes o los japoneses, también a los israelíes, pero nunca a nosotros, nosotros no participábamos de estos juegos de “élite”. Pero, así como así, en trece meses ya hay un segundo satélite argentino girando en una órbita que todavía no es la definitiva.

La gente de Arianespace, a través de su cohete el Ariane 5, lleva dos satélites en su interior: uno, es el australiano Sky Muster. El otro, es el argentino Arsat-2. El cohete sirve de transportador. Los lleva hasta un lugar y allí los deposita. Al argentino lo deja a 250 kilómetros de la Tierra. El satélite entonces comienza una trayectoria elíptica hasta el apogeo, o sea, el punto de mayor distancia a la Tierra, que es de casi 36.000 kilómetros. El viernes por la mañana, desde la base terrena de Benavídez el satélite recibió instrucciones de modificar su camino. El lugar más cercano a la Tierra por donde pasa (el perigeo) está ubicado a unos 4500 kilómetros, mientras el apogeo sigue a la misma distancia: 36.000 kilómetros. El objetivo es llevar la órbita a que sea circular, en donde el apogeo y perigeo estén a la misma distancia, y por lo tanto, cuando la mayor y menor distancia coinciden, la elipse se transformará en un círculo. Y hoy, domingo, mientras usted está leyendo el diario, en Benavídez se tiene que haber producido una nueva corrección a la órbita.

Después de la quinta maniobra de encendido del motor principal con las últimas instrucciones, el satélite comenzará su trayectoria geoestacionaria y estará en condiciones de cumplir con su tarea: “iluminar” desde Canadá hasta la Antártida.

Cuando el Arsat-1 comenzó a ser operado desde Benavídez, hubo un momento en que todo lo que hacían los satélites que alquilábamos pasaron a manos argentinas. Es decir, todos los servicios que brindaban fueron transferidos al satélite argentino: servicios de telefonía, Internet, televisión, datos... Ahora es distinto. ¿Por qué? Porque ahora la Argentina está en condiciones de salir al mercado internacional a vender esos servicios. Antes pagábamos 25 millones de dólares al año para poder usar lo que habían construido otros. Ahora, no solo no tenemos que pagar sino que ahora podemos cobrar.

Cuando Cristina Kirchner anunció la política satelital argentina, habló de políticas de Estado de 20 años de duración o de proyección. Desde el 2015 hasta el 2035. Creo que desde la primera presidencia de Perón la Argentina no tiene un proyecto de semejante longitud en el tiempo, salvo que se hable de deudas financieras que era una suerte de embargo al país y su soberanía.

Arianespace, con los dos satélites que puso en órbita el miércoles, llegó a los 518 desde que provee este servicio, con un record “casi” impecable. La probabilidad de que todo saliera bien es muy alta. En el comunicado oficial que fue publicado en inglés dice:

“Arsat-2 es el segundo en una serie de satélites geoestacionarios (GEO) que le da a la Argentina su propio sistema de telecomunicaciones espaciales. Arsat-2 proveerá a los países americanos de televisión directa-a-sus-casas, acceso a servicios de Internet para ser recibidas en sus antenas VSAT y transmisión de datos y telefonía por medio de IP”.

Más allá de las cuestiones técnicas específicas, hay algunas cosas para celebrar. El país se ha ubicado en un lugar muy privilegiado y por lo tanto, empieza a competir en un mercado que estaba reservado a “los otros” como escribí más arriba. El propio Brasil tomó un camino diferente pero no le fue bien. Quizás empujado por los grupos equivalentes a los que hay en la Argentina, prefirieron “comprar afuera” y después desarrollar adentro. No funcionó. No solo fue un fracaso, lamentablemente, porque estoy seguro de que los científicos brasileños deben sentir que ellos tienen –por lo menos– las mismas condiciones que nosotros, sino que fue una afrenta a ellos también. Es que nadie que tenga el know-how lo va a regalar, y cuando lo vende, lo vende a “paquete cerrado”.

Por eso fue que les pregunté a todos los que participaron del programa si ya habían recibido ofertas de algunos otros jugadores. Creo que no, pero no les extrañe que así como exportamos los Messi y los Ginóbili, comencemos a ver una corriente que apunta hacia sustraernos la gente joven, que ya no solamente está preparada extraordinariamente bien en cuestiones teóricas sino que empiezan a tener una experiencia que es imposible de simular en la práctica, salvo con la práctica misma.

Los grandes estadistas son aquellos que miraron donde mirábamos todos pero vieron lo que no vio nadie. Sucede lo mismo con los científicos. Alguna vez fue Néstor Kirchner el que vio algo que no le traería ningún rédito inmediato. Se distinguió por eso también. No fue a cortar una “cinta” en un acto simbólico que termina no importándole a nadie. Pensó en algo que ni siquiera llegó a ver porque se murió antes. Pero lo que nadie podrá cuestionar con el tiempo, es que esta época estará marcada por un cambio de pendiente: en lugar de ir cuesta abajo y sin freno, ahora la Argentina empieza a ser líder y a mostrar el rumbo.


Fuente: Página 12

“La ciencia siempre funcionó
como inspiración para la innovación”
 





* Por Pablo Esteban

El diseño y la ejecución de políticas públicas presuponen un espacio y un tiempo de planificación. Pero, ¿qué es la planificación? Washington Uranga la define como un “proceso mediante el cual se introduce racionalidad y sistematicidad a las acciones y a la utilización de los recursos con la finalidad de orientarlas hacia un objetivo deseable y probable”. De esta forma, mientras que el corto plazo implica la implementación de “políticas de urgencia”, en el largo plazo se inscriben aquellas operaciones profundas que garantizan la verdadera transformación en la medida que buscan resolver problemáticas de tipo estructural.

Durante mucho tiempo “proceso” y “largo plazo” constituyeron meras utopías, figuras retóricas sin contenido, en definitiva: formas vaciadas de sentido. En la última década, la situación se modificó, pues se reconoció –no sin esfuerzo– la centralidad de la ciencia y la tecnología en el andamiaje del sistema productivo, la innovación y la generación de empleo. Un esquema macroeconómico que, en la actualidad, busca ser sostenido a partir del robustecimiento de las actividades industriales con el apoyo y la gestión del conocimiento, con el objetivo de lograr soberanía y mayores cuotas de libertad respecto de las reglas impuestas –de modo perverso– por los mercados internacionales.

Algunos interrogantes hacen fila y se agolpan con la necesidad de ser respondidos: ¿cómo diseñar políticas públicas que, desde el ejercicio prospectivo, proyecten (y construyan) el futuro? ¿De qué manera las administraciones kirchneristas han logrado modificar la realidad material y simbólica del sistema científico y tecnológico en el país? ¿En qué medida el conocimiento participa del sistema económico y configura un nuevo perfil productivo? En definitiva, ¿cómo forjar un país que no apoye la ciencia sino que se apoye en la ciencia? En este marco, el subsecretario de Políticas en Ciencia, Tecnología e Innovación Productiva del Mincyt, Fernando Peirano, ensaya algunas respuestas al respecto.

–Usted es economista y se especializa en temáticas vinculadas al desarrollo productivo. Desde esta perspectiva, ¿cómo definiría el perfil productivo en Argentina?

–Ese interrogante me interesa responderlo en comparación con lo ocurrido en tiempos precedentes. Me tocó formarme en una etapa de retroceso y ajuste, de carencia y procesos truncos durante las décadas de los ochenta y los noventa. Luego, tuve la suerte de comenzar a ejercer un cargo en la gestión pública como subsecretario de Políticas en Ciencia, Tecnología e Innovación Productiva, en un escenario totalmente distinto caracterizado por nuevos desafíos. Tenemos una industria fortalecida, en la que se identifica la participación de nuevos actores con capacidades innovativas enriquecidas y diversificadas, y también contamos con novedosos modelos de articulación institucional. Todo, en sinergia, forma parte de una plataforma muy interesante de cara al futuro: se trata de pensar un país en que la producción y el empleo continúen siendo los ejes sociales y territoriales. En la actualidad, tenemos un Estado mucho más preparado. Durante el neoliberalismo, el saber técnico se había alejado mucho de los espacios de decisión pública. Nosotros, por ejemplo, en la gestión del Ministerio recuperamos la planificación como ejercicio ordenador.

–Recién comentaba que, en la actualidad, Argentina posee un sector industrial fortalecido. ¿Esto equivale a decir que vivimos en un país industrializado?

–Contamos con el PBI industrial per cápita más alto de América latina, pienso que tenemos un país cuyo sector industrial se consolida día a día. A diferencia del resto del continente en que ha permeado una tendencia vinculada a la exportación de materias primas, nosotros hemos logrado sostener el protagonismo de las manufacturas de origen industrial. No son muchos los países que demuestran capacidad para producir bienes que requieren la articulación de sistemas y redes de producción, pues eso implica el trabajo coordinado de una multiplicad de actores. Por otra parte, Argentina es una nación que posee una dotación de recursos naturales generosa y una plataforma de ciencia y tecnología muy extendida con investigadores competentes.

–En este sentido, ¿cómo se conquista el desarrollo?

–Se logra con el trabajo articulado de la industria, los recursos y la ciencia. Si nosotros conseguimos hacer una síntesis de estos tres vectores de cambio de una manera articulada, tendremos la chance de profundizar el crecimiento y aumentar la productividad. Aquí, la innovación juega un rol fundamental y representa el corazón de la tríada.

–Ya que lo nombró, ¿cómo definiría el concepto de innovación?

–Desde mi punto de vista, la innovación implica resolver de manera creativa los problemas que plantea el desarrollo. Existen innovaciones de producto-proceso (vinculadas al crecimiento de las pymes) y, por otra parte, se ubican las institucionales. En eso, Daniel Scioli es el único que plantea un compromiso explícito con hacer de la innovación una herramienta clave para apuntalar el desarrollo. Argentina ha demostrado que tiene capacidad innovadora y eso es algo medular.

–Pienso que para resolver de manera creativa los problemas, es fundamental la formación de recursos humanos con capacidades para crear. ¿Existen instituciones en el país que formen a las nuevas generaciones en esta línea?

–Por un lado, Argentina posee una oferta universitaria pública muy diversificada y de alto alcance que ha demostrado que no es contradictorio, en el marco educativo, pensar en inclusión y calidad. Un aspecto no elimina al otro ni mucho menos. Desde aquí hemos logrado posicionarnos muy bien en el área de producción científica y en el ranking de universidades. En los últimos años, hemos sumado 500 mil estudiantes universitarios distribuidos en 15 nuevas universidades. Por otra parte, respecto a la innovación y al aporte creativo, es muy importante el aprendizaje del individuo a partir de la práctica en el campo. Debemos apostar por esa chispa e iniciativa personal, en el marco de un sistema que le dé sentido, torne más complejas y sistematice aquellas intenciones particulares.

–En este contexto, ¿qué lugar ocupa la ciencia?

–La ciencia siempre funcionó como un espacio de inspiración para la innovación. Además, los países que progresaron lo hicieron a partir de procesos mediante los cuales los éxitos privados y empresariales se produjeron gracias a políticas exitosas que acogieron y generaron las condiciones para que aquello emergiera. Argentina ha cumplido ciclos y ha resuelto desafíos que habían quedado pendientes gracias al aporte de la innovación y de la creatividad. Por ejemplo, en materia nuclear –Atucha II–, en el área satelital –Arsat I y ahora Arsat II–, en el desarrollo de radares nacionales –civiles y militares–, el desarrollo de software –que involucra, en la actualidad, más de 4500 empresas, 100 mil puestos de trabajo y un crecimiento de empleo que representa el 12 por ciento anual–, en biotecnología, etc. En muchos casos se dice que son políticas de largo plazo y cuesta ponerle una medida a ese “largo plazo”. Sin embargo, opino que ese “largo plazo” puede describirse a la perfección con la última década en que se logró todo lo que acabo de enumerar y, por supuesto, mucho más.

–Piensa a la ciencia como un motor que mueve el engranaje del sistema productivo...

–En la actualidad, nadie se animaría en nuestro país a plantear los desafíos productivos sin incluir a la ciencia y a la tecnología. Queda por delante darle un mayor alcance y amplitud a todo lo que se ha logrado, pero sin dudas contamos con un modelo de trabajo efectivo.


Fuente: Página 12

La comida altera la química cerebral 




Entre los más de 50 invitados internacionales que participaron en el reciente Congreso Argentino de Neurociencias estuvieron los jóvenes investigadores de los Institutos Nacionales de Salud (NIH, según sus siglas en inglés) Alexxai Kravitz, doctor de la Universidad de Filadelfia, y Verónica Álvarez, bióloga graduada en la Facultad de Ciencias Exactas y Naturales, pero que desde hace más de una década vive en los Estados Unidos.

Kravitz estudia los efectos de una dieta alta en grasas y azúcar en los circuitos cerebrales que regulan el movimiento. Álvarez trabaja en la huella del abuso de drogas en la conectividad neuronal. Sugestivamente, ambos temas tienen puntos en común.

“Tratamos de analizar por qué las personas obesas tienen tendencia a moverse menos. Vimos que en ellos desciende la transmisión de dopamina, el más importante neurotransmisor que incide en los circuitos de movimiento. En ratones, el desequilibrio no es preexistente: es la comida la que causa los cambios en la circulación de dopamina y esto causa la reducción de movimiento", afirmó Kravitz.

"Es interesante, porque esta alteración en la transmisión dopaminérgica que encontramos ahora en ratones después de alimentarlos con alimentos altos en grasas es la misma que vemos en humanos obesos, pero también es muy similar a la que se ve en personas que abusan de las drogas, particularmente, estimulantes -agregó Álvarez-. Y algo singular que Alexxai mostró es que cuando los animales adelgazan y llegan a un peso casi normal, siguen teniendo baja circulación de dopamina y siguen sin moverse. Tal como ocurre con los fumadores que dejan el cigarrillo, después de haber consumido una dieta alta en grasas, los ratones no vuelven a ser los mismos".


Fuente: La Nación

Desarrollan escala para medir estados de conciencia 




* Por Nora Bär

No hace tanto, se consideraba que entender los mecanismos de la conciencia era una meta para la próxima generación. Pero avances que hubieran sido difíciles de anticipar están permitiendo atisbar por la cerradura de esa "caja negra" del cerebro, develar sus engranajes y, tal vez lo más importante, usar ese conocimiento para diagnosticar y tratar a pacientes con desórdenes como la vida vegetativa, el estado de mínima conciencia o el síndrome de enclaustramiento (un cuadro en el que se está despierto, pero sin poder moverse o comunicarse por parálisis de todos los músculos del cuerpo).

Es más: hoy se trabaja en el desarrollo de una "escala" de estados de conciencia basada en parámetros objetivos de la actividad cerebral, que respaldará el diagnóstico, pero también permitirá trazar un pronóstico fundamentado de la posible evolución de esos pacientes.

El neurólogo francés Lionel Naccache y el médico argentino Jacobo Sitt, ambos investigadores del Institut National de la Santé et de la Recherche Médicale (Inserm) en el hospital universitario La Pitié Salpêtrière, de París, presentaron parte de ese esfuerzo en el 30° Congreso de la Sociedad Argentina de Neurociencias (SAN), que acaba de realizarse en esta ciudad.

"Frecuentemente, el neurólogo tiene que tomar decisiones en condiciones de incertidumbre -explicó Sitt, que después de graduarse de médico hizo un doctorado en Física-. Nuestra meta en los últimos cinco años fue agregar evidencia, darle más herramientas para que sus decisiones sean más fundamentadas".

Y agregó Naccache: "En este campo, estamos la mayor parte del tiempo en situaciones muy difíciles, en las que incluso tenemos que convencernos de que sabemos lo que hacemos. Por eso, lo importante es no sólo alcanzar un conocimiento objetivo del estado del paciente, sino también conocer el nivel de certeza de nuestras estimaciones. Hay situaciones clínicas en las que podemos estudiar al paciente durante varios días y al final del proceso tenemos dos escenarios: o uno confía en su criterio y todas las mediciones convergen en la misma conclusión o uno tiene una evaluación que no es concluyente. Por eso, no sólo tenemos que saber hasta qué punto sabemos, sino también cuándo empezamos a no saber".

Hay diferentes causas de pérdida de conciencia. Las dos principales son la anoxia cerebral (ausencia de irrigación sanguínea), que se produce típicamente después de un paro cardíaco, y la lesión cerebral traumática. Ambas tienen diferente pronóstico.

"No sabemos todo, pero hay cosas que sabemos y tenemos que informar -destacó Naccache-. Después de un paro cardíaco, desafortunadamente, el estado de conciencia queda fijo al cabo de un mes. Nunca se verá a alguien recuperarse de un estado vegetativo cuatro años después de un paro cardíaco. Pero para la lesión cerebral traumática la historia es completamente diferente. Uno puede tener mejorías después de mucho tiempo. Por eso es importante tener estas evaluaciones".

Distinguir entre estado vegetativo y de mínima conciencia es complicado. Diferentes estudios estiman que hasta el 30 o 40% de estos pacientes reciben un diagnóstico incorrecto. Para evitarlo, el equipo de Naccache y Sitt está tratando de integrar 92 marcadores cerebrales para construir una herramienta que respalde la toma de decisiones informadas.

"Nuestra meta es construir una gran base de datos para mejorar el conocimiento de la actividad mental -contó Sitt-. Partimos de la teoría sobre qué procesos computacionales deberían ser importantes para la existencia de conciencia y tratamos de bajar eso a tierra vinculando cada una de las predicciones con un marcador o conjunto de marcadores, como, por ejemplo, la cantidad de información que comparten diferentes áreas cerebrales".

Y concluyó Naccache: "Todavía tenemos que acordar cuáles son los marcadores más confiables. Una vez que los tengamos, los compartiremos masivamente para que cualquier paciente tenga acceso a este instrumento. Para mí, el desafío es que estas herramientas se utilicen de manera muy cauta, ya que si son demasiado exitosas podrían hacer olvidar que estas situaciones son siempre dramáticas y no hay dos personas que reaccionen de la misma manera. Aunque contemos con índices o escalas efectivas, lo más importante es que nos tomemos el tiempo para explicarles a los familiares y cuidadores el significado de esta información".


Fuente: La Nación

Nuevas fotos de Caronte revelan
al cañón más grande del Sistema Solar
 





Caronte, la mayor luna de Plutón, no es el monótono páramo cubierto de cráteres que esperaban algunos astrónomos. Descubrieron que está surcada, entre otros, por un sistema de cañones de nueve kilómetros de profundidad y una cadena de 600 kilómetros de valles y pendientes. Así lo revelaron las fotografías más detalladas del planeta enano tomadas hasta la fecha y publicadas ayer por la NASA. Además, las imágenes captadas por la sonda espacial New Horizons ponen de manifiesto sorprendentes variaciones cromáticas.



"Nos parecía poco probable que pudieran darse características tan interesantes en un satélite del extremo más remoto de nuestro Sistema Solar", subrayó en un comunicado Ross Beyer, del equipo de geólogos de New Horizons. Lo que más llamó su atención fue un gran sistema de cañones, que cruza Caronte y probablemente se extiende también por su cara oculta. Recorre el satélite a lo largo de 1.600 kilómetros, una longitud que es cuatro veces la del Gran Cañón del Colorado.

Los expertos debaten ahora la posibilidad de que Caronte pudiera haber albergado un océano subterráneo que se congelara hace mucho tiempo y alterara los volúmenes en la superficie.

Los astrónomos esperan poder llegar a nuevas conclusiones sobre la actividad geológica de esta luna de Plutón con las imágenes que la sonda irá enviando a lo largo de 2016. Actualmente, New Horizons se encuentra a una distancia de 5.000 millones de kilómetros de la Tierra.


Fuente: Clarín

Las manos y los pies del ‘eslabón perdido’
hablan de su doble vida
 





Hace menos de un mes, se presentó en público a Homo naledi, una nueva especie humana. Sus descubridores lo describieron a partir del análisis de 1.500 fósiles humanos de al menos 15 individuos encontrados en una cueva próxima a Johannesburgo (Sudáfrica). El estudio inicial sugería que aquellos cadáveres fueron depositados allí por sus congéneres, un comportamiento funerario que se había asociado a especies humanas más avanzadas. Los naledi combinan rasgos más primitivos, como un cerebro de pequeño tamaño, con unos dientes pequeños, habituales en los homínidos más modernos. Características como estas, unidas a la imposibilidad de precisar cuándo vivieron, han dejado muchas incógnitas sobre la etapa de la evolución en la que localizarlo.

Esta semana, la revista Nature Communications publica dos análisis de las manos y los pies de los homínidos sudafricanos y los resultados muestran esa naturaleza híbrida entre rasgos que se suelen asociar a los simios y otros que se suelen relacionar con los humanos.

El análisis comparativo de las manos de esta especie con las de otros humanos muestra que la muñeca y la palma se parecen a las de los neandertales o los humanos modernos, y como estos cuenta con un pulgar largo y fuerte. Todos estos rasgos sugieren que tenía la capacidad de manejar herramientas con precisión. Por otro lado, los huesos de los dedos, más largos y curvados, indican que también mantenían la habilidad para trepar a los árboles y moverse por sus ramas.

En el estudio de los pies se observan características similares a las manos. Por un lado, tienen similitudes con los pies de los humanos modernos, bien adaptados a caminar erguidos. Sin embargo, los dedos de los pies también tienen los huesos más curvados que los individuos de nuestra especie. En definitiva, parece que mantenía una doble vida que va a seguir dando que pensar a los antropólogos.

Los rasgos propios del uso de herramientas de Homo naledi en combinación con su pequeño cerebro tiene interesantes implicaciones sobre los requisitos cognitivos necesarios para hacer y utilizar herramientas. Además, considera, que, dependiendo de la edad de los fósiles, existe la posibilidad de que esta especie sea la creadora de algunas de las herramientas de piedra que se encuentran en Sudáfrica.

No obstante, la existencia de unos rasgos anatómicos modernos que permitan utilizar herramientas no implica necesariamente que aquellos homininos lo hiciesen. A principios de este año, se presentó un estudio que sugería que hace más de tres millones de años los australopitecos ya tenían manos similares a las de los humanos modernos. Entonces, algunos científicos ya planteaban que el órgano esencial para fabricar y manejar herramientas es el cerebro y no la mano, y ponían en duda que con un cerebro tan pequeño como el de los australopitecos se pudiese crear tecnología.


Fuente: El País

Una maqueta del corazón en apenas cuatro horas 




Los corazones humanos, al igual que sus dueños, no son iguales. Y si hablamos de órganos de niños con defectos congénitos, también pueden presentar características únicas e impredecibles que complicarían una cirugía salvadora. Para verlos y preparar una intervención, los médicos utilizan técnicas de imagen, como los rayos X o la resonancia magnética. Sin embargo, llegado el momento, solo tienen una oportunidad de tener el corazón entre sus manos. Pero, ¿y si se pudiera hacer una maqueta de ese corazón?

Ese es el objetivo de una tecnología desarrollada por médicos e ingenieros estadounidenses que permite crear una especie de maqueta o modelo tangible del corazón de cada paciente en unas pocas horas gracias a una combinación de técnicas de visión por ordenador, resonancia magnética e impresión 3D.

No es la primera vez que se utiliza la impresión 3D para fabricar modelos de corazón personalizados, pero, gracias a este nuevo enfoque, es posible realizar todo el proceso en apenas tres o cuatro horas y de manera casi automática. Así, los cirujanos pueden disponer de una réplica del corazón en el que van a intervenir de forma casi inmediata, lo que les puede ayudar a familiarizarse con las particularidades anatómicas del mismo y practicar los movimientos que van a realizar durante la operación.

Para crear estos modelos, un programa de ordenador interpreta los datos de las resonancias magnéticas y los convierte en una serie de instrucciones destinadas a una impresora 3D. Los datos de una resonancia consisten en varios cientos de secciones similares a fotografías en blanco y negro que representan el objeto real. Las transiciones entre zonas oscuras y brillantes en las imágenes indican los bordes de las estructuras anatómicas.

Pero convertir esta información en instrucciones fiables para la impresión 3D presenta una serie dificultades. Por una parte, los sistemas actuales de visión por ordenador no son muy precisos y tienen problemas a la hora de determinar los límites entre distintos objetos. Por otra, en las resonancias, no todas las transiciones entre claro y oscuro representan los bordes de un objeto y hace falta el criterio de un experto humano para interpretarlas. Para suplir ambas carencias, hasta ahora era necesario segmentar las imágenes, es decir, revisar a mano cada una de las doscientas o más tomas que componen una resonancia, indicando manualmente al ordenador la forma real del corazón. Obviamente, se trata de un proceso lento que suele superar las diez horas de trabajo.

Aquí es donde entra en juego la solución ofrecida por los ingenieros del MIT. En ella se pide al experto humano que identifique los límites del corazón solo en algunas de las imágenes y el ordenador se figura el resto usando algoritmos de reconocimiento de imagen. De esta manera, identificando manualmente los límites únicamente en un diez por ciento de las imágenes, se ha conseguido una conformidad superior al 90% comparado con el método manual.


Fuente: El País

La NASA enviará un robot a Marte en 2020 




La NASA lanzará un vehículo robótico en el año 2020 que tendrá una nueva misión: saber si Marte es un planeta con las condiciones necesarias para montar una estación permanente. Superada la etapa Follow the Water, que consistía en saber si había agua en el planeta rojo, esta nueva misión será la primera en analizar la habitabilidad. Los planes siguientes buscarán lograr que dentro de 15 años una persona pise suelo marciano.

La misión que irá a Marte en el 2020 llevará un dispositivo especial que tomará el dióxido de carbono de la atmósfera y extraerá oxígeno. Es el único instrumento que no tiene que ver con la misión científica, sino que se concentra en el futuro de exploración. Porque el objetivo es tener oxígeno para futuros astronautas. Según el argentino Miguel San Martín, ingeniero jefe de la sección de orientación y control en el Jet Propulsion Laboratory de la NASA que participa en el programa para llegar a Marte, la intención es llevar astronautas para 2030 a este planeta.

Hasta ahora, la búsqueda en Marte tenía que ver con una pregunta sobre el pasado: ¿hubo algún momento en que las condiciones de ese planeta eran aptas para que existiera vida? El Curiosity, el robot lanzado en 2012 y que aún se encuentra allá, tenía ese objetivo.

El plan de la NASA de exploración marciana, muy discutido por estos días por el hallazgo de agua líquida en el planeta, sigue el año que viene con Insight, una nave espacial cuya misión estará indirectamente ligada a la vida, como un comienzo del proyecto que busca saber si Marte es un planeta habitable. "Hará estudios del interior de Marte para entender el núcleo del planeta. Su conexión con la vida es que los científicos creen que cuando se solidifica el núcleo, el efecto dínamo que produce el campo magnético desaparece. El campo magnético protege a la atmósfera de Marte de la radiación solar. Entonces cuando el campo magnético desaparece, el viento solar vuela la atmósfera, y cuando la atmósfera de Marte desaparece pierde su agua y terminamos con el planeta frío y seco que tenemos hoy en día", explicó San Martín, que trabaja hace casi 30 años en la NASA.

En las misiones que hicieron hasta ahora, las muestras que se tomaban se molían en mil pedazos y así los geólogos estudiaban la minerología. El nuevo objetivo consiste en lograr estudiar los compuestos elementales en la roca en sí misma, sin romperla. Y un próximo paso, que aún no tiene fecha de concreción, consiste en traer ese material a la Tierra para analizarlo en los laboratorios de la NASA.

"El próximo paso, que es lo que va a hacer esta misión, va a coleccionar estas muestras y ponerlas en un contenedor, para que después otra nave espacial, en el futuro, no aprobada todavía, pero con suerte en la misma década, las traiga de vuelta a la Tierra para que sí, acá en Tierra, con los laboratorios que tenemos, poder hacer estudios más detallados", explicó San Martín durante la conferencia.

El problema, ahora, es la financiación. Todo ese proceso es caro porque requiere de tres misiones. La primera, que va a buscar las muestras; la segunda, que, con un vehículo robótico, va en busca de esas muestras y las pone en un cohete que trae detrás. Luego, el cohete despega, lo pone en órbita a Marte y después debe llegar la tercera misión para tomar esas muestras y traerlas a la Tierra.

"Es muy probable que una de estas tres fases sea con participación internacional. Así que, ahora, después del Arsat 2, Argentina podría participar en una misión", afirmó.


Fuente: La Nación

Paso clave en la búsqueda de la
pastilla anticonceptiva masculina
 





Investigadores japoneses identificaron el papel de una proteína del esperma que interrumpe la fertilidad cuando se la bloquea a través de fármacos. En el bloqueo de una proteína del esperma podría estar la clave del desarrollo de la píldora anticonceptiva masculina.

En la actualidad, los hombres sólo cuentan con el preservativo, la vasectomía o la abstinencia para evitar el embarazo de sus parejas. Los laboratorios dieron por tierra con los intentos para desarrollar alguna iniciativa que se asemeje a los tratamientos hormonales femeninos dado que tenían muchos efectos adversos y la investigación para desarrollar productos seguros demandaba una millonaria inversión que, sospechaban, no sería rentable.

No obstante, ahora un equipo de investigadores japoneses realizó un importante hallazgo en el área, publicado en la revista Science. Dirigidos por Masahito Ikawa, profesor del Instituto de Investigación en Enfermedades Microbianas de la Universidad de Osaka en Japón, los científicos descubrieron que en el bloqueo de la calcineurina, una proteína que juega un papel importante en la fertilidad masculina, podría encontrarse la clave para el desarrollo de la píldora masculina.

El equipo analizó en ratones isoformas de calcineurina expresadas en los genes PPP3CC y PPP3R2, que únicamente se encuentran en células de formación de esperma. A través del suministro de fármacos, los investigadores lograron “apagar” el PPP3CC en los ratones machos. Los investigadores descubrieron que el esperma se vuelve infértil en los 4 a 5 días posteriores a la toma, lo que sugiere que esta proteína es importante para el desarrollo, pero no para la maduración de los espermatozoides.

La fertilidad de los ratones, así como la motilidad del esperma y la flexibilidad de su parte intermedia, se recuperó una semana después de cesar la administración del fármaco.

Ikawa señaló que esta evolución específica de la calcineurina también se encuentra en los seres humanos, por lo que podría ser utilizada como una estrategia para desarrollar anticonceptivos reversibles para hombres. En los ratones, uno de los fármacos utilizados para el bloqueo de la proteína fue la ciclospirina, un inmunosupresor utilizado para evitar el rechazo en los trasplantes de órganos, por lo cual su uso viene acompañado de muchos efectos adversos. “Necesitamos desarrollar un fármaco que se dirija específicamente a la calcineurina del esperma”, dijo al respecto el líder del estudio.

"Los hallazgos de este estudio pueden ser un paso clave para dar a los hombres control sobre su futuro reproductivo", concluyó Ikawa.


Fuente: Clarín

Programa 212

Lo que la Ciencia nos dejó



En esta emisión, se realizó un repaso de las noticias científicas más destacadas de la semana: la nueva evidencia de la existencia de agua en Marte, una encuesta de percepción pública de la Ciencia en España, el planteo de la educación como la forma de empoderamiento de la sociedad, entre otras. Asimismo, se realizó el anuncio de la inminente puesta en órbita del ARSAT-2, tema que será profundizado en breve.

Resumen científico - 90

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

Señales de agua en Marte 




* Por Nora Bär

Aunque grandes valles y océanos secos sugerían que el agua había desaparecido hacía mucho tiempo de la superficie de Marte, tal vez ese planeta no sea el mundo polvoriento que cautivó a los astrónomos e inspiró tantas novelas y películas de ciencia ficción. Al contrario de lo que se creía, en su superficie oxidada podría fluir agua líquida.

Durante una conferencia de prensa de la NASA, el equipo liderado por Lujendra Ojha, del Instituto de Tecnología de Georgia, presentó lo que se consideran las evidencias más sólidas obtenidas hasta ahora para probarlo. "Nuestra misión en Marte fue «seguir el rastro del agua»; tenemos pruebas convincentes que validan lo que sospechábamos desde hacía mucho -dijo John Grunsfeld, administrador asociado de la agencia espacial norteamericana-. Esto parece confirmar que el agua, aunque sea en la forma de una salmuera, fluye hoy en la superficie de Marte".



Por medio de imágenes obtenidas con un espectrómetro ubicado a bordo de la sonda Mars Reconnaissance Orbiter (MRO), que orbita el planeta desde hace una década, se detectó la "firma química" que es característica de ciertas sales hidratadas en misteriosas estrías oscuras del terreno marciano, que habían sido observadas en 2011.

Dado que estas manchas se advierten durante la primavera y el verano, y desaparecen en invierno, ya se había especulado que podrían ser cauces de agua que se congelan cuando las temperaturas bajan.

Pero las nuevas mediciones otorgan mayor credibilidad a las presunciones: los científicos creen que esas vetas podrían conducir agua líquida gracias a que las sales permiten temperaturas más bajas de congelamiento; en Marte, hasta -23° Celsius. Aprovechando un efecto similar, aquí en la Tierra se echa sal a las rutas para acelerar el derretimiento de la nieve y el hielo.



En el estudio que aportan estas pruebas, publicado en Nature Geoscience, los científicos analizaron también muy detalladamente las imágenes tomadas por una cámara asombrosamente precisa de la MRO, llamada Hirise, de varias formaciones y cráteres situados en áreas por debajo del ecuador marciano.

Sin embargo, incluso si este descubrimiento se confirmara, probablemente defraudará a quienes esperen encontrar ríos y lagos a la manera de la Tierra. La presión de la atmósfera marciana es tan baja que el agua líquida que pueda haber en la superficie inmediatamente se vaporiza. La evidencia actual apunta a rastros, tal vez moléculas de agua.



El gran misterio es de dónde viene. Por ahora, no se sabe. Los investigadores especulan que los percloratos podrían estar actuando como una esponja y absorbiendo agua de la atmósfera. O podría provenir de depósitos subterráneos.

"El problema que hay en Marte es que se ha detectado agua en fase sólida en los casquetes polares, y en otras zonas, también en fase gaseosa –explica Gonzalo Tancredi, astrónomo uruguayo-. Pero debido a las bajas presiones de su atmósfera, el rango de condiciones para que ocurra agua en fase líquida son muy estrechas. Lo relevante del agua líquida es que resulta imprescindible para el proceso de formación y desarrollo de la vida tal como lo concebimos. Por eso, el gran objetivo de las misiones de la NASA a Marte fue la detección de agua líquida".

Ésa sería la buena noticia: el hallazgo vuelve a plantear la posibilidad de que podría haber vida en nuestro vecino planetario, aunque para que el agua se mantenga líquida en Marte tendría que ser tan salada que lo haría extremadamente difícil.



"Se supone que Marte tiene agua en su interior -afirma Di Sisto-. Lo que interesa es si existe en la superficie para saber si puede haber microorganismos, ya que hay algunos que podrían vivir en un medio ambiente de salinidad extrema".

Buscar vida en Marte, sin embargo, es más complicado de lo que parece. De hecho, una revisión conjunta de la Academia Nacional de Ciencias de los Estados Unidos y la Fundación Europea de la Ciencia publicada la semana pasada acaba de concluir que la humanidad no está preparada para hacerlo. Los instrumentos humanos podrían llevar microbios terrestres y depositarlos en las áreas en las que se pretende encontrar microorganismos extraterrestres.

Por eso, antes de que una nave espacial pueda visitar otro planeta, deberá ser esterilizada de acuerdo con reglas estrictas, lo que agregará no sólo tiempo de desarrollo, sino también muchos millones de dólares a las misiones.

De todos modos, la NASA tiene planeada una misión con un rover igual al Curiosity para 2020 que realizará mediciones, llevará equipo de radar para detectar acuíferos subterráneos e intentará tomar muestras.

Para Tancredi, este nuevo hallazgo "es un paso importante, pero no una confirmación total. Uno quisiera ver fluir el agua. Lo que pasa es que se trata de un proceso intermitente, que puede durar días o meses. Ahora habrá que monitorear con más detalle estas regiones. La presencia de agua líquida es importante si uno proyecta instalar colonias en Marte. Sin duda es un paso más. No el definitivo, pero son evidencias fuertes". "No hay que exagerar demasiado -opina San Martín-. Esto no es un río. Es una situación muy interesante, pero no cambia mucho lo que haremos en el futuro".


Fuente: La Nación

Todas las veces que se encontró agua en Marte 




Si cuando ha leído la noticia del descubrimiento de agua en Marte le sonaba que ya lo había escuchado antes, tiene razón. Desde los años 70, las sondas espaciales han proporcionado indicios de que este líquido imprescindible para la vida fluyó en algún momento sobre el planeta rojo. En tiempos más recientes, las imágenes han permitido deducir que el agua no sólo es cosa del pasado y han permitido continuar encontrando titulares sobre el hallazgo de agua en Marte.

La sonda Mariner 9 llegó a Marte en 1971. Gracias a ella se obtuvieron imágenes de cañones y lechos de ríos que sugerían que el agua había fluido sobre la superficie de aquel planeta que ahora parecía estéril.

Los satélites orbitales de las misiones Viking ampliaron la información de la Mariner 9 y encontraron multitud de formaciones que suele producir a su paso el agua. Además, observaron que el polo norte contenía una gran cantidad de agua helada. En tierra, los robots también realizaron análisis del suelo que indicaban que podía haber agua en el presente, pero los datos no se consideraron concluyentes.

A partir de los años noventa, nuevas misiones más sofisticadas comenzaron a proporcionar mapas de gran precisión de la superficie marciana, y en la década siguiente se han acumulado los anuncios del hallazgo de agua en Marte en distintas formas. En 2002, la NASA afirmaba que su sonda Mars Odyssey había encontrado hielo en el subsuelo marciano.

En 2004, la agencia espacial de EE UU anunció que su rover Opportunity había obtenido pruebas sobre el terreno de que el agua líquida había sido abundante en el pasado de Marte, y poco después comenzaron a aparecer indicios de que también podía existir en el presente.

En 2006, después de comparar imágenes tomadas durante 10 años por la sonda Mars Global Surveyor, encontraron barrancos nuevos que podían haber sido fruto de torrentes de agua. Esta interpretación, que fue recogida en el New York Times como “las pruebas más sólidas hasta el momento de que el agua fluye en Marte”, ya había aparecido en el año 2000 con un análisis similar de imágenes de la misma sonda.

En 2008, este periódico El País publicaba que “La NASA confirma que hay agua en Marte”. Entonces, la noticia se refería al trabajo de la sonda Phoenix. Su brazo robótico había depositado una muestra del suelo marciano en un instrumento que había identificado vapores de agua.

En 2011, se publicaron nuevos indicios de que el agua corría sobre Marte. Entonces, las imágenes procedían de la sonda Mars Reconnaissance Orbiter (MRO), y se trataba de miles de rastros oscuros que aparecen sobre la superficie de algunas pendientes del planeta en los periodos cálidos. Entonces, como en el descubrimiento anunciado ayer, se hacía referencia a la presencia de sales en el agua, una circunstancia que permitiría que el hielo se derritiese a una temperatura menor.

En 2012, se podía leer como “El Curiosity encuentra agua en Marte”, y en 2013, nuevas imágenes de la sonda MRO volvían a mostrar torrentes veraniegos que refuerzan la idea de que el agua fluye sobre aquel mundo.

El hallazgo anunciado esta semana por la NASA es uno más de una serie en la que se van acumulando pruebas de que el líquido fundamental para la vida continúa corriendo por Marte, pero es probable que no sea la última vez que la agencia espacial estadounidense anuncie que se ha encontrado agua en Marte.


Fuente: El País

El argentino que llevó el Curiosity a Marte
 explica cómo ese el agua del planeta rojo
 





Un estudio publicado en Nature Geoscience y financiado en parte por la NASA demostró que Marte no sólo parece tener agua congelada (lo que se sabía), sino también corrientes de agua salada, por lo menos durante el verano.

"Es un anuncio importante. El agua siempre está relacionada con la vida", dijo a TN el argentino Miguel San Martín, ingeniero aeroespacial de la NASA. "Son aguas con gran contenido de sal. Esta observación ya existía de antes, era una teoría que podía haber agua líquida. Ahora lo han confirmado", agregó.

Respecto a la procedencia del agua, no se descarta que fueran algunos acuíferos subterráneos, por la manera en que aparecen, que posiblemente sea en el momento que se descongelan. "El agua surge de abajo. La teoría era que hay agua congelada bajo las superficies, especialmente en los polos. Ahora, ¿qué es lo que la haría derretir y surgir a la superficie? Eso no lo sé", reconoce San Martín.

"Son varias las naves espaciales que hacen observaciones, pero no todas tienen la misma capacidad. La única que tiene una cámara de alta resolución es la que pudo hacer este descubrimiento", comentó el ingeniero. Sobre las próximas expediciones de la NASA, informó que "el año que viene vamos a mandar una misión que va a estudiar el núcleo de Marte, el interior, porque ahí justamente está la clave. En 2020 tenemos otra misión que va a tomar muestras, para que otra misión las vaya a buscar y las traiga de vuelta a la Tierra para que se analicen acá con instrumentos más sofisticados. Ahí sí podremos ir a buscar fósiles de vida. No la cuestión indirecta, sino la directa de detectar vida o fósiles de vida. Pero eso requeriría traer las muestras", agregó.

"Después tenemos el programa humano de Marte que, en el 2030, seguramente se haga una misión orbital. Los presupuestos todavía no están. Seguramente compañías privadas logren hacer lo que nosotros no pudimos hacer por falta de dinero", concluyó San Martín.


Fuente: Clarín

En España, el 25% de la población cree
que el sol gira alrededor de la Tierra
 





Un estudio de percepción social de la ciencia, elaborado por la Fundación Española para la Ciencia y la Tecnología (FECYT) determinó que un 30% de la población española cree que los hombres convivieron con los dinosaurios y un 25% considera que el sol gira alrededor de nuestro planeta y no al revés. La encuesta fue publicada por el diario El País de España.

Pese a las insólitas respuestas, la entidad reconoció que los datos mejoraron respecto de una consulta anterior realizada en 2006. En aquel momento, apenas la mitad de la población sabía que el ser humano no coincidía con los dinosaurios y el 40% pensaba que el sol giraba alrededor de la Tierra. Los especialistas que realizaron el estudio, recalcaron que se pasó de un 58% de respuestas correctas en 2006 a un 70% de aciertos este año.

Otro resultado de las consultas indicó que apenas el 46% de los ciudadanos sabe que los antibióticos no curan enfermedades causadas por virus, sino solo las originadas por bacterias y el 11,5% niega que los seres humanos procedan de especies animales anteriores. Además, el 27% opinó que la radiactividad del planeta está generada por el ser humano, cuando en realidad el 80% procede de fuentes naturales.

El informe pudo exponer las conductas frente a la ciencia de acuerdo a la edad y género de los encuestados. Los jóvenes de entre 15 y 24 años son los que más se interesan por la ciencia. Un 25% de ellos menciona espontáneamente la ciencia y la tecnología cuando se les pregunta por tres temas por los que se sientan interesados. En cambio, en la franja de 45 a 54 años, el porcentaje no llega al 12%.

El interés por la ciencia es el doble en hombres (20%) que en mujeres (10%), y este desfase se detecta en todas las franjas de edad, incluso en los más jóvenes. "Esta brecha se puede deber a la poca visibilidad que se da a las mujeres científicas. Incluso en los premios, el porcentaje de mujeres galardonadas no llega al 5%, están prácticamente ausentes" indicó Carmen Vela, responsable de ciencia en el gobierno de Mariano Rajoy.

Además, de acuerdo a los resultados, Internet es la primera fuente de información científica para el 40% de los ciudadanos, sobre todo los jóvenes y sus principales vías de acceso a la información científica son Wikipedia, la medios de prensa on line y las redes sociales.


Fuente: La Nación

Un “puente" entre el cerebro y las piernas
permite andar a un parapléjico
 





Recorrió apenas 3,60 metros, tardando cuatro segundos en cada paso y medio suspendido en el aire con un arnés, pero fueron los primeros pasos que John Smith (nombre ficticio) ha dado tras varios años en una silla de ruedas. Son los prometedores resultados de una investigación que aprovecha el deseo de caminar escondido en las ondas cerebrales y, puenteando una médula espinal destrozada, convertirlo en señales eléctricas que activan los músculos de las piernas.

Smith, estadounidense de 26 años y cuyo nombre no se ha revelado por respeto a su intimidad, sufrió una lesión medular hace cinco años. Incapaz de mover las piernas, perdió toda sensibilidad por debajo de la lesión salvo ligeras sensaciones en la vejiga. Fue seleccionado entre varios candidatos por investigadores de la Universidad de California para un estudio que buscaba convertir las ondas emitidas por el cerebro cuando se camina en órdenes para sus extremidades inferiores. La investigación ha durado 256 días.

El sistema que ha permitido a Smith darse este breve pero esperanzador paseo está formado por tres elementos. Por un lado, los científicos recurrieron a la técnica de la encefalografía (EEG) para registrar la actividad bioeléctrica cerebral con unos electrodos colocados en la cabeza. Por otro, una especie de andador automático llamado Parastep que aplica descargas en los músculos de las piernas, en especial el cuádriceps y el tibial anterior. Comercializado desde hace una década en EE.UU., los investigadores lo modificaron para pasarlo a modo manual, o mejor dicho, cerebral. Por último, su aporte fue una interfaz cerebro máquina (BCI) creada por ellos capaz de interpretar y diferenciar las ondas cerebrales relacionadas con el movimiento del resto de ondas emitidas por el cerebro.

Aunque muchos equipos de neurobiólogos, ingenieros y expertos en robótica investigan buscando dar una esperanza a los parapléjicos, la mayoría se apoyan en el diseño de exoesqueletos que hagan el trabajo que los músculos atrofiados ya no pueden hacer. Algunos, incluso, han conseguido recientemente despertar parcialmente las neuronas de la médula espinal.

"Nuestro enfoque intenta reconectar el cerebro y los músculos usando un sistema BCI puenteando la lesión medular", dice el autor de la investigación. “Para conseguirlo, lo primero que tuvieron que hacer fue entrenar a Smith”.

Mientras realizaba ejercicios para recuperar el tono muscular necesario para que sus piernas pudieran sostenerlo, en una primera fase, Smith tuvo que desescombrar las neuronas de los córtex motor y somatosensorial de su cerebro en un entorno virtual. Ante una computadora, tenía que conseguir que un avatar caminara unos metros, parándose en varios conos que había en el recorrido. Con esto, los investigadores querían afinar la capacidad del BCI para interpretar cuando estaba caminado y cuando se detenía. Tras unas pocas sesiones, Smith se había adueñado de su avatar.

Llegó entonces la hora de la verdad. Tras unos entrenamientos con el Parastep para que hombre y andador se entendieran, pasaron el artilugio a modo cerebral. Las descargas eléctricas sobre los músculos ya no serían las programadas en el Parastep sino las ordenadas directamente por el cerebro de Smith. Primero, ensayaron sus andares con un arnés que lo mantuvo suspendido en el aire, a cinco centímetros del piso, mientras daba cada paso. Pero al final lo bajaron al suelo y, él, con solo desear caminar, dio sus primeros pasos.

Demostrada la viabilidad de su sistema, los investigadores creen que ahora habría que probarlo con más gente antes de dar el gran paso: pasar de un gorro de electrodos en la cabeza a uno que los implante directamente en el cerebro. "Una vez que hemos confirmado la viabilidad de este sistema, podemos pensar en métodos invasivos, como implantes cerebrales. Creemos que un implante como este puede conseguir un mayor nivel de control de la prótesis porque registra las ondas cerebrales con mayor fidelidad", asegura el autor de la investigación. Además, añade, "estos implantes podrían llevar de vuelta las sensaciones al cerebro, permitiendo que el usuario sienta sus piernas".


Fuente: El País

Eclipse de Superluna: un espectáculo
que no volverá a repetirse hasta 2033
 





Hasta 2033 no veremos un fenómeno astronómico como el que se disfrutó el domingo a la noche. La Superluna se tornó rojiza durante el eclipse total lunar. La última vez que se dieron esas características fue en 1982.







Cuando el eclipse alcanzó su punto máximo, la Luna adquirió un tono rojizo, que hace que popularmente se llame a este fenómeno "luna de sangre". Son los rayos del Sol refractados por la atmósfera de la Tierra los que le confieren ese color cobrizo.








Fuente: El Mundo

Usan células madre embrionarias
para curar la pérdida de visión
 





Cirujanos efectuaron en el Reino Unido una operación pionera con células madre embrionarias como parte de una investigación para curar la pérdida de visión. La intervención se realizó el mes pasado a una mujer de 60 años con degeneración macular asociada con la edad (DMAE), una enfermedad del ojo ocasionada por daños o deterioro de la mácula.

Según los detalles de la intervención, una célula madre de un embrión fue utilizada en el laboratorio para crear epitelio pigmentario retinal, una capa de células pigmentadas que aparece en la retina y que nutre sus células visuales. La célula procedía de un embrión donado y creado a partir de un tratamiento de fertilización in vitro. La capa de células obtenida fue colocada detrás de la retina de la paciente.

El experto subrayó que dentro de tres meses podrán saber si la intervención ha dado los resultados esperados.


Fuente: Clarín

Caso Volkswagen: la vergüenza de emitir
dos millones de toneladas de gases contaminantes
 





Según los datos reconocidos por la propia compañía, los vehículos diésel de Volkswagen con modificaciones en el software de control de emisiones debieron emitir alrededor de 40 veces más de lo que la empresa certificaba. Puesto que la normativa exige no más de 80 miligramos de óxidos de nitrógeno (NOx) emitidos por kilómetro recorrido, 40 veces esta cantidad implica 3.2 g de NOx emitidos por kilómetro.

Teniendo en cuenta que estamos hablando de medio millón de vehículos en EE.UU. y seis años desde 2008, podemos estimar, a una media de 10.000 km recorridos por año y por vehículo, unos 30.000 millones de kilómetros; y esto, con emisiones de 3 gramos de NOx por kilómetro supone 90.000 toneladas de NOx emitidas en los 6 años, 15.000 toneladas de NOx por año.

Si extendemos este cálculo a los 11 millones de vehículos trucados reconocidos por Volkswagen, obtenemos casi 2 millones de toneladas de NOx a lo largo de seis años, 330.000 toneladas por año en todo el mundo.

Por comparación, la normativa actual solo permite 40 microgramos (millonésimas de gramo) de NOx por metro cúbico de aire y por año.


Fuente: El Mundo

El coche eléctrico de Apple, para 2019 




El gigante de la computación y la telefonía móvil Apple tiene previsto presentar un coche eléctrico dentro de cuatro años, según informó el diario The Wall Street Journal en base a personas cercanas al proyecto.




Según el diario, la empresa aceleró el desarrolló y se fijó como meta el año 2019. Los responsables recibieron permiso para triplicar el equipo de trabajo, hasta ahora compuesto por 600 personas. Desde principios de este año se habla de los planes de los de Cupertino para construir el Apple Car. Sin embargo, la empresa hasta ahora no se ha manifestado al respecto.

La industria automotriz se está viendo revolucionada por las empresas de Silicon Valley. Debido a su integración en la red a través de Internet, los coches están cada vez más controlados por software. De hecho, Google trabaja desde hace seis años en una tecnología para fabricar un vehículo que circule solo y ya ha estado probando prototipos de un coche eléctrico para dos personas. Más adelante, el auto será manejado completamente desde la computadora y se podrá prescindir de volante y pedales.

Hasta ahora los coches eléctricos suponen una parte menor del mercado, en parte también por el bajo costo del combustible. Pero se espera que en los próximos años varios fabricantes lancen modelos al mercado.


Fuente: El Mundo

“Soberanía cultural y educativa” 




La presidenta Cristina Fernández destacó la importancia de la educación como herramienta para la soberanía nacional y para promover la igualdad de todos los ciudadanos del país. En un acto que protagonizó en la Facultad de Odontología de la Universidad de Buenos Aires, la mandataria dijo que en esta etapa de desarrollo del país “no sirve que los científicos estudien para recibir un Premio Nobel” sino que “sirve que estudien para mejorar la tecnología, mejorar las empresas, mejorar los laboratorios” y así “devolverle al pueblo” que sostiene la educación pública. “La misión que tiene la educación, es la de abrir cabezas, de descolonizar y permitir la soberanía cultural y educativa de un país”, afirmó la mandataria.

A un mes de las elecciones nacionales, la Presidenta remarcó sin mencionarlos las diferencias entre el Frente para la Victoria y los frentes opositores. Sostuvo que “un proyecto político no es una cuestión ideológica, es una cuestión de valores” y, en ese sentido, distinguió los “proyectos políticos, sociales y culturales de inclusión, que a diferencia de los de exclusión, incluyen a todos”. En ese sentido, agregó que “la igualdad no es que todos sean iguales sino darle igualdad de oportunidades a todos para que puedan desarrollarse y si sos médico, odontólogo o ingeniero no sea porque tenés plata sino porque hay un Estado que te permitió estudiar”.

Fernández de Kirchner dijo a continuación que sueña con “un país de 40 millones de argentinos en que todos puedan elegir la vida que quieren tener”, ya sea “artista, obrero o científico”, más allá de su procedencia social. Por eso, pidió “empoderar a la sociedad con educación” y subrayó la importancia de “abrir al pueblo” a la universidad para que el conocimiento no sea “sólo para una elite”. Destacó, respecto a ese tema, la creación de nuevas universidades en el interior y en el conurbano bonaerense, que permitieron, al acercarse a la gente, que muchos jóvenes cuyos padres no tienen estudios sean primera generación de universitarios.

La Presidenta recorrió la Facultad de Odontología e inauguró oficialmente las obras de remodelación. Durante la actividad, la mandataria estuvo acompañada por el secretario de Legal y Técnica y candidato a vicepresidente, Carlos Zannini; y los ministros de Economía, Axel Kicillof; y de Educación, Alberto Sileoni. La ceremonia incluyó la entrega de diplomas de especialización a profesionales.

Además, CFK destacó el crecimiento de la inversión en materia educativa durante los últimos doce años. Para ilustrarlo, comparó los mil novecientos millones de pesos destinados a universidades en 2003 con el presupuesto actual, que asciende a cuarenta y dos mil millones de pesos, a los que hay que sumarle otros cuatro mil millones invertidos en obras de infraestructura universitaria “por afuera de los recursos presupuestarios”. También explicó que las dos mil setecientas becas que se entregaban hace doce años son ahora sesenta y siete mil, y que, a través del Plan Progresar, hay novecientos mil chicos que reciben ingresos mensuales a cambio de completar sus estudios.

“Hemos puesto la educación de la Argentina en un punto central”, aseguró la mandataria al comienzo de su discurso, en el que hizo énfasis en “la misión que tiene la educación” que es “abrir cabezas, descolonizar y permitir la soberanía intelectual de un país”. En ese sentido dijo que “lo mejor que puede dar una universidad, más allá de la capacitación, es pensar en argentino, desde Argentina, para el mundo” porque, aseguró, quienes estudian en universidades públicas tienen “una deuda de honor con el pueblo que paga los estudios”.


Fuente: Página 12

La ciencia como noticia 




La divulgación de noticias sobre ciencia y tecnología resulta fundamental para la sociedad, no sólo porque le permite estar al corriente de los avances que se producen en el mundo científico, sino también porque esa información constituye un insumo valioso para imaginar nuevos horizontes, tomar decisiones o participar de los debates de relevancia pública.

Con esta idea como punto de partida, y con el objetivo de formar profesionales debidamente capacitados para desarrollar esta tarea, la Facultad de Ciencias Exactas y Naturales de la UBA lanzó, junto con las facultades de Ciencias Sociales y de Filosofía y Letras, la carrera de especialización en Comunicación Pública de la Ciencia y la Tecnología. El posgrado, que está destinado a graduados de cualquier carrera de al menos cuatro años de duración, comenzará a dictarse en el primer cuatrimestre de 2016.

Según explicó la directora del posgrado, Susana Gallardo, la creación de esta carrera es un viejo proyecto de Exactas, que desde 1993 dicta cursos de introducción a la divulgación científica y que a lo largo de los años ha ido advirtiendo la necesidad de complejizar la oferta. “Hace 30 años, cuando Enrique Belocopitow creó el Centro de Divulgación Científica y Técnica en el Instituto Leloir, el objetivo era que la ciencia estuviera en los medios y que la información fuera correcta. Con el correr de las décadas fue desarrollándose la idea de que no se trataba sólo de transmitirle información a la gente, sino que era necesario entender los aspectos sociales, políticos, éticos y económicos implicados”, explicó Gallardo.

“Lo que se busca es que el periodista tenga una actitud crítica sobre lo que está trasmitiendo, que no sea una idealización de la ciencia, que es lo que se ha hecho habitualmente”, sostuvo Gallardo.

En una evaluación sobre el panorama actual de la información sobre ciencia, Gallardo consideró que los medios gráficos le destinan menos espacio que antes y que eso se hace evidente en la progresiva desaparición de los suplementos especializados. De todos modos, señaló que las tecnologías recientes ofrecen nuevas oportunidades de divulgación, lo que ha dado lugar a una mayor circulación de información científica en blogs y redes sociales, por ejemplo. Por otro lado, destacó que cada vez más instituciones públicas –como el Conicet o el Ministerio de Ciencia y Tecnología– invierten en la creación de gabinetes de comunicación para dar a conocer la información interna. En sintonía con estos movimientos, la carrera de especialización está pensada para formar profesionales capaces de hacer un uso criterioso de las fuentes científicas disponibles y de generar productos informativos diversos, acordes a los diferentes públicos y plataformas.


Fuente: Página 12