Resumen científico - 63

A continuación, compartimos con todos Uds. un resumen de las novedades más destacadas del mundo de la ciencia y la tecnología.

El pensamiento latinoamericano en CyT  




Hacia fines de los años ’60 y principios de los ’70, América latina atravesaba un momento histórico caracterizado por un combativo cuestionamiento del pensamiento crítico regional a las concepciones hegemónicas sobre los vínculos entre la ciencia y la tecnología, el crecimiento económico, el desarrollo y el progreso social que comenzaron a desplegarse en la segunda mitad del siglo XX.

Estas falacias encontrarían en los debates de las “teorías de la dependencia” una contraofensiva teórica e ideológica sin precedentes, que se convertiría en el corazón del pensamiento de izquierda en las décadas posteriores. Las discusiones sobre las “contradicciones” del desarrollo en el mundo “subdesarrollado” tendrían su correlato en el ámbito científico y tecnológico (CyT) en lo que hoy se conoce como “pensamiento latinoamericano en Ciencia y Tecnología”.

Los pensadores asociados a esta corriente tenían orígenes disciplinares y posicionamientos ideológicos y políticos diversos y se identificaban con perspectivas teóricas y modelos de gestión que justificaban desde propuestas pragmáticas que no cuestionaban los engranajes de un capitalismo en expansión, hasta planteos revolucionarios que señalaban a los mitos científicos y tecnológicos funcionales a las tesis capitalistas como la principal trampa que debían sortear los proyectos socialistas que propugnaban por otro orden de las cosas. Entre los máximos exponentes argentinos de esta corriente crítica podemos mencionar a Oscar Varsavsky, Amílcar Herrera y Jorge Sabato, quienes, a su vez, se reconocen como los principales representantes de este pensamiento a nivel regional.

Imitando las teorías que los países centrales comenzaron a utilizar en la segunda posguerra para caracterizar la dinámica de los vínculos entre la ciencia y la tecnología, la economía y la sociedad, el fenómeno CyT en América Latina, al igual que la problemática del desarrollo, sería abordado desde una perspectiva lineal. Falacia que en un marco general era presentada como un camino unidireccional que nacía en el subdesarrollo y se coronaba en el desarrollo, y que en el ámbito CyT adoptaría la forma de una linealidad progresiva entre la investigación científica, el desarrollo tecnológico y la innovación industrial, que derivaría felizmente en progreso social.

La expresión política de este esquema fue una especie de fe omnipresente en la ciencia y la tecnología, plasmada en la creencia de que en la ciencia se encuentran las bases del desarrollo tecnológico y éste en el origen del progreso industrial, económico y social.

Sobre este telón de fondo, el pensamiento latinoamericano comenzaría a interpelar el desarrollo científico y tecnológico regional, focalizando su sentido económico y social, sus componentes ideológicos y las condiciones que posibilitaban u obstaculizaban la definición de políticas CyT autónomas y soberanas. El breve proceso de construcción de conocimiento iniciado por este movimiento como los orígenes de su clausura estuvieron signados por las sangrientas dictaduras militares que marcaron la historia de América latina a partir de la decada del ’60, llegando en la del ’70 a tomar formas de terrorismo de Estado. Clausura que posteriormente sería continuada por el sometimiento de los gobiernos de la región al proyecto de globalización y las políticas de orientación neoliberal profundizadas en la década de 1990.

Sin embargo, acompañando los importantes cambios sociopolíticos que viene experimentado la región desde inicios del siglo XXI, asistimos hoy a una necesaria resignificación de este pensamiento, en la que las nociones de autonomía, soberanía y uso social del conocimiento vuelven a tomar un lugar central en la arena del debate político y académico. No sin entrar en franca tensión con las concepciones tradicionales y corporativas más anquilosadas sobre el desarrollo económico y social y sobre el rol que deberían jugar la ciencia y la tecnología en la promoción del bienestar colectivo.

Si algo define la actualización de estas ideas, mal que les pese a los simpatizantes más devotos de la universalidad científica y el pragmatismo económico, es el reconocimiento de los aspectos políticos, ideológicos, económicos, culturales y éticos que atraviesan el fenómeno CyT, desde la definición de los problemas, métodos y líneas de investigación y desarrollo tecnológico que se priorizan, hasta sus aplicaciones productivas y sociales.

Explicitar estas dimensiones de análisis es uno de los desafíos que inauguran los caminos del cambio social en América latina en nuestro tiempo. La razón es sencilla, tomar como propia la principal lección que nos dejó el pensamiento latinoamericano hace más de cuarenta años: no se puede hablar de ciencia y tecnología, desarrollo genuino y bienestar social si, a la vez, no se habla de política, de ideología, de dependencia cultural y de ética.


Fuente: Página 12

La edad, un desafío para el cerebro 




Un nuevo caso de demencia se registra en el mundo cada cuatro segundos. A este ritmo, si en la actualidad se calcula que hay unos 47,5 millones de personas con deterioro cognitivo asociado a la edad, la Organización Mundial de la Salud (OMS) prevé que esta cifra casi se duplique en 2030 y alcance los 135,5 millones en 2050.

En este mismo escenario, hay que subrayar la carga económica que supone este problema en el mundo. En 2010 se destinaron 604.000 millones de dólares a la atención de la demencia. Según las estimaciones esbozadas en febrero en la II Cumbre Mundial de Innovación en Salud (Wish Qatar), un congreso médico donde se discutió sobre demencia, los costes globales en 2030 se podrían incrementar un 85%.

Aproximadamente el 80% de los gastos corresponden a cuidados de tipo social cuando la persona pierde autonomía y se convierte en dependiente.

Tal es el reto que esto supone, la OMS anunció la creación del primer fondo mundial contra la demencia, con el objetivo de impulsar las investigaciones para mejorar el tratamiento de esta enfermedad mental. La inversión inicial será de unos 93 millones de euros.

Se cree que un tercio de los casos de Alzheimer en el mundo son atribuibles a siete factores: bajo nivel de educación, hipertensión, obesidad, diabetes, inactividad física, tabaco y depresión. Puede que unos hábitos saludables sumados a una base genética favorable sea la explicación por la que algunas personas, a pesar de los años, continúen manteniendo una agudeza mental envidiable.

Lo cierto es que aunque una pequeña proporción de casos son atribuibles por sí solos a mutaciones genéticas conocidas (no más de un 5%), la mayoría se consideran debidas a la acción e interacción de diversos factores genéticos y ambientales, que actúan como precipitantes.

No obstante, al igual que el resto de órganos, el cerebro también se ve afectado por el paso de los años. A nivel cognitivo, este envejecimiento se traduce en "un declive de la memoria, sobre todo de la evocación (recordar datos y sucesos), también en el aprendizaje de nuevas cosas y en el lenguaje (cuesta encontrar el nombre de algunos objetos o conceptos la fluencia verbal disminuye). Se pierde habilidad visoespacial y funciones ejecutivas, es decir, capacidad para la resolución de problemas y la toma de decisiones. Las alteraciones que acompañan a la demencia provocan, además, que el individuo sufra una "desadaptación social".

Desde el punto de vista biológico, las personas con deterioro cognitivo han perdido gran número de neuronas y de conexiones sinápticas, que son las que posibilitan el aprendizaje y las habilidades mentales. Presentan determinadas áreas cerebrales dañadas, por ejemplo las motoras y las asociativas (neocórtex) y en el hipocampo, donde reside la memoria. El cerebro es un órgano dinámico que cambia continuamente desde que nacemos hasta que morimos. Desde los 40-50 años, empieza a perder volumen, entre 0,5 y 1% anual, porque se pierden neuronas, sinapsis, fibras mielinizadas. Estos cambios se acompañan de la proteína 'tau'.

Hasta ahora, se habían barajado como buenos biomarcadores del deterioro del cerebro a la proteína beta-amiloide, que se acumula en el tejido neuronal a medida que pasan los años. Sin embargo, parece que 'tau' está mucho más presente en los casos de Alzheimer. Beta-amiloide puede acumularse también en cerebros de ancianos que no han desarrollado Alzheimer.

Cuando ya no se puede luchar más contra la edad y una vez que la demencia está desarrollada en la persona, sólo se pueden indicar algunos medicamentos para intentar frenar la curva del deterioro, que la evolución sea un poco más lenta. Sin embargo, uno de los grandes retos es encontrar fármacos que eviten el desarrollo de la demencia tras el diagnóstico y que puedan combatir las lesiones ya ocasionadas. Otro de los desafíos es el adelanto del diagnóstico, para retrasar los síntomas en la medida de lo posible, debido a que las lesiones empiezan a nivel cerebral entre 10 y 20 años antes de que la persona tenga síntomas.


Fuente: El Mundo

Descubren el rol clave de proteína
en el funcionamiento del cerebro
 





Por primera vez, un equipo internacional de científicos liderados por un argentino determinó que “Nedd8” es crucial para la maduración de las sinapsis y los procesos de memoria y aprendizaje, lo cual podría conducir, en el futuro, a nuevos tratamientos para el Parkinson y el Alzheimer Una proteína del sistema nervioso, Nedd8, es fundamental para que madure el espacio entre neuronas o sinapsis. Y su inhibición provocaría enormes déficits de memoria y de aprendizaje.

La mejor comprensión del rol de Nedd8 podría ser importante, en el futuro, para desarrollar estrategias que nos ayuden a paliar los síntomas cognitivos de afecciones como el Parkinson y el Alzheimer.

Es la primera vez que se describe el rol de esta proteína en el sistema nervioso, lo cual abre auspiciosas líneas de investigación. Sin embargo, se advirtió que todavía falta “mucho tiempo y trabajo” para transferir este avance a la clínica, o, en otras palabras, llevar este avance de la mesada del laboratorio a la cama del paciente.


Fuente: Tomá mate y avivate

Desarrollan impresora 3D especializada
en biomedicina para anticiparse a las cirugías
 





Investigadores argentinos innovaron en el uso de sistemas de impresión 3D para realizar simulaciones de intervenciones quirúrgicas, y de esa forma permitirán que al practicar una intervención sobre un modelo que representa la anatomía del paciente, se pueda planificar la misma y anticipar problemas que podrían llegar a surgir.

Si bien la tecnología de impresión 3D se está utilizando en el mundo para realizar todo tipo de actividades en múltiples industrias, BioINAR, tal cual se llama el proyecto, está adaptado de forma especial para la biomedicina.

Mediante el uso de imágenes médicas de un paciente (tomografías, resonancias magnéticas), se logra una reconstrucción 3D digital de estructuras anatómicas (partes óseas, corazón, pulmones, hígado, tumores, etc.). La reconstrucción digital se procesa mediante software de diseño asistido por computadora, y luego se materializa mediante una impresora 3D. Se utilizan materiales de diferentes densidades y propiedades estructurales para representar las diferentes estructuras anatómicas.



La implementación también es sencilla. El médico indica al paciente que se realice una tomografía axial computada (TAC) o resonancia magnética nuclear (RMN) de acuerdo a la densidad de la estructura anatómica que desea obtener. Las imágenes médicas obtenidas son enviadas a bioINAR para procesarlas y obtener una reconstrucción 3D digital de la porción anatómica afectada. Se realiza una reunión entre el cirujano y un representante de bioINAR para analizar la reconstrucción 3D obtenida. La reconstrucción digital se materializa a través de sistemas de impresión 3D, y el modelo es enviado al profesional.

Los sistemas de bioINAR ayudan al cirujano a encontrar una forma óptima de abordar una intervención quirúrgica. De esta forma, al operar sobre el paciente, ya habrá realizado una simulación con un modelo físico, podrá anticipar problemas y la intervención resultará más sencilla.


Fuente: El otro mate

Crean una impresora 3D casi tan rápida
 como las de tinta y papel
 





La revolución de las impresoras 3D estaba siendo demasiado lenta. Para crear una simple figurita se necesitan horas y hasta días si es algo más grande. Sin embargo, un nuevo método que combina resinas líquidas, luz ultravioleta y oxígeno consigue obtener objetos 100 veces más rápido. Es el gran paso que le faltaba a la democratización de la fabricación en masa y su promesa del háztelo tu mismo.

Con las impresoras 3D hay dos grandes tecnologías para lograr el producto deseado. Por un lado, el modelado por deposición fundida (FDM, por sus siglas en inglés) consiste en el calentamiento de un rollo de material que luego es vertido a través de una manga para crear el objeto a imprimir, y en la solidificación de dicho material mediante la aplicación de frío. Por otro lado, la estereolitografía utiliza resinas líquidas que, al ser expuestas a la luz ultravioleta, se solidifican. Mientras que la primera es más sencilla y asequible, aunque lenta y de menor resolución, la segunda ofrece mejores resultados, pero la operación con las resinas es muy compleja.

Lo que ha conseguido un grupo de investigadores estadounidenses es simplificar la estereolitografía, acelerando la velocidad de impresión sin afectar la calidad de los objetos impresos. Su impresora CLIP (Interfaz de Producción Líquida Continua, por sus siglas en inglés), les permite controlar el proceso por el que las moléculas de la resina líquida se solidifican creando estructuras complejas en un proceso llamado polimerización. En vez de usar un sistema mecánico, los creadores de CLIP juegan con el láser ultravioleta (que inicia la reacción química de solidificación) y con el oxígeno (que la detiene). Su gran aporte es una especie de cristal que les permite ajustar el paso de la luz y del oxígeno. De esta manera, consiguen una impresión continua que da a los objetos un acabado perfecto en su forma y sin fracturas en el interior.


Fuente: La Nación

Los riesgos del dragado del Riachuelo 




Un equipo interdisciplinario de investigadores presentó un informe en el cual se evidencia que existen altísimos niveles de contaminación en el sector de Cuatro Bocas y que los sedimentos no pueden continuar arrojándose al Río de la Plata sin un tratamiento adecuado. Los especialistas señalan que estos sedimentos pueden afectar una fuente de agua potable de la Ciudad de Buenos Aires y gran parte del conurbano bonaerense.

El informe presentado en el Consejo Profesional de Arquitectura y Urbanismo por un equipo interdisciplinario de profesionales de la FAUBA y de la Fundación Agronegocios y Alimentos, pone en relieve la contaminación de sedimentos en el sector de Cuatro Bocas, donde confluyen la desembocadura del Riachuelo, el Río de la Plata, Dock Sud y los diques de Puerto Madero.

Los resultados del estudio mostraron que en ese lugar existen altos niveles de metales pesados, principalmente cromo, arsénico, zinc y cobre, muy superiores a los permitidos por las normas internacionales para ser reubicados libremente en un cuerpo de agua.

Debido a que en la Argentina no existen normas específicas para la operatoria de dragado, la calidad de los sedimentos y su disposición, el estudio de la FAUBA tomó en cuenta los parámetros y niveles utilizados en Holanda, Canadá y España, aceptados internacionalmente.

Los resultados evaluados por las tres normativas muestran el riesgo asociado a la disposición del material dragado del Riachuelo en aguas abiertas del Río de la Plata. Por lo tanto, la disposición del material dragado de la zona de Cuatro Bocas no debe realizarse libremente en aguas y se aconseja evaluar medidas de contención u otras alternativas para su reubicación.

El Riachuelo es un río de llanura, tiene un proceso de constante sedimentación y condiciones que favorecen la retención de contaminantes en el lecho. En particular, este sector de Cuatro Bocas posee un alto grado de contaminación debido a fuentes puntuales y difusas de una zona altamente industrializada. Cuando los elementos se trasladan a aguas abiertas, pasan de un medio anaeróbico (sin oxígeno), como es el Riachuelo, a uno aeróbico, como el Río de la Plata, y hay una tendencia a la solubilización en el agua.

Las obras de dragado sobre el sector de Cuatro Bocas habían sido frenadas en marzo de 2013 por el Juzgado Federal de Morón Nº 2, en el que recayó la competencia del caso Riachuelo por orden de la Corte Suprema de Justicia, hasta que se definieran las normas de control que permitan atenuar el impacto ambiental. La medida cautelar hacía lugar a un recurso de amparo presentado por la Fundación Agronegocios y Alimentos, sobre la base del informe técnico de la FAUBA. Ahora el máximo tribunal deberá dirimir el conflicto.


Fuente: Argentina Investiga

La estrella del glifosato 




La Agencia Internacional para la Investigación sobre el Cáncer (IARC), ámbito especializado de la Organización Mundial de la Salud (OMS), confirmó la vinculación entre el herbicida glifosato y el cáncer. Y afirmó que produce daño genético en humanos. Monsanto, la creadora y mayor productora de glifosato, acusó a la Agencia de la OMS de hacer “ciencia basura”. Más de 28 millones de hectáreas de Argentina se fumigan con el agrotóxico.

El glifosato es el herbicida clave en el enorme salto productivo de las últimas dos décadas. Unido estrechamente a la irrupción de la biotecnología, con la llegada de la soja RR resistente al herbicida, facilitó el desarrollo de la siembra directa.

En 1996, cuando el entonces secretario de Agricultura Felipe Solá liberó la primera variedad transgénica (que no fue de Monsanto como todo el mundo cree, sino del flamante semillero de Nidera), en la Argentina se sembraban 5 millones de hectáreas de soja. Hoy se superan las 20 millones. Y esto no se explica por la sustitución de otros cultivos.

Lo que sucedió fue un avance fenomenal sobre la frontera agrícola, sobre todo en el oeste de la región pampeana. Junto con otras medidas macro, como la desregulación de los puertos, el dragado de la hidrovía y la inexistencia de derechos de exportación, se generó un marco muy atractivo para la inversión. Además de multiplicar por cuatro la producción (pasamos de 15 a 60 millones de toneladas), se levantó la más poderosa y moderna industria de crushing (molienda) de soja del mundo, con una capacidad instalada para procesar toda la producción argentina y algo más.

Toda la soja puede salir con valor agregado, convirtiéndose en harina de alto contenido proteico, aceite, biodiesel, lecitina, glicerina. Una cascada que aporta entre 25 y 30 mil millones de dólares por año, por lejos la principal industria exportadora del país.

Ahora bien, luego de un año de trabajo de 17 expertos científicos de once países, el máximo espacio para el estudio del cáncer de la OMS categorizó al glifosato (el agroquímico más utilizado del mundo, pilar del modelo transgénico) en la segunda categoría más alta vinculada a la enfermedad: “Hay pruebas convincentes de que el glifosato puede causar cáncer en animales de laboratorio y hay pruebas limitadas de carcinogenicidad en humanos”. La evidencia “limitada” significa que existe una “asociación positiva entre la exposición al químico y el cáncer”, pero que no se pueden descartar “otras explicaciones”.

Con la nueva evaluación, el glifosato fue categorizado en el “Grupo 2A” (segundo en una escala de 1 a 5), que significa para la OMS: “Probablemente cancerígeno para los seres humanos”. La IARC-OMS afirmó que el herbicida “causó daño del ADN y los cromosomas en las células humanas” (tiene relación directa con el cáncer y malformaciones) y detalló que se detectó glifosato en agua, alimentos y en sangre y orina de humanos.

Monsanto, la mayor corporación del agro y productora de glifosato, respondió con violencia inusitada a la agencia de la OMS: “Monsanto está en desacuerdo con la ciencia basura”. Monsanto acusó de “sesgada” la evaluación y denunció a los expertos de no basarse en “ciencia de calidad”.


Fuente: Página 12
Fuente: Clarín

Nuevo software detecta el autismo 




El proyecto llamado “Diagnóstico temprano de autismo por medio de seguimiento ocular”, elaborado por científicos argentinos, resultó elegido como el mejor trabajo en América latina en un concurso denominado Subvenciones FRIDA (Fondos Regionales de Innovación Digital para América latina y la Región), en el área de Salud, Ciencia y Tecnología.

El proyecto premiado es un software para la detección temprana del autismo. Su funcionamiento es sencillo y sólo se precisa una computadora portátil que tenga webcam. A través de una serie de imágenes que se proyectan en la pantalla puede determinarse el patrón de comportamiento de la mirada de los niños y así detectar si padece alguna de las condiciones asociadas al autismo. En general, los niños autistas no miran a los ojos, lo evitan, miran las orejas, el mentón o en forma periférica cuando tienen un rostro delante.

La idea del proyecto es tener un mecanismo auxiliar de diagnóstico económico, que pueda estar al alcance en cualquier consultorio. En los últimos años ha habido un incremento muy grande (entre 6 y 10 veces) en los nacimientos de niños con esta condición, por eso es muy importante su detección temprana. Cuanto más temprano se logre el diagnóstico, mejores son las prospectivas de un tratamiento.


Fuente: El otro mate

Identifican una mutación del trastorno autista
 a partir del genoma de tres hermanos
 





Una mutación genética que podría cumplir un rol clave en el desarrollo de desórdenes del espectro autista fue identificada gracias a un innovador proyecto de científicos y médicos argentinos.

A fines del 2013, los medios de Argentina difundieron un hito: por primera vez se había secuenciado con tecnología local el genoma completo de personas, tres hermanos afectados por un desorden del espectro autista. Ahora, los mismos investigadores fueron un paso más allá: identificaron una alteración genética que podría desencadenar la patología, lo cual serviría tanto con fines de diagnóstico como, eventualmente, de tratamiento.

Después de analizar la secuencia completa de los tres genomas, esto es, procesar y filtrar más de tres millones de variantes con distintos algoritmos bioinformáticos, los científicos hallaron una mutación sospechosa en el gen SHANK3. Esta alteración, que podría ser consecuencia de una falla temprana en el desarrollo embrionario, parecería tener como consecuencia una alteración en los niveles sinápticos adecuados del glutamato, un neurotransmisor crucial para la comunicación entre las neuronas.


Fuente: Tomá mate y avivate
Fuente: La Nación

Dengue muta al pasar del mosquito al humano 




En contra de lo que los científicos pensaban, el virus del dengue no es el mismo en las personas infectadas y en los mosquitos que lo transmiten. Cuando pasa de una especie a otra, el virus “reprograma” su información genética y así mejora su capacidad de proliferarse en el organismo invadido. El sorprendente hallazgo fue realizado por un equipo de investigadores argentinos de la Fundación Instituto Leloir (FIL) y CONICET.

La mutación y selección de cambios en el material genético del virus le permite multiplicarse en forma efectiva en el nuevo hospedador. Sin esa modificación genética, el agente causal del dengue no podría prosperar cuando pasa de una especie a otra.

También se describió el mecanismo biológico a través del cual el virus del dengue modifica esa región de su genoma para “saltar” de una especie a otra. La región del genoma viral que muta tiene una estructura que se encuentra duplicada, es decir, tiene dos copias casi iguales de la misma región. Mediante la construcción de virus genéticamente modificados, el grupo de investigadores logró demostrar que en humanos el virus necesita sí o sí una copia correcta de esa estructura y, para infectar mosquitos, necesita inevitablemente una copia alterada.

Este mecanismo también podría verificarse en otros virus transmitidos por insectos que causan enfermedades en humanos. Asimismo, entender cuáles son las barreras que un virus debe atravesar para saltar de una especie a otra es importantísimo para poder prevenir la aparición de nuevas enfermedades virales.

El virus del dengue es un patógeno humano que causa alrededor de 400 millones de infecciones por año en el mundo y, a pesar de ser un serio problema de salud pública, aún no existen vacunas ni antivirales para controlarlo.


Fuente: Tomá mate y avivate
Fuente: Tomá mate y avivate
Fuente: Argentina

Identifican proteína que regula
el crecimiento de tumores
 





En 2007, un grupo de investigadores UBA-CONICET identificó por primera vez al gen que codifica la proteína RSUME y descubrió que uno de los roles de esta molécula es modificar proteínas para darles nuevas funciones.

RSUME actúa en diferentes procesos y uno de ellos es el que regula la respuesta de la célula a la falta de oxígeno (hipoxia), algo que ocurre frecuentemente en tumores. A medida que estas células proliferan necesitan más nutrientes y oxígeno, que llegan a través de la sangre. Sin embargo la velocidad normal de formación de nuevos vasos no alcanza para suplir la demanda del tumor, que termina rodeado de nichos de hipoxia. Sin embargo, los pacientes con VHL presenta tumores altamente vascularizados, es decir sus células tienen activado este mecanismo de adaptación.

Entonces una de las preguntas que se hizo el equipo fue ‘¿cómo sobreviven las células tumorales en esos ambientes con bajas concentraciones de oxígeno?’.

Era conocido que las moléculas que regulan la respuesta de la célula a la disminución de los niveles de oxígeno son los Factores de Transcripción Inducibles por Hipoxia (HIFs). Ellos activan la producción de proteínas cuya función es favorecer la adaptación de la célula a los ambientes con baja presión de oxígeno. Sin los HIFs, este proceso no es posible.

Se sabía que la señal para que se degrade HIF es a través del ‘etiquetado’ con una pequeña molécula llamada ubiquitina. El último paso de este proceso está regulado por una molécula (VHL) cuyo gen está mutado en los pacientes con síndrome de von Hippel Lindau (el cual genera tumores en el riñón y el sistema nervioso central).

Los resultados del trabajo muestran que RSUME inhibe a VHL y por lo tanto evita la degradación de HIF, lo que permite a las células adaptarse más rápidamente a la falta de oxígeno y, a los tumores, eventualmente proliferar.



Para comprobarlo implantaron células tumorales VHL en dos grupos de ratones: uno que expresaba RSUME y otro que no. Se observó que aquellos ratones en los cuales estaba presente RSUME desarrollaban un número mayor de tumores característicos del síndrome de VHL, mientras que aquellos sin RSUME tenían tumores más chicos y menos vascularizados. A pesar de los resultados prometedores, los científicos advierten que todavía faltan más estudios para desarrollar una terapia basada en estos conocimientos.

Fuente: Tomá mate y avivate
Fuente: El otro mate

Curiosity halló nitrógeno en Marte,
 clave para la vida
 





El vehículo Curiosity ha encontrado en Marte nitrógeno fijado en sedimentos, un nuevo paso en la valoración de la habitabilidad de este planeta, ya que el nitrógeno es un elemento imprescindible para la vida.




Estos resultados sugieren que Marte albergó un ciclo de nitrógeno en algún momento de su evolución como planeta. La presencia de nitrógeno ha sido verificada mediante el instrumento SAM (Sample Analysis at Mars) con muestras tomadas en tres sitios diferentes.

En cuanto a si podría existir vida en Marte actualmente, tanto en el subsuelo como en la superficie, la existencia de nitrógeno fijado es un factor a tener en cuenta porque es un elemento imprescindible en la síntesis de moléculas de la vida tan importantes como las proteínas, el ARN y el ADN.

No obstante, según este estudio, en Marte no se conoce un mecanismo que haga que el nitrógeno fijado regrese a la atmósfera y que mantenga el ciclo del nitrógeno como sí ocurre en la Tierra. Por ello, los investigadores sugieren que si alguna vez existió vida en la superficie de Marte no tuvo una presencia generalizada por todo el planeta, aunque esto deberá ser contrastado con estudios posteriores.


Fuente: Clarín

NASA detectó extrañas nubes de polvo en Marte 




La sonda espacial no tripulada Maven de la NASA, que en septiembre llegó a Marte, detectó misteriosas nubes de polvo en la alta atmósfera de Marte y auroras boreales similares a las que se producen en la Tierra, según indicó la agencia espacial estadounidense. El polvo, cuyo origen se desconoce, se hallaba a una altitud de 150 a 300 kilómetros sobre la superficie, un fenómeno completamente inesperado según destacaron los científicos.

La nube de polvo detectada por dos de los instrumentos de la sonda estuvo presente durante todas las observaciones. Los investigadores no saben si se trata de un fenómeno temporal o permanente.

La sonda Maven fue lanzada el 18 de noviembre de 2013 para resolver el misterio de cómo el planeta rojo perdió la mayor parte de su atmósfera y de su masa de agua. Llegó a Marte el 21 de septiembre pasado y debe completar una misión de un año.


Fuente: Clarín

Investigadores argentinos lograron inhibir en un
80% el crecimiento de cáncer de páncreas
 





Mediante el uso de un virus del resfrío (adenovirus) modificado genéticamente, investigadores pudieron inhibir en animales de laboratorio el crecimiento de este tumor. El virus terapéutico diseñado por los científicos del Instituto Leloir tiene fragmentos de proteínas que se pegan únicamente en las células de cáncer de páncreas. Luego ingresan a su interior, se multiplican y las eliminan.

En un modelo experimental de laboratorio, investigadores del Instituto Leloir (FIL) lograron inhibir en un 80 por ciento el crecimiento de cáncer de páncreas diseminado, uno de los tres tumores más agresivos junto con el melanoma avanzado y el glioma (cáncer de cerebro).

Para lograr su objetivo, los investigadores de la FIL modificaron por ingeniería genética un adenovirus (causante habitual del resfrío común) para lanzar un ataque selectivo contra tumores de origen humano implantados y diseminados en ratones y en hámsteres.

Los resultados fueron sorprendentes. No sólo se consiguió inhibir el crecimiento y diseminación del tumor, sino que en algunos casos también se logró su desaparición completa. Además, los investigadores afirmaron que, en seres humanos, los adenovirus genéticamente modificados se comportan como vacunas terapéuticas ya que llevan en su interior genes que estimulan al sistema inmunológico.

El virus oncolítico utilizado tiene un tamaño 100 veces menor al de la célula y fue diseñado para funcionar como un caballo de Troya. En su superficie se introducen proteínas específicas que reconocen receptores en la superficie de las células malignas de páncreas. Una vez que ingresan, los virus comienzan a multiplicarse y a eliminar a las células malignas, evitando atacar a las normales.


Fuente: Tomá mate y avivate

Se podría haber descubierto la flor
más antigua de la historia
 





Un grupo de investigadores encontró en el noreste de China un fósil de lo que podría ser la flor más antigua del mundo, una especia que dataría del período Jurásico. La flor, denominada Euanthus panii, podría tener una antigüedad de 162 millones de años.




Los investigadores aseguraron que el descubrimiento provocará un replanteamiento del origen de la historia de las flores. La búsqueda de la flor más antigua del mundo ha sido protagonista de varias controversias. Durante más de un siglo, científicos afirmaron haber hallado la flor más antigua, pero las muestras no superaron los exámenes posteriores y no ganaron la aceptación de la comunidad botánica.

Hasta ahora, la flor aceptada como la más añosa es la Callianthus dilae, también hallada en China, que data del período temprano del cretáceo, aproximadamente 125 millones de años atrás.


Fuente: Clarín

Vida después de la muerte: detectan "conciencia" 




Es una de las preguntas eternas de la humanidad: ¿existe la vida después de la muerte? El debate lleva milenios. Ya en tiempos de Platón (siglo IV a. C.) la respuesta afirmativa estaba en tela de juicio, a tal punto que el filósofo griego se vio obligado a escribir uno de sus diálogos, el Fedón, enumerando diversos argumentos que probasen la inmortalidad del alma.

Casi 2.400 años después, la ciencia parece estar más cerca de dar una respuesta concreta sobre el tema. Ya cuenta con los resultados del mayor estudio en el mundo relacionado con la conciencia en el momento de la muerte. La investigación fue liderada por científicos británicos. Durante cuatro años se estudiaron más de 2.000 casos de infarto cardíaco en 15 hospitales del Reino Unido, Estados Unidos y Austria. De los sobrevivientes, el 39 por ciento (780 casos) experimentó algún estado de conciencia. De ellos, casi la mitad (390) dijo haber tenido recuerdos, mientras que un 9 por ciento (70) declaró haber vivido lo que se conoce como una "experiencia cercana a la muerte" (ECM).

Lo más interesante es que se verificó un caso que podría revolucionar el enfoque en la investigación del fenómeno. Un paciente dijo haber visto, desde la esquina de la sala de operaciones, los intentos de los médicos por reanimarlo. El relato es consistente con lo que ocurrió en la realidad, pero eso no es lo más sorprendente. Estuvo consciente durante un período de tres minutos durante los cuales no había pulso. Esto es paradójico, ya que típicamente el cerebro deja de funcionar entre 20 y 30 segundos después de que se detiene el corazón, y no vuelve a retomar la actividad hasta que el corazón reinicia sus latidos.

Llegados a este punto, es conveniente hacer una aclaración. A la ciencia no le interesa, como a Platón, saber si el alma es inmortal, ni tampoco se pregunta sobre la existencia del Cielo o el Infierno; esas son nociones que entran dentro del campo de la metafísica y, como tales, no competen a la investigación científica. En cambio, lo que sí le interesa es establecer el vínculo entre la conciencia y el cerebro. La postura clásica es que la conciencia (en el habla corriente es lo que denominamos mente o, incluso, alma) es un producto de la actividad cerebral. Por lo tanto, se extingue cuando el cerebro deja de funcionar. El estudio plantea que tal vez la conciencia no sea tan rígidamente dependiente del sistema nervioso.

Sin embargo, desde las neurociencias se da una explicación muy diferente. Desde esta óptica, las causas son fisiológicas, es decir, se deben a la forma en que interactúan las funciones vitales del organismo. En situaciones cercanas a la muerte, debido a un trauma o a un mal funcionamiento generalizado, el cerebro empieza a fallar. En estas circunstancias, se produce una revolución en la actividad cerebral: numerosos experimentos han demostrado que se liberan diversas hormonas y neurotransmisores que convierten al sistema nervioso en un verdadero pandemónium. En ese estado de confusión, la conciencia realiza esfuerzos colosales para dotar de sentido a ese desorden. La actividad anormal del cerebro se interpretaría, entonces, como un "viaje al Más Allá", pero en realidad se trataría, ni más ni menos, que de alucinaciones. Esa es la postura predominante en las neurociencias, y logra mantener, así, la idea establecida de que la conciencia no es más que el resultado de la actividad química y eléctrica del cerebro.

Desde la Psicología, Freud postuló que existen dos pulsiones o instintos básicos: de vida y de muerte. Estos últimos tienden a buscar un estado de vacío, de nirvana o estado cero. Ese alivio de las tensiones se puede asociar con situaciones de placer; la reducción de las tensiones genera sensaciones placenteras, que es lo que mucha gente experimenta en las experiencias cercanas a la muerta. Por otra parte, esto se enmarca la representación de la muerte dentro de la categoría psicoanalítica de "angustia de castración", un estado de corte, de finitud, de pérdida. Ante estas situaciones límite, la psique buscaría, nuevamente, una respuesta evasiva que la aleje de ese momento de angustia.


Fuente: Clarín

Una estrella en formación, en vivo 




Investigadores españoles han observado por primera vez en tiempo real la metamorfosis de una joven estrella masiva, 300 veces más luminosa que nuestro Sol. La estrella, a una distancia de 4.200 años luz de la Tierra, fue retratada por primera vez en 1996. Entonces, “era como un aspersor: emitía materia en todas direcciones”.




Transcurridos 18 años, los científicos volvieron a poner sus ojos en la estrella. Pero algo cambió: la estrella se había transformado. “Ahora era como el chorro focalizado de una manguera”.

Este descubrimiento muestra que la eyección esférica es solo una primera etapa en la metamorfosis de una joven estrella. Luego, se forman unos “chorros”, una especie de “rosca” de gas y polvo más densa que el resto de la nube, por efecto de la interacción con el medio externo.

Fuente: El País

Sorprendente estudio: el planeta
está recuperando el verde
 





A pesar de los problemas ambientales que sufre el planeta, un nuevo estudio publicado la revista Nature Climate Change sostiene que la deforestación de los bosques tropicales está siendo compensada con la reforestación en otras partes del planeta en la última década. Con datos de 20 años de varios satélites, los científicos han comprobado que grandes zonas de Rusia, China, el norte de Australia, el sur de África y hasta el este de Brasil están recuperando el verde.

Realizado por investigadores de Australia, el trabajo se basa en el análisis de las ondas de radio emitidas de forma natural por la Tierra, que permiten deducir los cambios de biomasa. Según los investigadores, el aumento en la vegetación se produjo por una afortunada combinación de factores medioambientales y económicos, con proyectos de plantación a gran escala de árboles en China.

Según la investigación, la vegetación aumentó en las sabanas de Australia, África y Sudamérica como resultado de mayores precipitaciones, mientras que en Rusia y las antiguas ciudades soviéticas reaparecieron bosques en tierras agrícolas abandonadas. China es el único país que incrementó su vegetación de forma intencionada con proyectos de plantación de árboles.

De todas maneras, al mismo tiempo que algunas zonas del mundo reverdecen, en el mundo sigue produciéndose una pérdida masiva de vegetación. Los mayores descensos sucedieron en el borde de las selvas amazónicas y en las provincias indonesias de Sumatra y Kalimantan.


Fuente: Clarín

Crearon el reloj más preciso del mundo 




Científicos japoneses anunciaron haber creado dos relojes de una precisión tal que apenas se desajustan en un segundo cada 16.000 millones de años, un tiempo superior a la propia existencia del planeta Tierra.

Estos nuevos relojes son mucho más precisos que el reloj atómico de cesio empleado para definir la duración de un segundo, el cual se desajusta un segundo cada 30 millones de años. Asimismo, los nuevos relojes superan la precisión del reloj atómico presentado en agosto de 2013 por investigadores norteamericanos, que perdía un segundo cada 13.800 millones de años.

El sistema desvelado por los investigadores japoneses es tan delicado que debe funcionar en un entorno extremadamente frío (-180ºC) para reducir el impacto de ondas electromagnéticas alrededor y mantener el nivel de precisión.


Fuente: Clarín

¿Qué ventajas tiene la supercomputadora Tupac
que inauguró Cristina?
 





La supercomputadora Tupac, que está instalada en el Polo Científico Tecnológico, consiste un clúster computacional dirigido destinado a resolver modelos de simulación. Tiene un poder similar al de 12.000 computadoras hogareñas. La computadora permitirá realizar la simulación de procesos de fractura hidráulica en la industria petrolera que se emplean para la explotación hidrocarburífera de Vaca Muerta para YPF y el desarrollo de modelos de predicción metereológica por parte del Servicio Metereológico Nacional. También permitirá efectuar modelados estructurales y fluidodinámicos de vehículos espaciales como Tronador II, modelos fluidodinámico de aviones para la empresa FAdeA y modelos de radar y sonar para INVAP.


Fuente: Argentina

RA-10: La CNEA creará un reactor nuclear multipropósito 




El reactor nuclear multipropósito se encuentra actualmente en proceso de construcción por especialistas de la Comisión Nacional de Energía Atómica (CNEA). La idea es que no sólo sirva para la fabricación de radioisótopos destinados al diagnóstico de enfermedades, sino que también incorpore haces de neutrones para utilizarlos en investigación y desarrollo. Algunos de esos haces podrán ser usados en ensayos no destructivos para analizar la calidad de muchos componentes metalmecánicos y mejorar así sus procesos de producción.

Con este proyecto, la Argentina busca ampliar las capacidades actuales de producción de radioisótopos (el reactor RA-3, ubicado en el Centro Atómico Ezeiza), sumando desarrollo tecnológico en el campo de los combustibles y materiales nucleares, mediante instalaciones de irradiación adecuadas que permitan incrementar la experiencia que el país tiene en el área y expandiendo la oferta de servicios al mercado mundial.

Las instalaciones del proyecto también serán utilizadas para la formación de profesionales y técnicos, a fin de alcanzar capacidades de investigación en ciencias básicas y aplicaciones tecnológicas basadas en el uso de técnicas neutrónicas avanzadas que contribuyan a la conformación de un polo regional.


Fuente: Argentina

BioSur, una futura empresa pública de ciencia y tecnología 




El Ministerio de Industria, conducido por Débora Giorgi, impulsa la creación una empresa nacional de ciencia y tecnología -BioSur- para la sustitución de importaciones en productos biológicos (reactivos, anticuerpos monoclonales y vacunas), que complementará la producción nacional de medicamentos.

El Ministerio informó a través de un comunicado que la Secretaria de Planeamiento Estratégico Industrial lleva adelante la puesta en marcha de BioSur, proyecto que generará más de 1000 puestos de trabajo directos para científicos y profesionales, y más de 4000 puestos de trabajo indirectos. Además de reducir precios de reactivos, monoclonales y vacunas en el mercado local, abrirá un mercado potencial para Latinoamérica superior a 50.000 millones de dólares y se sustituirán importaciones en productos de alto valor agregado.

El modelo de negocios de BioSur plantea una participación mayoritaria del Estado, con reinversión de capital para el desarrollo de vacunas contra enfermedades endémicas de la región, históricamente desatendidas por las corporaciones multinacionales que dominan el mercado latinoamericano.


Fuente: Argentina

Los accesos a Internet en Argentina
crecieron 7,8% en un año
 





El crecimiento del acceso a Internet correspondiente al período diciembre de 2013-diciembre de 2014 fue del 7,8 por ciento, con lo que el total de accesos hogareños equivale a 14,1 millones, según se desprende de un informe publicado por el Instituto Nacional de Estadísticas y Censos (Indec).

La conectividad móvil pospaga (usuarios de telefonía fija que contratan el servicio de conexión a Internet en su dispositivo móvil), aportó el 57,9 por ciento del total de conexiones residenciales, con un incremento interanual de 10,4 por ciento.

En tanto, los accesos residenciales fijos aumentaron un 4,5 por ciento respecto del año anterior, aseguró el Indec.

En diciembre de 2014, los accesos de organizaciones (empresas, organismos de gobierno, profesionales, ONGs, escuelas y universidades) aumentaron 12,6 por ciento con relación a igual período de 2013, lo que se traduce en 2.355.823 accesos.

Las provincias con mayor incremento de conectividad interanual residencial fueron Jujuy con 32,4 por ciento, San Luis (30,5 por ciento) y La Pampa (27,2), mientras que en el sector de las organizaciones sobresalen Córdoba, Entre Ríos y Corrientes, con incrementos de 31 por ciento, 27,8 por ciento y 26,4 por ciento respectivamente.


Fuente: Argentina

Project Spartan, el nuevo navegador de Microsoft 




Project Spartan es el nuevo navegador que se presentará en Windows 10 y estará disponible para toda la familia de dispositivos que tengan el sistema operativo. El nuevo navegador, que suplantará al famoso Internet Explorer, es un navegador que está hecho para compartir, leer, descubrir y hacer las cosas de manera fácil en línea.

El nuevo explorador contará con un asistente personal que ayuda a facilitar la navegación en web, basándose en lo que sabe sobre la web, sobre el usuario y sus preferencias. Además, permitirá a los usuarios “escribir” sobre el explorador y compartir y comunicar sus pensamientos. También contará con un renovado motor de búsqueda adaptado a la nueva web.


Fuente: Minuto Uno

La "máquina de Dios" reinicia sus operaciones
tras dos años de inactividad
 





El Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) del Centro Europeo de Física de Partículas (CERN) hoy vuelve a funcionar luego de una inactividad de dos años, informó la Organización Europea de Investigación Nuclear (CERN).

Científicos del CERN se preparan para disparar los primeros rayos de partículas a través del túnel de 27 kilómetros del acelerador de partículas más grande del mundo, por debajo de la frontera entre Suiza y Francia, cerca de Ginebra. Los científicos prometen casi el doble de energía y choques de partículas mucho más violentos para esta ocasión. Esperan que los choques, que podrían ser lanzados en junio, permitan observar el universo oscuro nunca antes visto.

El acelerador fue fundamental en el descubrimiento del Bosón de Higgs, una partícula subatómica sobre cuya existencia había varias teorías desde hace tiempo, pero que fue confirmada en 2013.

El colisionador tiene la particularidad de poder hacer chocar entre sí dos haces de protones acelerados en sentidos opuestos al 99,99 por ciento de la velocidad de la luz, produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del Big Bang.

El acelerador de partículas se puso finalmente en marcha después de que un cortocircuito obligara a detener la operación el pasado 21 de marzo. El CERN gastó cerca de 150 millones de dólares para mejorar la maquinaria durante su período de inactividad. En los próximos años se espera encontrar por primera vez pruebas concretas de la existencia de la denominada materia oscura, así como información sobre su composición elemental.


Fuente: Clarín

Descubierta una proteína que dobla la vida
en ratones envejecidos
 





Una proteína que activa la producción de nucleótidos se ha mostrado capaz de revocar los síntomas de envejecimiento prematuro en ratones, según el hallazgo de un equipo de científicos españoles. En las personas de edad avanzada aparecen problemas oculares, óseos, que se sabe empíricamente que se alivian con ácido fólico; pero si el ácido fólico es un precursor de los nucleótidos, entonces la conclusión es que si se puede estimular este proceso en humanos, es posible que sirva para combatir algunos síntomas del envejecimiento.

La proteína en cuestión se llama Rrm2. Para llegar a determinar su papel, los investigadores siguieron un elaborado proceso. Partieron de ratones mutados para que tuvieran menos copias de otra proteína, la ATR. Esta molécula es responsable de reparar el genoma. El ADN de los seres vivos tiene que copiarse cada vez que una célula se divide y cada vez que se reproduce aparecen errores (mutaciones). La ATR actúa como un corrector que va reescribiendo el ADN replicado. Los ratones con baja cantidad de ATR acumulan más fallos en sus genes, lo que les lleva a envejecer antes de lo normal.

La solución estaba en otra mutación, pero al revés. En vez de tener pocas copias de una proteína, se vio que si tenían muchas de la Rrm2 los síntomas del envejecimiento (y del síndrome) se revertían. La vida media de los animales de experimentación pasó de 24 semanas a 50. Por eso esa proteína es clave para la solución del problema.

Existe evidencia de que cuando una célula tiene problemas para replicarse, lo intenta desde más sitios del genoma. Si estaba usando unos cien lugares de su genoma (conocidos como orígenes de replicación), cuando ve que no puede llevar a cabo el proceso, este se acelera y busca replicarse desde 200 sitios. El resultado de esta frenética actividad es que los nucleótidos, los eslabones del ADN, se agotan en el núcleo celular y las copias salen defectuosas. Esto se había estudiado en cáncer, donde hay una proliferación celular descontrolada con muchas copias de cada célula gestándose cada vez.

Con la parte ya demostrada, el trabajo pendiente es enorme. Primero, hay que probar si la Rrm2 funciona en ratones que no hayan sido envejecidos en el laboratorio. Luego vendría todo el proceso de escalado de ratones a personas, para ver si las mismas proteínas tienen el mismo efecto, y si la forma de activarlas es similar.


Fuente: El País

Un nuevo desafío en la revolución agrícola 




El comercio internacional ha cambiado de naturaleza en el siglo XXI, y ha dejado de ser una cuestión de oferta y demanda. Más de 70% del intercambio global está constituido hoy por bienes intermedios (partes y componentes), además de servicios y equipos de capital, que se venden como integrantes del comercio intraindustrial ejercido por las empresas transnacionales. En este nuevo sistema, los problemas del proteccionismo y el nivel tarifario, que caracterizaron al comercio mundial durante décadas, han perdido relevancia.

Ahora, la condición para participar en él es convertirse en una gran empresa transnacional, capaz de integrarse competitivamente en las cadenas globales de producción, ante todo en la innovación y el desarrollo científico y tecnológico. El sistema integrado transnacional de producción –núcleo estructural del capitalismo en el siglo XXI- está compuesto por 88.000 empresas globales –unas 3.500 son agroalimentarias-, con 600.000 asociadas o afiliadas en el mundo entero.

Su rasgo común es la fragmentación de la producción, que implica una extraordinaria especialización, y por ende productividad, de sus segmentos productivos. Estos conglomerados integran en una sola estructura de creación de valor las actividades tecnológicas, científicas y productivas, y disponen de un acceso sin límites a los recursos del sistema financiero internacional.

La producción integrada transnacional es 15% de la economía mundial, pero en ella se despliega casi 100% del incremento de la productividad. Es responsable de más de 80% de las patentes del mundo y ocupa sólo 3% de la fuerza de trabajo global. Más de 42% del total de las empresas transnacionales son norteamericanas; y este porcentaje es mayor en las compañías agroalimentarias, como Cargill, ADM, Bunge, entre muchos otros ejemplos.

El próximo paso de la revolución agrícola de la Argentina de los últimos 20 años es crear dos, tres o cinco “Cargills” de capital nacional, capaces de disputar el liderazgo en las grandes cadenas de producción de agroalimentos del mundo. La cadena agroalimentaria tiene un valor estimado de U$S 5 billones, y ganancias líquidas globales por U$S 600.000 millones por año.

La cuestión es cómo participa la Argentina en una posición de vanguardia de este núcleo central de la producción en el siglo XXI. Para posicionarse en este nuevo orden global es clave dar un nuevo paso y generar las condiciones para que surgan los “Cargill” de capital nacional.

Fuente: Clarín

No hay comentarios:

Publicar un comentario