Un estudio sobre ancianos con un riesgo mayor de lo normal de contraer la enfermedad de Alzheimer muestra que una actividad física moderada puede proteger la salud cerebral y ayudar a evitar que se encoja el hipocampo, la región cerebral responsable de la memoria y la orientación espacial, que es la primera zona del cerebro en ser atacada por dicha enfermedad.
Si bien todos nosotros perdemos algo de volumen cerebral a medida que envejecemos, aquellos con un riesgo genético superior de contraer la enfermedad de Alzheimer muestran normalmente una atrofia mayor en el hipocampo con el paso del tiempo.
Los resultados de la investigación llevada a cabo por el equipo del Dr. J. Carson Smith, de la Universidad de Maryland en College Park, Estados Unidos, indican pues que ser físicamente activo podría ofrecer una protección contra la neurodegeneración asociada con la propensión a desarrollar la enfermedad de Alzheimer. La actividad física tiene el potencial de preservar el volumen del hipocampo en aquellas personas con dicho riesgo superior, lo que significa que posiblemente se pueda retrasar en ellas el declive cognitivo y la aparición de los síntomas de demencia. La prevención por la vía del ejercicio físico podría ser especialmente potente e importante para este grupo.
El Dr. Smith y sus colegas hicieron un seguimiento de cuatro grupos de personas sanas de edades comprendidas entre los 65 y los 89 años, quienes tenían habilidades cognitivas normales, a lo largo de un período de 18 meses, y midieron el volumen de sus hipocampos (usando escaneos por resonancia magnética), al principio y al final de ese período de tiempo.
De los cuatro grupos estudiados, sólo aquellos con alto riesgo genético de desarrollar el Mal de Alzheimer que no se ejercitaron experimentaron una reducción del volumen del hipocampo (un 3 por ciento) a lo largo del período de 18 meses. Todos los otros grupos, incluyendo aquellos con alto riesgo de Alzheimer pero que eran físicamente activos, mantuvieron el volumen de su hipocampo.
http://noticiasdelaciencia.com/not/10208/mejor_salud_cerebral_gracias_al_ejercicio_fisico_en_gente_propensa_al_mal_de_alzheimer/
domingo, 27 de abril de 2014
Nuevo fármaco que reprime la adicción a la cocaína y las recaídas en su consumo
Un compuesto novedoso, que actúa de manera muy específica sobre un importante receptor cerebral, tiene un potente efecto contra numerosas conductas negativas asociadas a la adicción a la cocaína, incluyendo la recaída en su consumo. Al menos así se ha comprobado en experimentos con animales.
La investigación llevada a cabo por el equipo del Dr. Jun-Xu Li, de la Universidad en Buffalo (Universidad Estatal de Nueva York), Estados Unidos, proporciona fuertes evidencias de que ese compuesto podría convertirse en un nuevo fármaco para el tratamiento de la adición a la cocaína, una adicción para la cual no existe una medicación efectiva.
En el estudio, el compuesto, RO5263397, mitigó de manera notable una amplia gama de comportamientos de adicción a la cocaína.
Éste es el primer estudio sistemático que muestra de forma convincente que el RO5263397 tiene un buen potencial para tratar tal adicción.
La nueva investigación muestra que el receptor TAAR 1 (por las siglas de su nombre en inglés, Trace Amine Associated Receptor 1) es muy prometedor como nuevo blanco terapéutico sobre el que actuar mediante medicamentos como la sustancia probada que ayuden a desengancharse de la cocaína a los drogadictos.
TAAR 1 está muy relacionado, en lo neuroquímico y en lo anatómico, con la dopamina. Ésta es una de las sustancias fundamentales en el cerebro, y se ve involucrada en la transformación neuroquímica que conduce a la adicción a la cocaína.
Teniendo en cuenta esto, y el papel que se le atribuye de “freno” a la actividad de la dopamina, los fármacos que estimulen al TAAR 1 podrían contrarrestar la citada adicción.
En la nueva investigación, se puso a prueba esta hipótesis utilizando en animales adictos a la cocaína el RO5263397, el citado fármaco experimental que estimula a los receptores TAAR 1.
Al medir la intensidad con la que los animales estaban dispuestos a trabajar para conseguir una inyección de cocaína, los investigadores constataron que el RO5263397 redujo su motivación para ello. Este compuesto hace a las ratas menos dispuestas a trabajar por la cocaína, lo que llevó a una reducción de su uso.
http://noticiasdelaciencia.com/not/10206/nuevo_farmaco_que_reprime_la_adiccion_a_la_cocaina_y_las_recaidas_en_su_consumo/
La investigación llevada a cabo por el equipo del Dr. Jun-Xu Li, de la Universidad en Buffalo (Universidad Estatal de Nueva York), Estados Unidos, proporciona fuertes evidencias de que ese compuesto podría convertirse en un nuevo fármaco para el tratamiento de la adición a la cocaína, una adicción para la cual no existe una medicación efectiva.
En el estudio, el compuesto, RO5263397, mitigó de manera notable una amplia gama de comportamientos de adicción a la cocaína.
Éste es el primer estudio sistemático que muestra de forma convincente que el RO5263397 tiene un buen potencial para tratar tal adicción.
La nueva investigación muestra que el receptor TAAR 1 (por las siglas de su nombre en inglés, Trace Amine Associated Receptor 1) es muy prometedor como nuevo blanco terapéutico sobre el que actuar mediante medicamentos como la sustancia probada que ayuden a desengancharse de la cocaína a los drogadictos.
TAAR 1 está muy relacionado, en lo neuroquímico y en lo anatómico, con la dopamina. Ésta es una de las sustancias fundamentales en el cerebro, y se ve involucrada en la transformación neuroquímica que conduce a la adicción a la cocaína.
Teniendo en cuenta esto, y el papel que se le atribuye de “freno” a la actividad de la dopamina, los fármacos que estimulen al TAAR 1 podrían contrarrestar la citada adicción.
En la nueva investigación, se puso a prueba esta hipótesis utilizando en animales adictos a la cocaína el RO5263397, el citado fármaco experimental que estimula a los receptores TAAR 1.
Al medir la intensidad con la que los animales estaban dispuestos a trabajar para conseguir una inyección de cocaína, los investigadores constataron que el RO5263397 redujo su motivación para ello. Este compuesto hace a las ratas menos dispuestas a trabajar por la cocaína, lo que llevó a una reducción de su uso.
http://noticiasdelaciencia.com/not/10206/nuevo_farmaco_que_reprime_la_adiccion_a_la_cocaina_y_las_recaidas_en_su_consumo/
Menor riesgo de cáncer de mama en las mujeres que hacen ejercicio físico con regularidad
Hacer ejercicio físico durante no menos de una hora al día reduce el riesgo de contraer cáncer de mama, y esto es válido para mujeres de cualquier edad y peso, sin importar tampoco la ubicación o procedencia geográficas de las mujeres. A esta conclusión se ha llegado en una investigación cuyos resultados se han presentado en el Noveno Congreso Europeo sobre el Cáncer de Mama, organizado por la ECO (European Cancer Organization, u Organización Europea del Cáncer) y celebrado en la ciudad británica de Glasgow.
Comparadas con las mujeres menos activas, aquellas con mayor nivel de actividad física presentaban un riesgo de padecer cáncer de mama que era un 12 por ciento menor, según ha comprobado el equipo del profesor Mathieu Boniol, Director de Investigación en el Instituto Internacional de Investigación Preventiva en Lyon, Francia.
Boniol y sus colaboradores llevaron a cabo un metaanálisis de 37 estudios publicados entre 1987 y 2013, que reúne datos de más de cuatro millones de mujeres. Estos datos aportados por los estudios han sido lo bastante exhaustivos como para establecer esa relación entre la práctica habitual de ejercicio físico y el grado de riesgo de contraer cáncer de mama.
Aunque los resultados varían de acuerdo al tipo exacto de tumor, la tendencia general es clara.
Los resultados del nuevo estudio se unen a los de muchos otros que vienen indicando desde hace tiempo que la actividad física contribuye a proteger contra otros tipos de cáncer y en otras dolencias, como por ejemplo las enfermedades cardiovasculares.
unque los mecanismos que producen estos efectos beneficiosos no están claros, sí resulta evidente que los resultados son independientes del índice de masa corporal (IMC), es decir, de la influencia del peso. La edad a la que se comienza a practicar deporte con regularidad tampoco tiene un efecto determinante. Los investigadores han constatado que la reducción del riesgo de desarrollar cáncer de mama no es exclusiva de mujeres que llevan haciendo ejercicio físico habitual desde una edad temprana. Todo parece apuntar a que tan pronto como una mujer comienza a hacer ejercicio físico con regularidad aparece ese efecto protector.
http://noticiasdelaciencia.com/not/10196/menor_riesgo_de_cancer_de_mama_en_las_mujeres_que_hacen_ejercicio_fisico_con_regularidad/
Comparadas con las mujeres menos activas, aquellas con mayor nivel de actividad física presentaban un riesgo de padecer cáncer de mama que era un 12 por ciento menor, según ha comprobado el equipo del profesor Mathieu Boniol, Director de Investigación en el Instituto Internacional de Investigación Preventiva en Lyon, Francia.
Boniol y sus colaboradores llevaron a cabo un metaanálisis de 37 estudios publicados entre 1987 y 2013, que reúne datos de más de cuatro millones de mujeres. Estos datos aportados por los estudios han sido lo bastante exhaustivos como para establecer esa relación entre la práctica habitual de ejercicio físico y el grado de riesgo de contraer cáncer de mama.
Aunque los resultados varían de acuerdo al tipo exacto de tumor, la tendencia general es clara.
Los resultados del nuevo estudio se unen a los de muchos otros que vienen indicando desde hace tiempo que la actividad física contribuye a proteger contra otros tipos de cáncer y en otras dolencias, como por ejemplo las enfermedades cardiovasculares.
unque los mecanismos que producen estos efectos beneficiosos no están claros, sí resulta evidente que los resultados son independientes del índice de masa corporal (IMC), es decir, de la influencia del peso. La edad a la que se comienza a practicar deporte con regularidad tampoco tiene un efecto determinante. Los investigadores han constatado que la reducción del riesgo de desarrollar cáncer de mama no es exclusiva de mujeres que llevan haciendo ejercicio físico habitual desde una edad temprana. Todo parece apuntar a que tan pronto como una mujer comienza a hacer ejercicio físico con regularidad aparece ese efecto protector.
http://noticiasdelaciencia.com/not/10196/menor_riesgo_de_cancer_de_mama_en_las_mujeres_que_hacen_ejercicio_fisico_con_regularidad/
A más calor, más metano; y a más metano, más calor
Debido a su abundancia, el dióxido de carbono es el principal responsable del calentamiento global, pero no es ni mucho menos el gas más peligroso en cuanto a capacidad de retener calor: El gas metano es aproximadamente 30 veces más eficiente en la captura de calor.
Una nueva investigación indica que por cada grado que la temperatura de la Tierra aumenta, la cantidad de metano que ingresa en la atmósfera debido a las emisiones provenientes de microorganismos que habitan en sedimentos lacustres y humedales de agua dulce, las principales fuentes del gas, se incrementará significativamente. Al aumentar la temperatura, el aumento relativo de las emisiones de metano superará al de las emisiones de dióxido de carbono a partir de estas fuentes.
Así se ha determinado en la investigación realizada por el equipo de Cristian Gudasz, de la Universidad de Princeton en Nueva Jersey, Estados Unidos.
El metano es el tercer gas de efecto invernadero más frecuente después del dióxido de carbono y el vapor de agua.
Los investigadores analizaron cerca de 1.600 mediciones de temperatura y emisiones de metano de 127 ecosistemas de agua dulce, incluyendo lagos, pantanos, marismas y arrozales. El tamaño de cada punto se correlaciona con la tasa promedio de las emisiones de metano en miligramos por metro cuadrado, por día, durante el transcurso del estudio. Los puntos más pequeños indican menos de un miligramo por metro cuadrado, mientras que el punto de mayor tamaño representa más de tres miligramos.
En sistemas de agua dulce, el metano se produce a medida que los microorganismos implicados digieren la materia orgánica, un proceso conocido como metanogénesis.
Para proporcionarles a los científicos que trabajan con modelos climáticos una manera simple y precisa de cuantificar la metanogénesis, Gudasz y sus colaboradores analizaron cerca de 1.600 mediciones de temperatura y emisiones de metano de 127 ecosistemas de agua dulce de todo el mundo.
Los investigadores encontraron un patrón común enlazando emisiones de metano y temperaturas: La generación de metano en ecosistemas de agua dulce se estimula con temperaturas altas. Por regla general, y simplificando el patrón, las emisiones de metano a 0 grados centígrados pasan a ser 57 veces más grandes cuando la temperatura alcanza 30 grados centígrados, según han determinado los investigadores.
http://noticiasdelaciencia.com/not/10158/a_mas_calor__mas_metano__y_a_mas_metano__mas_calor/
Una nueva investigación indica que por cada grado que la temperatura de la Tierra aumenta, la cantidad de metano que ingresa en la atmósfera debido a las emisiones provenientes de microorganismos que habitan en sedimentos lacustres y humedales de agua dulce, las principales fuentes del gas, se incrementará significativamente. Al aumentar la temperatura, el aumento relativo de las emisiones de metano superará al de las emisiones de dióxido de carbono a partir de estas fuentes.
Así se ha determinado en la investigación realizada por el equipo de Cristian Gudasz, de la Universidad de Princeton en Nueva Jersey, Estados Unidos.
El metano es el tercer gas de efecto invernadero más frecuente después del dióxido de carbono y el vapor de agua.
Los investigadores analizaron cerca de 1.600 mediciones de temperatura y emisiones de metano de 127 ecosistemas de agua dulce, incluyendo lagos, pantanos, marismas y arrozales. El tamaño de cada punto se correlaciona con la tasa promedio de las emisiones de metano en miligramos por metro cuadrado, por día, durante el transcurso del estudio. Los puntos más pequeños indican menos de un miligramo por metro cuadrado, mientras que el punto de mayor tamaño representa más de tres miligramos.
En sistemas de agua dulce, el metano se produce a medida que los microorganismos implicados digieren la materia orgánica, un proceso conocido como metanogénesis.
Para proporcionarles a los científicos que trabajan con modelos climáticos una manera simple y precisa de cuantificar la metanogénesis, Gudasz y sus colaboradores analizaron cerca de 1.600 mediciones de temperatura y emisiones de metano de 127 ecosistemas de agua dulce de todo el mundo.
Los investigadores encontraron un patrón común enlazando emisiones de metano y temperaturas: La generación de metano en ecosistemas de agua dulce se estimula con temperaturas altas. Por regla general, y simplificando el patrón, las emisiones de metano a 0 grados centígrados pasan a ser 57 veces más grandes cuando la temperatura alcanza 30 grados centígrados, según han determinado los investigadores.
http://noticiasdelaciencia.com/not/10158/a_mas_calor__mas_metano__y_a_mas_metano__mas_calor/
Hermes, un sistema de mensajería para móviles a prueba de ‘hackers’
Hermes Security Communication, una empresa española dedicada al desarrollo de tecnologías para moviles, ha desarrollado una solución de mensajería instantánea encriptada que evita todo tipo de intrusiones, intercepciones o robos de datos. El sistema, denominado Hermes, "hace los mensajes indescifrables y proporciona un intercambio de información totalmente seguro", según explica Miguel Ángel Lobato, director de Operaciones de la firma.
“Las apps de mensajería utilizadas mayoritariamente en la actualidad son vulnerables ante ataques que comprometen la privacidad del usuario. Algunas permiten borrar los mensajes, o mantienen las conversaciones en privado durante un tiempo determinado, pero todas ellas están expuestas ante intercepciones, como vemos a diario en los medios", añade Lobato.
Hermes, en cambio, no es una app –aclara Lobato– “es un canal de comunicación seguro, que se adquiere bajo licencia”.
El equipo de ingenieros españoles de Hermes Security Communication ha dedicado más de dos años a desarrollar este sistema, "muy sofisticado en su tecnología, ya que aplica una encriptación de 4096 bytes, cuatro veces de lo que utiliza, por ejemplo, el DNI electrónico, pero muy sencillo de utilizar. Su uso en apariencia es similar al de sistemas de este tipo como Whatsapp o Telegram", indica el directivo.
Hermes utiliza las mismas tecnologías de encriptación que se usan en la actualidad para firmas electrónicas y transacciones financieras, y las pone al alcance no sólo de gobiernos, entidades y profesionales, sino también del público en general, dice Lobato.
Mediante un sistema denominado criptografía asimétrica, reconocido en todo el mundo como el más seguro, el sistema utiliza claves privadas para el emisor y el receptor. Cuando el usuario envía un mensaje, éste es cifrado y encriptado dentro de una imagen a través de un algoritmo esteganográfico que sólo el destinatario podrá descifrar con su clave privada, lo que evita la intercepción de la comunicación en puntos intermedios.
demás, incorpora una serie de características que lo diferencian de cualquier otro sistema de mensajería instantánea. Por ejemplo, las claves no viajan, sino que se generan en el terminal, de forma que no pueden ser hackeadas, y los mensajes no se almacenan, por lo que tampoco será posible acceder a la información atacando un servidor.
Tampoco interactúa con los datos del usuario (agenda, contactos, fotos, calendario…), de forma que tampoco esta información se almacenará en servidores ni en la nube, quedando protegida de una posible intercepción.
La solución funciona con todas las redes inalámbricas y con todos los smartphones y tablets de uso común, incluso sin tarjeta SIM, y no requiere equipos especializados. También es posible transferir la licencia a cualquier otro dispositivo, algo idóneo dada la frecuencia con que se cambia de terminal, indica la empresa.
http://noticiasdelaciencia.com/not/10213/hermes__un_sistema_de_mensajeria_para_moviles_a_prueba_de__lsquo_hackers_rsquo_/
“Las apps de mensajería utilizadas mayoritariamente en la actualidad son vulnerables ante ataques que comprometen la privacidad del usuario. Algunas permiten borrar los mensajes, o mantienen las conversaciones en privado durante un tiempo determinado, pero todas ellas están expuestas ante intercepciones, como vemos a diario en los medios", añade Lobato.
Hermes, en cambio, no es una app –aclara Lobato– “es un canal de comunicación seguro, que se adquiere bajo licencia”.
El equipo de ingenieros españoles de Hermes Security Communication ha dedicado más de dos años a desarrollar este sistema, "muy sofisticado en su tecnología, ya que aplica una encriptación de 4096 bytes, cuatro veces de lo que utiliza, por ejemplo, el DNI electrónico, pero muy sencillo de utilizar. Su uso en apariencia es similar al de sistemas de este tipo como Whatsapp o Telegram", indica el directivo.
Hermes utiliza las mismas tecnologías de encriptación que se usan en la actualidad para firmas electrónicas y transacciones financieras, y las pone al alcance no sólo de gobiernos, entidades y profesionales, sino también del público en general, dice Lobato.
Mediante un sistema denominado criptografía asimétrica, reconocido en todo el mundo como el más seguro, el sistema utiliza claves privadas para el emisor y el receptor. Cuando el usuario envía un mensaje, éste es cifrado y encriptado dentro de una imagen a través de un algoritmo esteganográfico que sólo el destinatario podrá descifrar con su clave privada, lo que evita la intercepción de la comunicación en puntos intermedios.
demás, incorpora una serie de características que lo diferencian de cualquier otro sistema de mensajería instantánea. Por ejemplo, las claves no viajan, sino que se generan en el terminal, de forma que no pueden ser hackeadas, y los mensajes no se almacenan, por lo que tampoco será posible acceder a la información atacando un servidor.
Tampoco interactúa con los datos del usuario (agenda, contactos, fotos, calendario…), de forma que tampoco esta información se almacenará en servidores ni en la nube, quedando protegida de una posible intercepción.
La solución funciona con todas las redes inalámbricas y con todos los smartphones y tablets de uso común, incluso sin tarjeta SIM, y no requiere equipos especializados. También es posible transferir la licencia a cualquier otro dispositivo, algo idóneo dada la frecuencia con que se cambia de terminal, indica la empresa.
http://noticiasdelaciencia.com/not/10213/hermes__un_sistema_de_mensajeria_para_moviles_a_prueba_de__lsquo_hackers_rsquo_/
Los neandertales tenían menor diversidad genética que los humanos actuales
Una investigación, en la que ha participado el Consejo Superior de Investigaciones Científicas (CSIC), en España, ha analiza los exomas –la parte del genoma que codifica para las proteínas– de un denisovano y de tres individuos neandertales de tres regiones diferentes: la cueva de El Sidrón, en Asturias, la cueva de Vindija, en Croacia, y la cueva de Denísova, en Siberia.
“El exoma de los tres neandertales junto con el del individuo de Denísova ha permitido por vez primera identificar los cambios de aminoácidos derivados compartidos por estos homínidos arcaicos y que no ocurren, o lo hacen en muy baja frecuencia, en los humanos actuales. Estos resultados son de gran interés ya que abren la puerta a la identificación de la base genética de los cambios fenotípicos producidos en los procesos evolutivos”, explica el investigador del CSIC Antonio Rosas, del Museo Nacional de Ciencias Naturales.
El estudio aborda por vez primera la identificación de los genes potencialmente responsables de los cambios físicos de los homínidos arcaicos y de los humanos recientes.
La comparación de los exomas fósiles con los de varios humanos modernos de África, Europa y Asia muestra que el linaje común de denisovanos y neandertales acumuló un buen número de mutaciones en los genes que controlan la forma del esqueleto (cara, paladar, occipital, tórax, extremidades, etc.), distribución del pelo,metabolismo y sistema cardiovascular.
“Curiosamente, los cambios que afectan específicamente al linaje de los neandertales, después de su separación con los denisovanos, está en relación con genes incluidos en la categoría de hiperlordosis. Se sabe por estudios de anatomía comparada que los neandertales tenían una curvatura lumbar reducida.
Por el contrario, en el linaje de Homo sapiens, el cambio genético se concentra fundamentalmente en ciertos genes implicados en el comportamiento y en la pigmentación de la piel. En este último caso, las mutaciones detectadas pueden estar relacionadas con las diferencias en la pigmentación de la piel en poblaciones actuales” añade Rosas.
El trabajo también desvela que los neandertales estaban distribuidos en pequeños grupos alejados unos de otros y que esas pequeñas poblaciones locales presentaban ligeras diferencias entre ellas. Esto, apunta el investigador del CSIC, podría deberse a que las relaciones endogámicas dentro de esos pequeños grupos de neandertales pudieron ser más comunes de lo que son en los humanos actuales.
Por último, esta investigación revela que a lo largo del proceso evolutivo, en el linaje sapiens se han producido mutaciones en genes que afectan en el ámbito de la agresividad y de la hiperactividad, aunque aún se desconoce si estos cambios genéticos han incrementado o reducido los niveles de cada una de estas pautas de comportamiento.
“Este estudio supone un importante nexo de unión entre los estudios paleontológicos y los genéticos. Los modelos sobre evolución de la variabilidad morfológica y pautas de cambio fenotípico en el linaje de los neandertales obtienen un importante apoyo directamente de los datos genéticos”, concluye Rosas.
http://noticiasdelaciencia.com/not/10167/los_neandertales_tenian_menor_diversidad_genetica_que_los_humanos_actuales/
“El exoma de los tres neandertales junto con el del individuo de Denísova ha permitido por vez primera identificar los cambios de aminoácidos derivados compartidos por estos homínidos arcaicos y que no ocurren, o lo hacen en muy baja frecuencia, en los humanos actuales. Estos resultados son de gran interés ya que abren la puerta a la identificación de la base genética de los cambios fenotípicos producidos en los procesos evolutivos”, explica el investigador del CSIC Antonio Rosas, del Museo Nacional de Ciencias Naturales.
El estudio aborda por vez primera la identificación de los genes potencialmente responsables de los cambios físicos de los homínidos arcaicos y de los humanos recientes.
La comparación de los exomas fósiles con los de varios humanos modernos de África, Europa y Asia muestra que el linaje común de denisovanos y neandertales acumuló un buen número de mutaciones en los genes que controlan la forma del esqueleto (cara, paladar, occipital, tórax, extremidades, etc.), distribución del pelo,metabolismo y sistema cardiovascular.
“Curiosamente, los cambios que afectan específicamente al linaje de los neandertales, después de su separación con los denisovanos, está en relación con genes incluidos en la categoría de hiperlordosis. Se sabe por estudios de anatomía comparada que los neandertales tenían una curvatura lumbar reducida.
Por el contrario, en el linaje de Homo sapiens, el cambio genético se concentra fundamentalmente en ciertos genes implicados en el comportamiento y en la pigmentación de la piel. En este último caso, las mutaciones detectadas pueden estar relacionadas con las diferencias en la pigmentación de la piel en poblaciones actuales” añade Rosas.
El trabajo también desvela que los neandertales estaban distribuidos en pequeños grupos alejados unos de otros y que esas pequeñas poblaciones locales presentaban ligeras diferencias entre ellas. Esto, apunta el investigador del CSIC, podría deberse a que las relaciones endogámicas dentro de esos pequeños grupos de neandertales pudieron ser más comunes de lo que son en los humanos actuales.
Por último, esta investigación revela que a lo largo del proceso evolutivo, en el linaje sapiens se han producido mutaciones en genes que afectan en el ámbito de la agresividad y de la hiperactividad, aunque aún se desconoce si estos cambios genéticos han incrementado o reducido los niveles de cada una de estas pautas de comportamiento.
“Este estudio supone un importante nexo de unión entre los estudios paleontológicos y los genéticos. Los modelos sobre evolución de la variabilidad morfológica y pautas de cambio fenotípico en el linaje de los neandertales obtienen un importante apoyo directamente de los datos genéticos”, concluye Rosas.
http://noticiasdelaciencia.com/not/10167/los_neandertales_tenian_menor_diversidad_genetica_que_los_humanos_actuales/
Limpieza revolucionaria de mareas negras
Limpiar derrames de petróleo y metales contaminantes sin que el tratamiento de limpieza tenga efectos tóxicos sobre la vida marina, que además sea un método sostenible, y que resulte barato, es un reto que ha venido resultando insuperable para empresas y gobiernos en todo el mundo.
Sin embargo, puede que muy pronto esta situación cambie. Un grupo de investigadores de la Universidad de Wisconsin-Madison en Estados Unidos trabaja en el desarrollo de materiales alternativos a los convencionales, y más ecológicos, para limpiar mareas negras y otros vertidos.
La meta es encontrar materiales baratos que puedan ser modificados de forma también rentable, para permitirles absorber petróleo y otras sustancias químicas sin absorber agua. Ya se han logrado algunos muy buenos. Si esta línea de investigación y desarrollo prospera como se espera, y, en principio, no hay motivo para suponer que no será así, esta nueva y revolucionaria tecnología podría ofrecer una vía mucho más barata y sostenible para absorber petróleo y algunas otras sustancias del agua y sobre otras superficies.
Los aerogeles, que son materiales muy porosos y los sólidos más livianos que existen, ya se usan para diversas aplicaciones, que van desde funciones aislantes hasta su uso como espesantes para pinturas, pasando por su utilización en algunos componentes empleados en el sector aeroespacial.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
http://noticiasdelaciencia.com/not/10102/limpieza_revolucionaria_de_mareas_negras/
Sin embargo, puede que muy pronto esta situación cambie. Un grupo de investigadores de la Universidad de Wisconsin-Madison en Estados Unidos trabaja en el desarrollo de materiales alternativos a los convencionales, y más ecológicos, para limpiar mareas negras y otros vertidos.
La meta es encontrar materiales baratos que puedan ser modificados de forma también rentable, para permitirles absorber petróleo y otras sustancias químicas sin absorber agua. Ya se han logrado algunos muy buenos. Si esta línea de investigación y desarrollo prospera como se espera, y, en principio, no hay motivo para suponer que no será así, esta nueva y revolucionaria tecnología podría ofrecer una vía mucho más barata y sostenible para absorber petróleo y algunas otras sustancias del agua y sobre otras superficies.
Los aerogeles, que son materiales muy porosos y los sólidos más livianos que existen, ya se usan para diversas aplicaciones, que van desde funciones aislantes hasta su uso como espesantes para pinturas, pasando por su utilización en algunos componentes empleados en el sector aeroespacial.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
http://noticiasdelaciencia.com/not/10102/limpieza_revolucionaria_de_mareas_negras/
Resuelto el misterio de la supernova superluminosa
En 2010 se descubrió la existencia de PS1-10afx, la supernova o explosión estelar más luminosa de su clase. En 2013 se informó a la comunidad científica internacional y desde entonces ha habido una fuerte controversia sobre el origen de su brillo excepcional –30 veces más de lo previsto– y ha llevado al planteamento de dos hipótesis.
Por una parte, algunos investigadores concluyeron que se trataba de un nuevo tipo de supernova extrabrillante desconocida hasta la fecha. Sin embargo, otro grupo sostenía que era una supernova normal del tipo Ia –con líneas de absorción características para elementos como el silicio–, pero magnificada por una lente gravitacional como un agujero negro u otro objeto supermasivo cercano.
Esta segunda hipótesis es la correcta, de acuerdo al estudio que investigadores del Instituto Kavli de la universidad japonesa de Tokio publican en la revista Science. “El equipo que la descubrió propuso que era un tipo de supernova no predicha por la teoría, pero observamos que PS1-10afx era diferente cada día, que evolucionaba demasiado rápido y se hacía cada vez más roja”, comenta Robert Quimby, el autor principal.
Esto les hizo pensar en la presencia de la lente gravitacional, una especie de gigantesca lupa que se genera cuando la luz procedente de un cuerpo lejano se curva alrededor de otro más próximo y masivo –como una galaxia– situado entre el emisor y el receptor, la Tierra en este caso.
“Pensamos que el brillo excepcional de la supernova se genera por una lente asociada, pero no teníamos ninguna evidencia directa sobre su presencia, así que la explicación parecía que requería un poco de magia”, bromea Quimby, “una nueva física o lupa que no se ve ".
Los investigadores sospechaban que ese objeto intermedio debía seguir ahí aunque la supernova ya se hubiera desvanecido, así que para confirmar su existencia utilizaron los datos espectroscópicos facilitados por el telescopio Keck-I en Hawái (EE UU) para analizar las galaxias próximas a la supernova.
Si estaba en medio otro objeto durante la brillante explosión de PS1-10afx se esperarían ver dos juegos de líneas de emisión de gases en el espectro, y eso es justo lo que encontraron. De esta forma el equipo dedujo que hay otra galaxia justo en frente, en el ángulo correcto y la distancia justa para amplificar la luz de la supernova.
La lente gravitacional identificada es la primera con que se asocia firmemente a una supernova de tipo Ia, y según los autores, se perdió su rastro en los estudios anteriores debido a la potente luz de la explosión estelar.
Como el comportamiento de esta clase de supernovas sirve a los científicos para medir las distancias a galaxias remotas, el nuevo hallazgo también les puede servir de referencia para utilizar los futuros eventos de supernovas con lente en la medición de la expansión cósmica.
http://noticiasdelaciencia.com/not/10200/resuelto_el_misterio_de_la_supernova_superluminosa/
Por una parte, algunos investigadores concluyeron que se trataba de un nuevo tipo de supernova extrabrillante desconocida hasta la fecha. Sin embargo, otro grupo sostenía que era una supernova normal del tipo Ia –con líneas de absorción características para elementos como el silicio–, pero magnificada por una lente gravitacional como un agujero negro u otro objeto supermasivo cercano.
Esta segunda hipótesis es la correcta, de acuerdo al estudio que investigadores del Instituto Kavli de la universidad japonesa de Tokio publican en la revista Science. “El equipo que la descubrió propuso que era un tipo de supernova no predicha por la teoría, pero observamos que PS1-10afx era diferente cada día, que evolucionaba demasiado rápido y se hacía cada vez más roja”, comenta Robert Quimby, el autor principal.
Esto les hizo pensar en la presencia de la lente gravitacional, una especie de gigantesca lupa que se genera cuando la luz procedente de un cuerpo lejano se curva alrededor de otro más próximo y masivo –como una galaxia– situado entre el emisor y el receptor, la Tierra en este caso.
“Pensamos que el brillo excepcional de la supernova se genera por una lente asociada, pero no teníamos ninguna evidencia directa sobre su presencia, así que la explicación parecía que requería un poco de magia”, bromea Quimby, “una nueva física o lupa que no se ve ".
Los investigadores sospechaban que ese objeto intermedio debía seguir ahí aunque la supernova ya se hubiera desvanecido, así que para confirmar su existencia utilizaron los datos espectroscópicos facilitados por el telescopio Keck-I en Hawái (EE UU) para analizar las galaxias próximas a la supernova.
Si estaba en medio otro objeto durante la brillante explosión de PS1-10afx se esperarían ver dos juegos de líneas de emisión de gases en el espectro, y eso es justo lo que encontraron. De esta forma el equipo dedujo que hay otra galaxia justo en frente, en el ángulo correcto y la distancia justa para amplificar la luz de la supernova.
La lente gravitacional identificada es la primera con que se asocia firmemente a una supernova de tipo Ia, y según los autores, se perdió su rastro en los estudios anteriores debido a la potente luz de la explosión estelar.
Como el comportamiento de esta clase de supernovas sirve a los científicos para medir las distancias a galaxias remotas, el nuevo hallazgo también les puede servir de referencia para utilizar los futuros eventos de supernovas con lente en la medición de la expansión cósmica.
http://noticiasdelaciencia.com/not/10200/resuelto_el_misterio_de_la_supernova_superluminosa/
domingo, 20 de abril de 2014
España lidera un test barato para detectar enfermedades del feto en la sangre materna
Jesús Miguel Ruano López, un investigador del centro tecnológico IK4-Ikerlan (Mondragón, Guipúzcoa, España), es el coordinador del proyecto europeo AngeLab. Tiene el reto de desarrollar una tecnología que abarate el diagnóstico de enfermedades genéticas del feto utilizando solo unas pocas gotas de sangre materna. Para lograr su objetivo, se basa en los nuevos laboratorios en miniatura integrados en un chip.
Según explica Ruano a Sinc, AngeLab es un proyecto de cuatro años de duración que se inició en octubre de 2012, dentro del VII Programa Marco de I+D de la UE. Cuenta con un presupuesto global de 11 millones de euros, financiado en un 75% por la Unión Europea, y el resto por el consorcio que está integrado por 15 firmas de sectores como biotecnología, e ingeniería microelectrónica y varios hospitales.
Parte del conocimiento de las herramientas de lab on a chip que se está empleando en el desarrollo de AngeLab, se adquirió en un proyecto europeo previo, también liderado por Ruano, llamado Labonfoil, que finalizó el pasado año y produjo cuatro prototipos que están “prácticamente listos para su comercialización”, destaca.
Estos prototipos consistieron en un parche para detectar en el sudor de la piel el consumo de cocaína y tres tipos de tarjetas inteligentes que se introducen en un pequeño lector portátil y que llevan en su interior determinados reactivos para identificar patógenos en los alimentos, monitorizar el cáncer de colon en la sangre de enfermos y detectar la contaminación ambiental mediante el análisis de las algas marinas.
“Uno de los valores añadidos de Labonfoil es que aprendimos a automatizar y simplificar la detección de ADN y proteínas, que son los grandes fundamentos de la biología molecular, mediante el desarrollo de estas tarjetas inteligentes que son en realidad laboratorios miniaturizados. Esto permite localizar multitud de enfermedades, lo que ha abierto la puerta a un gran número de posibilidades”, señala este doctor en Microelectrónica por la Universidad de Glasgow.
Ahora, los socios de AngeLab están conjugando “los mejores conocimientos sobre diagnóstico prenatal no invasivo en probeta con los últimos avances en miniaturización de laboratorio en un chip para revolucionar este tipo de diagnóstico”, según el investigador español.
Actualmente, coexisten técnicas como la amniocentesis, “que son invasivas y conllevan un riesgo para el feto, con otras más recientes como los test de cribado de ADN fetal en sangre materna, que comercializan ya algunas empresas en nuestro país a un precio que oscila entre los 700 y 800 euros”, dice el coordinador.
Además, señala, estos programas de cribado de síndrome de Down no proporcionan un índice de certeza, sino que intentan identificar aquellos embarazos con riesgo de alteración cromosómica para limitar el número de amniocentesis o biopsias de vellosidad corial, por el riesgo que entrañan.
El sistema que se está desarrollando en AngeLab será capaz de detectar el ADN fetal en pequeñas muestras de sangre materna de forma rápida, no invasiva y con menor coste. Según los cálculos de Ruano, el precio del nuevo test estará entre 100 y 200 euros”.
El investigador explica que “desde la séptima semana de embarazo ya hay aproximadamente un 7% de ADN del feto circulando en la sangre de la madre. Lo que estamos haciendo en este proyecto es perfeccionar la tecnología de microfluidos que desarrollamos con Labonfoil, que permitirá hacer una extracción sencilla y automatizada de este ADN para posteriormente hacer el análisis genético y diagnosticar si el futuro bebé padece ciertas enfermedades”.
Ruano insiste en que los test de cribado de ADN fetal, “además de ser muy caros, no ofrecen un diagnóstico, que es lo que nosotros queremos lograr. La diferencia de nuestra tecnología es que será capaz de seleccionar ese ADN fetal circulante porque está metilado de forma diferente al de la madre”.
Mediante las herramientas que se están desarrollando con AngeLab “seremos capaces de diagnosticar no solo las enfermedades trisómicas como el síndrome de Down, sino que también podremos detectar y diagnosticar otras como la fibrosis quística”, subraya.
El proyecto finalizará en 2016 con un plan de producción piloto del nuevo dispositivo de tecnología de lab on a chip, que será verificada por los centros de investigación participantes.
Además, está previsto validar técnicamente su funcionamiento con pacientes mediante más de 400 pruebas diagnósticas en los hospitales universitarios de Donostia y de Basurto, indica el coordinador.
Jesús Miguel Ruano López asegura que, aunque durante el proyecto se realizará una fase previa de explotación, el proceso de industrialización podrá comenzar entre dos y cuatro años tras su finalización en 2016.
http://noticiasdelaciencia.com/not/10151/espana_lidera_un_test_barato_para_detectar_enfermedades_del_feto_en_la_sangre_materna/
Según explica Ruano a Sinc, AngeLab es un proyecto de cuatro años de duración que se inició en octubre de 2012, dentro del VII Programa Marco de I+D de la UE. Cuenta con un presupuesto global de 11 millones de euros, financiado en un 75% por la Unión Europea, y el resto por el consorcio que está integrado por 15 firmas de sectores como biotecnología, e ingeniería microelectrónica y varios hospitales.
Parte del conocimiento de las herramientas de lab on a chip que se está empleando en el desarrollo de AngeLab, se adquirió en un proyecto europeo previo, también liderado por Ruano, llamado Labonfoil, que finalizó el pasado año y produjo cuatro prototipos que están “prácticamente listos para su comercialización”, destaca.
Estos prototipos consistieron en un parche para detectar en el sudor de la piel el consumo de cocaína y tres tipos de tarjetas inteligentes que se introducen en un pequeño lector portátil y que llevan en su interior determinados reactivos para identificar patógenos en los alimentos, monitorizar el cáncer de colon en la sangre de enfermos y detectar la contaminación ambiental mediante el análisis de las algas marinas.
“Uno de los valores añadidos de Labonfoil es que aprendimos a automatizar y simplificar la detección de ADN y proteínas, que son los grandes fundamentos de la biología molecular, mediante el desarrollo de estas tarjetas inteligentes que son en realidad laboratorios miniaturizados. Esto permite localizar multitud de enfermedades, lo que ha abierto la puerta a un gran número de posibilidades”, señala este doctor en Microelectrónica por la Universidad de Glasgow.
Ahora, los socios de AngeLab están conjugando “los mejores conocimientos sobre diagnóstico prenatal no invasivo en probeta con los últimos avances en miniaturización de laboratorio en un chip para revolucionar este tipo de diagnóstico”, según el investigador español.
Actualmente, coexisten técnicas como la amniocentesis, “que son invasivas y conllevan un riesgo para el feto, con otras más recientes como los test de cribado de ADN fetal en sangre materna, que comercializan ya algunas empresas en nuestro país a un precio que oscila entre los 700 y 800 euros”, dice el coordinador.
Además, señala, estos programas de cribado de síndrome de Down no proporcionan un índice de certeza, sino que intentan identificar aquellos embarazos con riesgo de alteración cromosómica para limitar el número de amniocentesis o biopsias de vellosidad corial, por el riesgo que entrañan.
El sistema que se está desarrollando en AngeLab será capaz de detectar el ADN fetal en pequeñas muestras de sangre materna de forma rápida, no invasiva y con menor coste. Según los cálculos de Ruano, el precio del nuevo test estará entre 100 y 200 euros”.
El investigador explica que “desde la séptima semana de embarazo ya hay aproximadamente un 7% de ADN del feto circulando en la sangre de la madre. Lo que estamos haciendo en este proyecto es perfeccionar la tecnología de microfluidos que desarrollamos con Labonfoil, que permitirá hacer una extracción sencilla y automatizada de este ADN para posteriormente hacer el análisis genético y diagnosticar si el futuro bebé padece ciertas enfermedades”.
Ruano insiste en que los test de cribado de ADN fetal, “además de ser muy caros, no ofrecen un diagnóstico, que es lo que nosotros queremos lograr. La diferencia de nuestra tecnología es que será capaz de seleccionar ese ADN fetal circulante porque está metilado de forma diferente al de la madre”.
Mediante las herramientas que se están desarrollando con AngeLab “seremos capaces de diagnosticar no solo las enfermedades trisómicas como el síndrome de Down, sino que también podremos detectar y diagnosticar otras como la fibrosis quística”, subraya.
El proyecto finalizará en 2016 con un plan de producción piloto del nuevo dispositivo de tecnología de lab on a chip, que será verificada por los centros de investigación participantes.
Además, está previsto validar técnicamente su funcionamiento con pacientes mediante más de 400 pruebas diagnósticas en los hospitales universitarios de Donostia y de Basurto, indica el coordinador.
Jesús Miguel Ruano López asegura que, aunque durante el proyecto se realizará una fase previa de explotación, el proceso de industrialización podrá comenzar entre dos y cuatro años tras su finalización en 2016.
http://noticiasdelaciencia.com/not/10151/espana_lidera_un_test_barato_para_detectar_enfermedades_del_feto_en_la_sangre_materna/
Logran atraer a células cancerosas hacia un sitio idóneo donde matarlas
Un factor que caracteriza al glioblastoma como un cáncer difícil de tratar, es que las células malignas del tumor se distribuyen por todo el cerebro a través de las fibras nerviosas y conductos sanguíneos, invadiendo nuevos lugares. Ahora, unos investigadores han averiguado un modo de apoderarse del control de este mecanismo migratorio, para usarlo en contra del mismo cáncer, empleando una capa de nanofibras más delgada que el cabello humano, para atraer a las células tumorales hacia una trampa mortal en el exterior del cerebro.
Con esta nueva técnica, en lugar de invadir nuevas áreas, las células migratorias centran su atención en las nanofibras especialmente diseñadas y las siguen hasta llegar a una zona, idealmente fuera del cerebro, en la cual pueden ser retenidas y exterminadas.
Usando esta técnica desarrollada por científicos del Instituto Tecnológico de Georgia (Georgia Tech) y la Universidad Emory, ambas instituciones en la ciudad estadounidense de Atlanta, es posible desplazar parcialmente tumores desde lugares inoperables hasta zonas más accesibles.
Aunque la técnica de por sí no elimina el cáncer, sí puede al menos reducir el tamaño de tumores en su ubicación cerebral, al hacer que bastantes células tumorales se marchen de ese sitio.
Las nanofibras, hechas de una película polimérica ultradelgada, se asemejan a la estructura de nervios y vasos sanguíneos que las células tumorales del cerebro emplean normalmente para invadir otras partes del órgano. Las células cancerosas normalmente se posicionan sobre estas estructuras naturales y se desplazan a lo largo de ellas como trenes por una vía, esperando así llegar a otras partes del cerebro. En el caso de las nanofibras, éstas conducen a las células tumorales hacia una emboscada en vez de hacia nuevas partes del cerebro donde poder prosperar.
La ingeniosa técnica para engañar a estas células cancerosas es obra del equipo de Ravi Bellamkonda y S. Balakrishna Pai. Entre los pasos previstos en esta prometedora línea de investigación figura el poner a prueba la técnica con otras formas de cáncer cerebral y otros tipos de cáncer en general que sean difíciles de extirpar.
Sin embargo, antes de que la técnica pueda ser utilizada en los seres humanos, tendrá que someterse a extensas pruebas a fin de poder ser aprobada por las autoridades sanitarias.
http://noticiasdelaciencia.com/not/10128/logran_atraer_a_celulas_cancerosas_hacia_un_sitio_idoneo_donde_matarlas/
Con esta nueva técnica, en lugar de invadir nuevas áreas, las células migratorias centran su atención en las nanofibras especialmente diseñadas y las siguen hasta llegar a una zona, idealmente fuera del cerebro, en la cual pueden ser retenidas y exterminadas.
Usando esta técnica desarrollada por científicos del Instituto Tecnológico de Georgia (Georgia Tech) y la Universidad Emory, ambas instituciones en la ciudad estadounidense de Atlanta, es posible desplazar parcialmente tumores desde lugares inoperables hasta zonas más accesibles.
Aunque la técnica de por sí no elimina el cáncer, sí puede al menos reducir el tamaño de tumores en su ubicación cerebral, al hacer que bastantes células tumorales se marchen de ese sitio.
Las nanofibras, hechas de una película polimérica ultradelgada, se asemejan a la estructura de nervios y vasos sanguíneos que las células tumorales del cerebro emplean normalmente para invadir otras partes del órgano. Las células cancerosas normalmente se posicionan sobre estas estructuras naturales y se desplazan a lo largo de ellas como trenes por una vía, esperando así llegar a otras partes del cerebro. En el caso de las nanofibras, éstas conducen a las células tumorales hacia una emboscada en vez de hacia nuevas partes del cerebro donde poder prosperar.
La ingeniosa técnica para engañar a estas células cancerosas es obra del equipo de Ravi Bellamkonda y S. Balakrishna Pai. Entre los pasos previstos en esta prometedora línea de investigación figura el poner a prueba la técnica con otras formas de cáncer cerebral y otros tipos de cáncer en general que sean difíciles de extirpar.
Sin embargo, antes de que la técnica pueda ser utilizada en los seres humanos, tendrá que someterse a extensas pruebas a fin de poder ser aprobada por las autoridades sanitarias.
http://noticiasdelaciencia.com/not/10128/logran_atraer_a_celulas_cancerosas_hacia_un_sitio_idoneo_donde_matarlas/
Un niño Down y su gemelo sano desvelan la clave genética del síndrome
A pesar de numerosas investigaciones, el mecanismo exacto responsable de los síntomas del síndrome de Down sigue sin entenderse por completo. Esta trisomía en el cromosoma 21 es la causa genética de discapacidad intelectual más frecuente, con una incidencia de uno entre 800 nacimientos.
Un nuevo trabajo, publicado en la última edición de la revista Nature, ha comparado un par de gemelos humanos idénticos, en los que solo uno de ellos tiene síndrome de Down, y revela un ‘aplanamiento’ de los niveles de expresión génica de todo el genoma en el individuo afectado. Es decir, en este caso la expresión de los genes está alterada a través de cada cromosoma, no solo el 21.
Para los autores, liderados por la Universidad de Ginebra (UNIGE), esto implica que la expresión de genes en cualquier cromosoma puede contribuir al síndrome de Down, por lo que una copia extra de cualquiera de ellos puede alterar la regulación de genes.
Es rarísimo que un niño tenga trisomía en el cromosoma 21 y su gemelo monocigótico no. Esto solo sucede en uno de cada 385.000 casos. Al comparar un individuo con Down y otro sin el síndrome que no están relacionados genéticamente, no es posible observar los cambios en la expresión de los genes. Por eso, para la ciencia, observar a los dos hermanos de este estudio es un privilegio. “Entre los dos gemelos idénticos, lo único que cambia es la trisomía”, explica a Sinc Mara Dierssen, investigadora en el departamento de Biología de Sistemas en el centro de Regulación Genómica (CRG) (España). “De ahí que sean un modelo genial para estudiar por qué se producen estas diferencias”.
Este nuevo descubrimiento va en contra de la hipótesis del desequilibrio de la dosis génica, que postula que la presencia de un tercer cromosoma 21 puede influir en la expresión de otros genes, es decir, que el material genético extra puede interrumpir la descodificación de la información en los genes y modificar las funciones celulares.
Basados en esta conjetura, varios grupos de investigación han intentado, sin éxito hasta el momento, identificar los cambios en la expresión génica en las células con trisomía y relacionarlos con los síntomas de los pacientes. Como la expresión de los genes es diferente en cada persona, resulta muy difícil discernir entre los cambios exclusivamente relacionados con la trisomía 21 y aquellos debidos a la variación natural que existe entre individuos.
Los cromosomas están divididos en dominios que contienen genes con una similar producción de ARN, la molécula encargada de transmitir la información del ADN. En el caso del gemelo con trisomía 21, los dominios se expresaban a veces mucho y otras poco, en comparación con el gemelo sano. Según los expertos, el error en esta distribución del cromosoma 21 puede tener lugar durante las etapas más tempranas de las primeras divisiones celulares, justo después de que el óvulo fertilizado se divida en dos.
Para comparar los diferentes niveles de expresión génica entre los gemelos, los investigadores utilizaron modernas herramientas biotecnológicas, como por ejemplo las técnicas de secuenciación de alto rendimiento, en colaboración con diversos laboratorios de Estrasburgo, Seattle, Ámsterdam y la participación del Centro de Regulación Genómica (CRG) en Barcelona. De esta manera fueron capaces de eliminar el efecto de las variaciones entre los individuos e identificar aquellos cambios ocasionados exclusivamente por la trisomía 21.
La expresión de los genes localizados en otros cromosomas era bastante diferente en las células trisómicas. "Este resultado fue una verdadera sorpresa; esto sugiere que un pequeño cromosoma tiene una gran influencia en el resto del genoma", afirma Audrey Letourneau, primera autora del estudio.
Al comparar los resultados obtenidos con datos de otras investigaciones, los científicos encontraron que la organización del cromosoma 21 se correlaciona con la posición del ADN en el núcleo de la célula. Así, los dominios sobreexpresados en el gemelo con trisomía corresponden con las regiones del ADN que se sabe son las primeras en interactuar con la periferia del núcleo.
El estudio muestra por primera vez que la posición del ADN en el núcleo, o las características bioquímicas de las interacciones entre ADN y proteínas en las células con trisomía, se modifica ocasionando cambios en los patrones de expresión génica.
Federico Santoni, coautor del estudio, agrega que estos cambios "no ocurren solo en el cromosoma 21, sino en todo el genoma. La presencia de solo un 1% de material cromosómico extra modifica la función de todos el genoma e interrumpe el equilibrio de la expresión de los genes".
"Si pudiéramos hacer una analogía con el cambio climático, solo con que la temperatura del planeta aumente en 1 o 2 grados en los trópicos lloverá mucho menos y en las zonas templadas mucho más. El equilibrio completo del clima en el planeta puede ser modificado por un elemento muy pequeño", añade Stylianos Antonarakis, director del laboratorio de la UNIGE.
El trabajo abre nuevas vías para entender los mecanismos moleculares que explican el síndrome de Down. La gran cantidad de datos obtenidos con las nuevas técnicas de secuenciación ofrece muchas posibilidades para los científicos. "Este avance ha sido posible en gran medida por el gran desarrollo de las técnicas de análisis genómico, que nos permiten estudiar la actividad del genoma con una gran resolución", añade Roderic Guigó, coautor del estudio y jefe del grupo de Biología Computacional del Procesamiento del RNA del CRG.
David González, coautor del estudio, afirma que "nuestro rol fue el análisis bioinformático de los datos de secuenciación de ARN de las diferentes muestras del estudio, con el objeto de determinar los niveles de expresión de los diferentes genes en cada una de ellas".
Los investigadores de UNIGE continuarán investigando los mecanismos moleculares implicados y cómo está relacionada la expresión génica con los fenotipos del síndrome de Down. El objetivo es encontrar la forma de revertir las desregulación de la expresión génica a su estado normal para así corregir los errores producidos por esta enfermedad. Además, para los autores, conocer esto podrá ser de gran beneficio para el estudio de otras enfermedades que también presenten un desequilibrio en el balance genético.
http://noticiasdelaciencia.com/not/10131/un_nino_down_y_su_gemelo_sano_desvelan_la_clave_genetica_del_sindrome/
Un nuevo trabajo, publicado en la última edición de la revista Nature, ha comparado un par de gemelos humanos idénticos, en los que solo uno de ellos tiene síndrome de Down, y revela un ‘aplanamiento’ de los niveles de expresión génica de todo el genoma en el individuo afectado. Es decir, en este caso la expresión de los genes está alterada a través de cada cromosoma, no solo el 21.
Para los autores, liderados por la Universidad de Ginebra (UNIGE), esto implica que la expresión de genes en cualquier cromosoma puede contribuir al síndrome de Down, por lo que una copia extra de cualquiera de ellos puede alterar la regulación de genes.
Es rarísimo que un niño tenga trisomía en el cromosoma 21 y su gemelo monocigótico no. Esto solo sucede en uno de cada 385.000 casos. Al comparar un individuo con Down y otro sin el síndrome que no están relacionados genéticamente, no es posible observar los cambios en la expresión de los genes. Por eso, para la ciencia, observar a los dos hermanos de este estudio es un privilegio. “Entre los dos gemelos idénticos, lo único que cambia es la trisomía”, explica a Sinc Mara Dierssen, investigadora en el departamento de Biología de Sistemas en el centro de Regulación Genómica (CRG) (España). “De ahí que sean un modelo genial para estudiar por qué se producen estas diferencias”.
Este nuevo descubrimiento va en contra de la hipótesis del desequilibrio de la dosis génica, que postula que la presencia de un tercer cromosoma 21 puede influir en la expresión de otros genes, es decir, que el material genético extra puede interrumpir la descodificación de la información en los genes y modificar las funciones celulares.
Basados en esta conjetura, varios grupos de investigación han intentado, sin éxito hasta el momento, identificar los cambios en la expresión génica en las células con trisomía y relacionarlos con los síntomas de los pacientes. Como la expresión de los genes es diferente en cada persona, resulta muy difícil discernir entre los cambios exclusivamente relacionados con la trisomía 21 y aquellos debidos a la variación natural que existe entre individuos.
Los cromosomas están divididos en dominios que contienen genes con una similar producción de ARN, la molécula encargada de transmitir la información del ADN. En el caso del gemelo con trisomía 21, los dominios se expresaban a veces mucho y otras poco, en comparación con el gemelo sano. Según los expertos, el error en esta distribución del cromosoma 21 puede tener lugar durante las etapas más tempranas de las primeras divisiones celulares, justo después de que el óvulo fertilizado se divida en dos.
Para comparar los diferentes niveles de expresión génica entre los gemelos, los investigadores utilizaron modernas herramientas biotecnológicas, como por ejemplo las técnicas de secuenciación de alto rendimiento, en colaboración con diversos laboratorios de Estrasburgo, Seattle, Ámsterdam y la participación del Centro de Regulación Genómica (CRG) en Barcelona. De esta manera fueron capaces de eliminar el efecto de las variaciones entre los individuos e identificar aquellos cambios ocasionados exclusivamente por la trisomía 21.
La expresión de los genes localizados en otros cromosomas era bastante diferente en las células trisómicas. "Este resultado fue una verdadera sorpresa; esto sugiere que un pequeño cromosoma tiene una gran influencia en el resto del genoma", afirma Audrey Letourneau, primera autora del estudio.
Al comparar los resultados obtenidos con datos de otras investigaciones, los científicos encontraron que la organización del cromosoma 21 se correlaciona con la posición del ADN en el núcleo de la célula. Así, los dominios sobreexpresados en el gemelo con trisomía corresponden con las regiones del ADN que se sabe son las primeras en interactuar con la periferia del núcleo.
El estudio muestra por primera vez que la posición del ADN en el núcleo, o las características bioquímicas de las interacciones entre ADN y proteínas en las células con trisomía, se modifica ocasionando cambios en los patrones de expresión génica.
Federico Santoni, coautor del estudio, agrega que estos cambios "no ocurren solo en el cromosoma 21, sino en todo el genoma. La presencia de solo un 1% de material cromosómico extra modifica la función de todos el genoma e interrumpe el equilibrio de la expresión de los genes".
"Si pudiéramos hacer una analogía con el cambio climático, solo con que la temperatura del planeta aumente en 1 o 2 grados en los trópicos lloverá mucho menos y en las zonas templadas mucho más. El equilibrio completo del clima en el planeta puede ser modificado por un elemento muy pequeño", añade Stylianos Antonarakis, director del laboratorio de la UNIGE.
El trabajo abre nuevas vías para entender los mecanismos moleculares que explican el síndrome de Down. La gran cantidad de datos obtenidos con las nuevas técnicas de secuenciación ofrece muchas posibilidades para los científicos. "Este avance ha sido posible en gran medida por el gran desarrollo de las técnicas de análisis genómico, que nos permiten estudiar la actividad del genoma con una gran resolución", añade Roderic Guigó, coautor del estudio y jefe del grupo de Biología Computacional del Procesamiento del RNA del CRG.
David González, coautor del estudio, afirma que "nuestro rol fue el análisis bioinformático de los datos de secuenciación de ARN de las diferentes muestras del estudio, con el objeto de determinar los niveles de expresión de los diferentes genes en cada una de ellas".
Los investigadores de UNIGE continuarán investigando los mecanismos moleculares implicados y cómo está relacionada la expresión génica con los fenotipos del síndrome de Down. El objetivo es encontrar la forma de revertir las desregulación de la expresión génica a su estado normal para así corregir los errores producidos por esta enfermedad. Además, para los autores, conocer esto podrá ser de gran beneficio para el estudio de otras enfermedades que también presenten un desequilibrio en el balance genético.
http://noticiasdelaciencia.com/not/10131/un_nino_down_y_su_gemelo_sano_desvelan_la_clave_genetica_del_sindrome/
La deforestación de la Cuenca del Congo intensificará el cambio climático en la región
Hacia el año 2050, la deforestación por sí sola podría causar un incremento de 0,7 grados centígrados en las temperaturas de la Cuenca del Congo.
Ésta es la conclusión a la que se ha llegado en un estudio hecho por especialistas de la Universidad de Lovaina en Bélgica.
Un crecimiento explosivo de la población y unas prácticas agrícolas ineficientes son lo que está causando la destrucción a gran escala de las selvas tropicales en África Central.
Tom Akkermans, Wim Thiery y Nicole P. M. Van Lipzig examinaron cómo estas prácticas afectarán a las temperaturas a largo plazo en la región. Utilizando un modelo informático sofisticado, pronosticaron las temperaturas de la Cuenca del Congo en el año 2050. Los resultados indican que, como resultado de las emisiones globales de gases con efecto invernadero, el África Central de ese año será en promedio 1,4 grados centígrados más cálida que en la actualidad, mientras que la deforestación añadirá esa cantidad extra de 0,7 grados centígrados al calentamiento.
Los resultados también muestran una fuerte correlación espacial entre la deforestación y el calentamiento global. En ciertos “puntos calientes” de deforestación, los incrementos causados por ella podrían ser de hasta 1,25 grados centígrados, a sumar al calentamiento causado por los gases de efecto invernadero. Tales aumentos drásticos de la temperatura echarán de las zonas a especies vegetales y animales, e incluso podrían poner a algunas en riesgo de extinción, tal como advierten los investigadores.
El calentamiento inducido por la deforestación pronosticado mediante el modelo puede atribuirse en gran parte a una reducción en la evaporación. Una vez que la deforestación ha acabado con una selva, la energía solar que de otra forma les sirve a las tierras selváticas para evaporar agua, pasa a acumularse cerca de la superficie de la Tierra, haciendo que la atmósfera se caliente.
Esta evaporación reducida también amenaza a los niveles de precipitación en la región. Sin embargo, debido a las complejidades de la circulación del aire y de la formación de nubes, el nexo de unión entre el patrón espacial de cambio y el patrón de deforestación es menos pronunciado.
http://noticiasdelaciencia.com/not/10135/la_deforestacion_de_la_cuenca_del_congo_intensificara_el_cambio_climatico_en_la_region/
Ésta es la conclusión a la que se ha llegado en un estudio hecho por especialistas de la Universidad de Lovaina en Bélgica.
Un crecimiento explosivo de la población y unas prácticas agrícolas ineficientes son lo que está causando la destrucción a gran escala de las selvas tropicales en África Central.
Tom Akkermans, Wim Thiery y Nicole P. M. Van Lipzig examinaron cómo estas prácticas afectarán a las temperaturas a largo plazo en la región. Utilizando un modelo informático sofisticado, pronosticaron las temperaturas de la Cuenca del Congo en el año 2050. Los resultados indican que, como resultado de las emisiones globales de gases con efecto invernadero, el África Central de ese año será en promedio 1,4 grados centígrados más cálida que en la actualidad, mientras que la deforestación añadirá esa cantidad extra de 0,7 grados centígrados al calentamiento.
Los resultados también muestran una fuerte correlación espacial entre la deforestación y el calentamiento global. En ciertos “puntos calientes” de deforestación, los incrementos causados por ella podrían ser de hasta 1,25 grados centígrados, a sumar al calentamiento causado por los gases de efecto invernadero. Tales aumentos drásticos de la temperatura echarán de las zonas a especies vegetales y animales, e incluso podrían poner a algunas en riesgo de extinción, tal como advierten los investigadores.
El calentamiento inducido por la deforestación pronosticado mediante el modelo puede atribuirse en gran parte a una reducción en la evaporación. Una vez que la deforestación ha acabado con una selva, la energía solar que de otra forma les sirve a las tierras selváticas para evaporar agua, pasa a acumularse cerca de la superficie de la Tierra, haciendo que la atmósfera se caliente.
Esta evaporación reducida también amenaza a los niveles de precipitación en la región. Sin embargo, debido a las complejidades de la circulación del aire y de la formación de nubes, el nexo de unión entre el patrón espacial de cambio y el patrón de deforestación es menos pronunciado.
http://noticiasdelaciencia.com/not/10135/la_deforestacion_de_la_cuenca_del_congo_intensificara_el_cambio_climatico_en_la_region/
Una pequeña conexión con grandes implicaciones: hacia una nueva electrónica basada en el carbono
Las nanoestructuras basadas en carbono ofrecen propiedades nanomecánicas y nanoelectrónicas únicas en cualquiera de sus formas, tales como nanotubos, láminas de grafeno y nanocintas. Estos materiales ordenados en la nano-escala, es decir, en la dimensión de una millonésima de milimetro, son firmes candidatos para formar la base de muchos nano-dispositivos, y su aplicación se viene anunciando tanto en el campo de la conversión de energía como en el de transistores nano-electrónicos. Para el buen funcionamiento de estos nano-dispositivos, una buena conexión con el cableado eléctrico es crucial, y es en este aspecto donde investigadores del UPV/EHU, DIPC y CNRS, en España, han hecho avances de gran envergadura al estudiar el contacto de estos nano-dispositivos de carbono con átomos de diferente composición química.
La composición química del cableado eléctrico es de vital importancia ya que afecta tanto las propiedades eléctricas como la geometría de contacto con la nano-estructura de carbono. La influencia de estos dos factores en las propiedades de transporte eléctrico se combinan, y en el estudio se han analizado estos dos parámetros en contactos reducidos al límite atómico ya que en el caso de grandes estructuras es difícil separar su contribución individual.
En el marco de una estrecha colaboración, los investigadores se valieron de una molécula de carbono compuesta por 60 átomos que puede entenderse como una lámina de grafeno envuelta en una diminuta esfera. El grupo experimental liderado por Guillaume Schull en Estrasburgo, fijó esta molécula a la punta de la sonda de un Microscopio de Efecto Túnel, una especie de alfiler extremadamente fino. Posteriormente, ese alfiler acabado en una molécula de carbono se aproximó con extremada precisión a diferentes átomos hasta crear una conexión robusta. Midiendo sistemáticamente la corriente eléctrica a través de la conexión, los investigadores pudieron deducir cuál de estos átomos metálicos inyecta con mayor eficiencia la corriente eléctrica a la molécula de carbono.
Representación artística de la conexión eléctrica entre una molécula de carbono (con forma de pelota de fútbol) y un átomo metálico (partícula gris). Los investigadores han sido capaces de cuantificar cómo la corriente depende de la composición química del átomo metálico.
Las simulaciones a gran escala realizadas en San Sebastián por el grupo teórico liderado por Thomas Frederiksen, Ikerbasque Research Professor en el DIPC, revelaron un aspecto fascinante e inesperado de estas conexiones diminutas: sus propiedades eléctricas y mecánicas son análogas a materiales de carbono de tamaño mucho más grandes.
Estos resultados, publicados en la prestigiosa revista Nature Communications, marcan un precedente y asientan las bases para encontrar conexiones extremamente eficientes en un futuro próximo. El hallazgo hará posible el estudio de una gran cantidad de metales (así como de aleaciones compuestas por dos o tres átomos metálicos diferentes) permitiendo la clasificación sistemática de su capacidad para inyectar electrones en estos dispositivos electrónicos emergentes basados en carbono.
http://noticiasdelaciencia.com/not/10152/una_pequena_conexion_con_grandes_implicaciones__hacia_una_nueva_electronica_basada_en_el_carbono/
La composición química del cableado eléctrico es de vital importancia ya que afecta tanto las propiedades eléctricas como la geometría de contacto con la nano-estructura de carbono. La influencia de estos dos factores en las propiedades de transporte eléctrico se combinan, y en el estudio se han analizado estos dos parámetros en contactos reducidos al límite atómico ya que en el caso de grandes estructuras es difícil separar su contribución individual.
En el marco de una estrecha colaboración, los investigadores se valieron de una molécula de carbono compuesta por 60 átomos que puede entenderse como una lámina de grafeno envuelta en una diminuta esfera. El grupo experimental liderado por Guillaume Schull en Estrasburgo, fijó esta molécula a la punta de la sonda de un Microscopio de Efecto Túnel, una especie de alfiler extremadamente fino. Posteriormente, ese alfiler acabado en una molécula de carbono se aproximó con extremada precisión a diferentes átomos hasta crear una conexión robusta. Midiendo sistemáticamente la corriente eléctrica a través de la conexión, los investigadores pudieron deducir cuál de estos átomos metálicos inyecta con mayor eficiencia la corriente eléctrica a la molécula de carbono.
Representación artística de la conexión eléctrica entre una molécula de carbono (con forma de pelota de fútbol) y un átomo metálico (partícula gris). Los investigadores han sido capaces de cuantificar cómo la corriente depende de la composición química del átomo metálico.
Las simulaciones a gran escala realizadas en San Sebastián por el grupo teórico liderado por Thomas Frederiksen, Ikerbasque Research Professor en el DIPC, revelaron un aspecto fascinante e inesperado de estas conexiones diminutas: sus propiedades eléctricas y mecánicas son análogas a materiales de carbono de tamaño mucho más grandes.
Estos resultados, publicados en la prestigiosa revista Nature Communications, marcan un precedente y asientan las bases para encontrar conexiones extremamente eficientes en un futuro próximo. El hallazgo hará posible el estudio de una gran cantidad de metales (así como de aleaciones compuestas por dos o tres átomos metálicos diferentes) permitiendo la clasificación sistemática de su capacidad para inyectar electrones en estos dispositivos electrónicos emergentes basados en carbono.
http://noticiasdelaciencia.com/not/10152/una_pequena_conexion_con_grandes_implicaciones__hacia_una_nueva_electronica_basada_en_el_carbono/
Suscribirse a:
Entradas (Atom)