Limpiar derrames de petróleo y metales contaminantes sin que el tratamiento de limpieza tenga efectos tóxicos sobre la vida marina, que además sea un método sostenible, y que resulte barato, es un reto que ha venido resultando insuperable para empresas y gobiernos en todo el mundo.
Sin embargo, puede que muy pronto esta situación cambie. Un grupo de investigadores de la Universidad de Wisconsin-Madison en Estados Unidos trabaja en el desarrollo de materiales alternativos a los convencionales, y más ecológicos, para limpiar mareas negras y otros vertidos.
La meta es encontrar materiales baratos que puedan ser modificados de forma también rentable, para permitirles absorber petróleo y otras sustancias químicas sin absorber agua. Ya se han logrado algunos muy buenos. Si esta línea de investigación y desarrollo prospera como se espera, y, en principio, no hay motivo para suponer que no será así, esta nueva y revolucionaria tecnología podría ofrecer una vía mucho más barata y sostenible para absorber petróleo y algunas otras sustancias del agua y sobre otras superficies.
Los aerogeles, que son materiales muy porosos y los sólidos más livianos que existen, ya se usan para diversas aplicaciones, que van desde funciones aislantes hasta su uso como espesantes para pinturas, pasando por su utilización en algunos componentes empleados en el sector aeroespacial.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
El aerogel preparado por el equipo de la ingeniera biomédica Shaoqin "Sarah" Gong está hecho con nanofibrillas de celulosa (material sostenible proveniente de la madera) y un polímero respetuoso con el medio ambiente. Además, estos aerogeles basados en la celulosa se elaboran mediante un proceso que también es respetuoso con el medio ambiente.
El nuevo material que ya ha sido probado tiene una elevadísima capacidad para absorber disolventes orgánicos, cerca de 100 veces su propio peso. También tiene una buena capacidad de absorción de iones metálicos.
http://noticiasdelaciencia.com/not/10102/limpieza_revolucionaria_de_mareas_negras/
domingo, 27 de abril de 2014
Resuelto el misterio de la supernova superluminosa
En 2010 se descubrió la existencia de PS1-10afx, la supernova o explosión estelar más luminosa de su clase. En 2013 se informó a la comunidad científica internacional y desde entonces ha habido una fuerte controversia sobre el origen de su brillo excepcional –30 veces más de lo previsto– y ha llevado al planteamento de dos hipótesis.
Por una parte, algunos investigadores concluyeron que se trataba de un nuevo tipo de supernova extrabrillante desconocida hasta la fecha. Sin embargo, otro grupo sostenía que era una supernova normal del tipo Ia –con líneas de absorción características para elementos como el silicio–, pero magnificada por una lente gravitacional como un agujero negro u otro objeto supermasivo cercano.
Esta segunda hipótesis es la correcta, de acuerdo al estudio que investigadores del Instituto Kavli de la universidad japonesa de Tokio publican en la revista Science. “El equipo que la descubrió propuso que era un tipo de supernova no predicha por la teoría, pero observamos que PS1-10afx era diferente cada día, que evolucionaba demasiado rápido y se hacía cada vez más roja”, comenta Robert Quimby, el autor principal.
Esto les hizo pensar en la presencia de la lente gravitacional, una especie de gigantesca lupa que se genera cuando la luz procedente de un cuerpo lejano se curva alrededor de otro más próximo y masivo –como una galaxia– situado entre el emisor y el receptor, la Tierra en este caso.
![[Img #19499]](http://noticiasdelaciencia.com/upload/img/periodico/img_19499.jpg)
“Pensamos que el brillo excepcional de la supernova se genera por una lente asociada, pero no teníamos ninguna evidencia directa sobre su presencia, así que la explicación parecía que requería un poco de magia”, bromea Quimby, “una nueva física o lupa que no se ve ".
Los investigadores sospechaban que ese objeto intermedio debía seguir ahí aunque la supernova ya se hubiera desvanecido, así que para confirmar su existencia utilizaron los datos espectroscópicos facilitados por el telescopio Keck-I en Hawái (EE UU) para analizar las galaxias próximas a la supernova.
Si estaba en medio otro objeto durante la brillante explosión de PS1-10afx se esperarían ver dos juegos de líneas de emisión de gases en el espectro, y eso es justo lo que encontraron. De esta forma el equipo dedujo que hay otra galaxia justo en frente, en el ángulo correcto y la distancia justa para amplificar la luz de la supernova.
La lente gravitacional identificada es la primera con que se asocia firmemente a una supernova de tipo Ia, y según los autores, se perdió su rastro en los estudios anteriores debido a la potente luz de la explosión estelar.
Como el comportamiento de esta clase de supernovas sirve a los científicos para medir las distancias a galaxias remotas, el nuevo hallazgo también les puede servir de referencia para utilizar los futuros eventos de supernovas con lente en la medición de la expansión cósmica.
http://noticiasdelaciencia.com/not/10200/resuelto_el_misterio_de_la_supernova_superluminosa/
Por una parte, algunos investigadores concluyeron que se trataba de un nuevo tipo de supernova extrabrillante desconocida hasta la fecha. Sin embargo, otro grupo sostenía que era una supernova normal del tipo Ia –con líneas de absorción características para elementos como el silicio–, pero magnificada por una lente gravitacional como un agujero negro u otro objeto supermasivo cercano.
Esta segunda hipótesis es la correcta, de acuerdo al estudio que investigadores del Instituto Kavli de la universidad japonesa de Tokio publican en la revista Science. “El equipo que la descubrió propuso que era un tipo de supernova no predicha por la teoría, pero observamos que PS1-10afx era diferente cada día, que evolucionaba demasiado rápido y se hacía cada vez más roja”, comenta Robert Quimby, el autor principal.
Esto les hizo pensar en la presencia de la lente gravitacional, una especie de gigantesca lupa que se genera cuando la luz procedente de un cuerpo lejano se curva alrededor de otro más próximo y masivo –como una galaxia– situado entre el emisor y el receptor, la Tierra en este caso.
![[Img #19499]](http://noticiasdelaciencia.com/upload/img/periodico/img_19499.jpg)
“Pensamos que el brillo excepcional de la supernova se genera por una lente asociada, pero no teníamos ninguna evidencia directa sobre su presencia, así que la explicación parecía que requería un poco de magia”, bromea Quimby, “una nueva física o lupa que no se ve ".
Los investigadores sospechaban que ese objeto intermedio debía seguir ahí aunque la supernova ya se hubiera desvanecido, así que para confirmar su existencia utilizaron los datos espectroscópicos facilitados por el telescopio Keck-I en Hawái (EE UU) para analizar las galaxias próximas a la supernova.
Si estaba en medio otro objeto durante la brillante explosión de PS1-10afx se esperarían ver dos juegos de líneas de emisión de gases en el espectro, y eso es justo lo que encontraron. De esta forma el equipo dedujo que hay otra galaxia justo en frente, en el ángulo correcto y la distancia justa para amplificar la luz de la supernova.
La lente gravitacional identificada es la primera con que se asocia firmemente a una supernova de tipo Ia, y según los autores, se perdió su rastro en los estudios anteriores debido a la potente luz de la explosión estelar.
Como el comportamiento de esta clase de supernovas sirve a los científicos para medir las distancias a galaxias remotas, el nuevo hallazgo también les puede servir de referencia para utilizar los futuros eventos de supernovas con lente en la medición de la expansión cósmica.
http://noticiasdelaciencia.com/not/10200/resuelto_el_misterio_de_la_supernova_superluminosa/
domingo, 20 de abril de 2014
España lidera un test barato para detectar enfermedades del feto en la sangre materna
Jesús Miguel Ruano López, un investigador del centro tecnológico IK4-Ikerlan (Mondragón, Guipúzcoa, España), es el coordinador del proyecto europeo AngeLab. Tiene el reto de desarrollar una tecnología que abarate el diagnóstico de enfermedades genéticas del feto utilizando solo unas pocas gotas de sangre materna. Para lograr su objetivo, se basa en los nuevos laboratorios en miniatura integrados en un chip.
Según explica Ruano a Sinc, AngeLab es un proyecto de cuatro años de duración que se inició en octubre de 2012, dentro del VII Programa Marco de I+D de la UE. Cuenta con un presupuesto global de 11 millones de euros, financiado en un 75% por la Unión Europea, y el resto por el consorcio que está integrado por 15 firmas de sectores como biotecnología, e ingeniería microelectrónica y varios hospitales.
Parte del conocimiento de las herramientas de lab on a chip que se está empleando en el desarrollo de AngeLab, se adquirió en un proyecto europeo previo, también liderado por Ruano, llamado Labonfoil, que finalizó el pasado año y produjo cuatro prototipos que están “prácticamente listos para su comercialización”, destaca.
Estos prototipos consistieron en un parche para detectar en el sudor de la piel el consumo de cocaína y tres tipos de tarjetas inteligentes que se introducen en un pequeño lector portátil y que llevan en su interior determinados reactivos para identificar patógenos en los alimentos, monitorizar el cáncer de colon en la sangre de enfermos y detectar la contaminación ambiental mediante el análisis de las algas marinas.
“Uno de los valores añadidos de Labonfoil es que aprendimos a automatizar y simplificar la detección de ADN y proteínas, que son los grandes fundamentos de la biología molecular, mediante el desarrollo de estas tarjetas inteligentes que son en realidad laboratorios miniaturizados. Esto permite localizar multitud de enfermedades, lo que ha abierto la puerta a un gran número de posibilidades”, señala este doctor en Microelectrónica por la Universidad de Glasgow.
Ahora, los socios de AngeLab están conjugando “los mejores conocimientos sobre diagnóstico prenatal no invasivo en probeta con los últimos avances en miniaturización de laboratorio en un chip para revolucionar este tipo de diagnóstico”, según el investigador español.
Actualmente, coexisten técnicas como la amniocentesis, “que son invasivas y conllevan un riesgo para el feto, con otras más recientes como los test de cribado de ADN fetal en sangre materna, que comercializan ya algunas empresas en nuestro país a un precio que oscila entre los 700 y 800 euros”, dice el coordinador.
Además, señala, estos programas de cribado de síndrome de Down no proporcionan un índice de certeza, sino que intentan identificar aquellos embarazos con riesgo de alteración cromosómica para limitar el número de amniocentesis o biopsias de vellosidad corial, por el riesgo que entrañan.
El sistema que se está desarrollando en AngeLab será capaz de detectar el ADN fetal en pequeñas muestras de sangre materna de forma rápida, no invasiva y con menor coste. Según los cálculos de Ruano, el precio del nuevo test estará entre 100 y 200 euros”.
El investigador explica que “desde la séptima semana de embarazo ya hay aproximadamente un 7% de ADN del feto circulando en la sangre de la madre. Lo que estamos haciendo en este proyecto es perfeccionar la tecnología de microfluidos que desarrollamos con Labonfoil, que permitirá hacer una extracción sencilla y automatizada de este ADN para posteriormente hacer el análisis genético y diagnosticar si el futuro bebé padece ciertas enfermedades”.
Ruano insiste en que los test de cribado de ADN fetal, “además de ser muy caros, no ofrecen un diagnóstico, que es lo que nosotros queremos lograr. La diferencia de nuestra tecnología es que será capaz de seleccionar ese ADN fetal circulante porque está metilado de forma diferente al de la madre”.
Mediante las herramientas que se están desarrollando con AngeLab “seremos capaces de diagnosticar no solo las enfermedades trisómicas como el síndrome de Down, sino que también podremos detectar y diagnosticar otras como la fibrosis quística”, subraya.
El proyecto finalizará en 2016 con un plan de producción piloto del nuevo dispositivo de tecnología de lab on a chip, que será verificada por los centros de investigación participantes.
Además, está previsto validar técnicamente su funcionamiento con pacientes mediante más de 400 pruebas diagnósticas en los hospitales universitarios de Donostia y de Basurto, indica el coordinador.
Jesús Miguel Ruano López asegura que, aunque durante el proyecto se realizará una fase previa de explotación, el proceso de industrialización podrá comenzar entre dos y cuatro años tras su finalización en 2016.
http://noticiasdelaciencia.com/not/10151/espana_lidera_un_test_barato_para_detectar_enfermedades_del_feto_en_la_sangre_materna/
Según explica Ruano a Sinc, AngeLab es un proyecto de cuatro años de duración que se inició en octubre de 2012, dentro del VII Programa Marco de I+D de la UE. Cuenta con un presupuesto global de 11 millones de euros, financiado en un 75% por la Unión Europea, y el resto por el consorcio que está integrado por 15 firmas de sectores como biotecnología, e ingeniería microelectrónica y varios hospitales.
Parte del conocimiento de las herramientas de lab on a chip que se está empleando en el desarrollo de AngeLab, se adquirió en un proyecto europeo previo, también liderado por Ruano, llamado Labonfoil, que finalizó el pasado año y produjo cuatro prototipos que están “prácticamente listos para su comercialización”, destaca.
Estos prototipos consistieron en un parche para detectar en el sudor de la piel el consumo de cocaína y tres tipos de tarjetas inteligentes que se introducen en un pequeño lector portátil y que llevan en su interior determinados reactivos para identificar patógenos en los alimentos, monitorizar el cáncer de colon en la sangre de enfermos y detectar la contaminación ambiental mediante el análisis de las algas marinas.
“Uno de los valores añadidos de Labonfoil es que aprendimos a automatizar y simplificar la detección de ADN y proteínas, que son los grandes fundamentos de la biología molecular, mediante el desarrollo de estas tarjetas inteligentes que son en realidad laboratorios miniaturizados. Esto permite localizar multitud de enfermedades, lo que ha abierto la puerta a un gran número de posibilidades”, señala este doctor en Microelectrónica por la Universidad de Glasgow.
Ahora, los socios de AngeLab están conjugando “los mejores conocimientos sobre diagnóstico prenatal no invasivo en probeta con los últimos avances en miniaturización de laboratorio en un chip para revolucionar este tipo de diagnóstico”, según el investigador español.
Actualmente, coexisten técnicas como la amniocentesis, “que son invasivas y conllevan un riesgo para el feto, con otras más recientes como los test de cribado de ADN fetal en sangre materna, que comercializan ya algunas empresas en nuestro país a un precio que oscila entre los 700 y 800 euros”, dice el coordinador.
Además, señala, estos programas de cribado de síndrome de Down no proporcionan un índice de certeza, sino que intentan identificar aquellos embarazos con riesgo de alteración cromosómica para limitar el número de amniocentesis o biopsias de vellosidad corial, por el riesgo que entrañan.
El sistema que se está desarrollando en AngeLab será capaz de detectar el ADN fetal en pequeñas muestras de sangre materna de forma rápida, no invasiva y con menor coste. Según los cálculos de Ruano, el precio del nuevo test estará entre 100 y 200 euros”.
El investigador explica que “desde la séptima semana de embarazo ya hay aproximadamente un 7% de ADN del feto circulando en la sangre de la madre. Lo que estamos haciendo en este proyecto es perfeccionar la tecnología de microfluidos que desarrollamos con Labonfoil, que permitirá hacer una extracción sencilla y automatizada de este ADN para posteriormente hacer el análisis genético y diagnosticar si el futuro bebé padece ciertas enfermedades”.
Ruano insiste en que los test de cribado de ADN fetal, “además de ser muy caros, no ofrecen un diagnóstico, que es lo que nosotros queremos lograr. La diferencia de nuestra tecnología es que será capaz de seleccionar ese ADN fetal circulante porque está metilado de forma diferente al de la madre”.
Mediante las herramientas que se están desarrollando con AngeLab “seremos capaces de diagnosticar no solo las enfermedades trisómicas como el síndrome de Down, sino que también podremos detectar y diagnosticar otras como la fibrosis quística”, subraya.
El proyecto finalizará en 2016 con un plan de producción piloto del nuevo dispositivo de tecnología de lab on a chip, que será verificada por los centros de investigación participantes.
Además, está previsto validar técnicamente su funcionamiento con pacientes mediante más de 400 pruebas diagnósticas en los hospitales universitarios de Donostia y de Basurto, indica el coordinador.
Jesús Miguel Ruano López asegura que, aunque durante el proyecto se realizará una fase previa de explotación, el proceso de industrialización podrá comenzar entre dos y cuatro años tras su finalización en 2016.
http://noticiasdelaciencia.com/not/10151/espana_lidera_un_test_barato_para_detectar_enfermedades_del_feto_en_la_sangre_materna/
Logran atraer a células cancerosas hacia un sitio idóneo donde matarlas
Un factor que caracteriza al glioblastoma como un cáncer difícil de tratar, es que las células malignas del tumor se distribuyen por todo el cerebro a través de las fibras nerviosas y conductos sanguíneos, invadiendo nuevos lugares. Ahora, unos investigadores han averiguado un modo de apoderarse del control de este mecanismo migratorio, para usarlo en contra del mismo cáncer, empleando una capa de nanofibras más delgada que el cabello humano, para atraer a las células tumorales hacia una trampa mortal en el exterior del cerebro.
Con esta nueva técnica, en lugar de invadir nuevas áreas, las células migratorias centran su atención en las nanofibras especialmente diseñadas y las siguen hasta llegar a una zona, idealmente fuera del cerebro, en la cual pueden ser retenidas y exterminadas.
Usando esta técnica desarrollada por científicos del Instituto Tecnológico de Georgia (Georgia Tech) y la Universidad Emory, ambas instituciones en la ciudad estadounidense de Atlanta, es posible desplazar parcialmente tumores desde lugares inoperables hasta zonas más accesibles.
Aunque la técnica de por sí no elimina el cáncer, sí puede al menos reducir el tamaño de tumores en su ubicación cerebral, al hacer que bastantes células tumorales se marchen de ese sitio.
![[Img #19357]](http://noticiasdelaciencia.com/upload/img/periodico/img_19357.jpg)
Las nanofibras, hechas de una película polimérica ultradelgada, se asemejan a la estructura de nervios y vasos sanguíneos que las células tumorales del cerebro emplean normalmente para invadir otras partes del órgano. Las células cancerosas normalmente se posicionan sobre estas estructuras naturales y se desplazan a lo largo de ellas como trenes por una vía, esperando así llegar a otras partes del cerebro. En el caso de las nanofibras, éstas conducen a las células tumorales hacia una emboscada en vez de hacia nuevas partes del cerebro donde poder prosperar.
La ingeniosa técnica para engañar a estas células cancerosas es obra del equipo de Ravi Bellamkonda y S. Balakrishna Pai. Entre los pasos previstos en esta prometedora línea de investigación figura el poner a prueba la técnica con otras formas de cáncer cerebral y otros tipos de cáncer en general que sean difíciles de extirpar.
Sin embargo, antes de que la técnica pueda ser utilizada en los seres humanos, tendrá que someterse a extensas pruebas a fin de poder ser aprobada por las autoridades sanitarias.
http://noticiasdelaciencia.com/not/10128/logran_atraer_a_celulas_cancerosas_hacia_un_sitio_idoneo_donde_matarlas/
Con esta nueva técnica, en lugar de invadir nuevas áreas, las células migratorias centran su atención en las nanofibras especialmente diseñadas y las siguen hasta llegar a una zona, idealmente fuera del cerebro, en la cual pueden ser retenidas y exterminadas.
Usando esta técnica desarrollada por científicos del Instituto Tecnológico de Georgia (Georgia Tech) y la Universidad Emory, ambas instituciones en la ciudad estadounidense de Atlanta, es posible desplazar parcialmente tumores desde lugares inoperables hasta zonas más accesibles.
Aunque la técnica de por sí no elimina el cáncer, sí puede al menos reducir el tamaño de tumores en su ubicación cerebral, al hacer que bastantes células tumorales se marchen de ese sitio.
![[Img #19357]](http://noticiasdelaciencia.com/upload/img/periodico/img_19357.jpg)
Las nanofibras, hechas de una película polimérica ultradelgada, se asemejan a la estructura de nervios y vasos sanguíneos que las células tumorales del cerebro emplean normalmente para invadir otras partes del órgano. Las células cancerosas normalmente se posicionan sobre estas estructuras naturales y se desplazan a lo largo de ellas como trenes por una vía, esperando así llegar a otras partes del cerebro. En el caso de las nanofibras, éstas conducen a las células tumorales hacia una emboscada en vez de hacia nuevas partes del cerebro donde poder prosperar.
La ingeniosa técnica para engañar a estas células cancerosas es obra del equipo de Ravi Bellamkonda y S. Balakrishna Pai. Entre los pasos previstos en esta prometedora línea de investigación figura el poner a prueba la técnica con otras formas de cáncer cerebral y otros tipos de cáncer en general que sean difíciles de extirpar.
Sin embargo, antes de que la técnica pueda ser utilizada en los seres humanos, tendrá que someterse a extensas pruebas a fin de poder ser aprobada por las autoridades sanitarias.
http://noticiasdelaciencia.com/not/10128/logran_atraer_a_celulas_cancerosas_hacia_un_sitio_idoneo_donde_matarlas/
Un niño Down y su gemelo sano desvelan la clave genética del síndrome
A pesar de numerosas investigaciones, el mecanismo exacto responsable de los síntomas del síndrome de Down sigue sin entenderse por completo. Esta trisomía en el cromosoma 21 es la causa genética de discapacidad intelectual más frecuente, con una incidencia de uno entre 800 nacimientos.
Un nuevo trabajo, publicado en la última edición de la revista Nature, ha comparado un par de gemelos humanos idénticos, en los que solo uno de ellos tiene síndrome de Down, y revela un ‘aplanamiento’ de los niveles de expresión génica de todo el genoma en el individuo afectado. Es decir, en este caso la expresión de los genes está alterada a través de cada cromosoma, no solo el 21.
Para los autores, liderados por la Universidad de Ginebra (UNIGE), esto implica que la expresión de genes en cualquier cromosoma puede contribuir al síndrome de Down, por lo que una copia extra de cualquiera de ellos puede alterar la regulación de genes.
Es rarísimo que un niño tenga trisomía en el cromosoma 21 y su gemelo monocigótico no. Esto solo sucede en uno de cada 385.000 casos. Al comparar un individuo con Down y otro sin el síndrome que no están relacionados genéticamente, no es posible observar los cambios en la expresión de los genes. Por eso, para la ciencia, observar a los dos hermanos de este estudio es un privilegio. “Entre los dos gemelos idénticos, lo único que cambia es la trisomía”, explica a Sinc Mara Dierssen, investigadora en el departamento de Biología de Sistemas en el centro de Regulación Genómica (CRG) (España). “De ahí que sean un modelo genial para estudiar por qué se producen estas diferencias”.
Este nuevo descubrimiento va en contra de la hipótesis del desequilibrio de la dosis génica, que postula que la presencia de un tercer cromosoma 21 puede influir en la expresión de otros genes, es decir, que el material genético extra puede interrumpir la descodificación de la información en los genes y modificar las funciones celulares.
Basados en esta conjetura, varios grupos de investigación han intentado, sin éxito hasta el momento, identificar los cambios en la expresión génica en las células con trisomía y relacionarlos con los síntomas de los pacientes. Como la expresión de los genes es diferente en cada persona, resulta muy difícil discernir entre los cambios exclusivamente relacionados con la trisomía 21 y aquellos debidos a la variación natural que existe entre individuos.
Los cromosomas están divididos en dominios que contienen genes con una similar producción de ARN, la molécula encargada de transmitir la información del ADN. En el caso del gemelo con trisomía 21, los dominios se expresaban a veces mucho y otras poco, en comparación con el gemelo sano. Según los expertos, el error en esta distribución del cromosoma 21 puede tener lugar durante las etapas más tempranas de las primeras divisiones celulares, justo después de que el óvulo fertilizado se divida en dos.
Para comparar los diferentes niveles de expresión génica entre los gemelos, los investigadores utilizaron modernas herramientas biotecnológicas, como por ejemplo las técnicas de secuenciación de alto rendimiento, en colaboración con diversos laboratorios de Estrasburgo, Seattle, Ámsterdam y la participación del Centro de Regulación Genómica (CRG) en Barcelona. De esta manera fueron capaces de eliminar el efecto de las variaciones entre los individuos e identificar aquellos cambios ocasionados exclusivamente por la trisomía 21.
La expresión de los genes localizados en otros cromosomas era bastante diferente en las células trisómicas. "Este resultado fue una verdadera sorpresa; esto sugiere que un pequeño cromosoma tiene una gran influencia en el resto del genoma", afirma Audrey Letourneau, primera autora del estudio.
Al comparar los resultados obtenidos con datos de otras investigaciones, los científicos encontraron que la organización del cromosoma 21 se correlaciona con la posición del ADN en el núcleo de la célula. Así, los dominios sobreexpresados en el gemelo con trisomía corresponden con las regiones del ADN que se sabe son las primeras en interactuar con la periferia del núcleo.
El estudio muestra por primera vez que la posición del ADN en el núcleo, o las características bioquímicas de las interacciones entre ADN y proteínas en las células con trisomía, se modifica ocasionando cambios en los patrones de expresión génica.
Federico Santoni, coautor del estudio, agrega que estos cambios "no ocurren solo en el cromosoma 21, sino en todo el genoma. La presencia de solo un 1% de material cromosómico extra modifica la función de todos el genoma e interrumpe el equilibrio de la expresión de los genes".
"Si pudiéramos hacer una analogía con el cambio climático, solo con que la temperatura del planeta aumente en 1 o 2 grados en los trópicos lloverá mucho menos y en las zonas templadas mucho más. El equilibrio completo del clima en el planeta puede ser modificado por un elemento muy pequeño", añade Stylianos Antonarakis, director del laboratorio de la UNIGE.
El trabajo abre nuevas vías para entender los mecanismos moleculares que explican el síndrome de Down. La gran cantidad de datos obtenidos con las nuevas técnicas de secuenciación ofrece muchas posibilidades para los científicos. "Este avance ha sido posible en gran medida por el gran desarrollo de las técnicas de análisis genómico, que nos permiten estudiar la actividad del genoma con una gran resolución", añade Roderic Guigó, coautor del estudio y jefe del grupo de Biología Computacional del Procesamiento del RNA del CRG.
David González, coautor del estudio, afirma que "nuestro rol fue el análisis bioinformático de los datos de secuenciación de ARN de las diferentes muestras del estudio, con el objeto de determinar los niveles de expresión de los diferentes genes en cada una de ellas".
Los investigadores de UNIGE continuarán investigando los mecanismos moleculares implicados y cómo está relacionada la expresión génica con los fenotipos del síndrome de Down. El objetivo es encontrar la forma de revertir las desregulación de la expresión génica a su estado normal para así corregir los errores producidos por esta enfermedad. Además, para los autores, conocer esto podrá ser de gran beneficio para el estudio de otras enfermedades que también presenten un desequilibrio en el balance genético.
http://noticiasdelaciencia.com/not/10131/un_nino_down_y_su_gemelo_sano_desvelan_la_clave_genetica_del_sindrome/
Un nuevo trabajo, publicado en la última edición de la revista Nature, ha comparado un par de gemelos humanos idénticos, en los que solo uno de ellos tiene síndrome de Down, y revela un ‘aplanamiento’ de los niveles de expresión génica de todo el genoma en el individuo afectado. Es decir, en este caso la expresión de los genes está alterada a través de cada cromosoma, no solo el 21.
Para los autores, liderados por la Universidad de Ginebra (UNIGE), esto implica que la expresión de genes en cualquier cromosoma puede contribuir al síndrome de Down, por lo que una copia extra de cualquiera de ellos puede alterar la regulación de genes.
Es rarísimo que un niño tenga trisomía en el cromosoma 21 y su gemelo monocigótico no. Esto solo sucede en uno de cada 385.000 casos. Al comparar un individuo con Down y otro sin el síndrome que no están relacionados genéticamente, no es posible observar los cambios en la expresión de los genes. Por eso, para la ciencia, observar a los dos hermanos de este estudio es un privilegio. “Entre los dos gemelos idénticos, lo único que cambia es la trisomía”, explica a Sinc Mara Dierssen, investigadora en el departamento de Biología de Sistemas en el centro de Regulación Genómica (CRG) (España). “De ahí que sean un modelo genial para estudiar por qué se producen estas diferencias”.
Este nuevo descubrimiento va en contra de la hipótesis del desequilibrio de la dosis génica, que postula que la presencia de un tercer cromosoma 21 puede influir en la expresión de otros genes, es decir, que el material genético extra puede interrumpir la descodificación de la información en los genes y modificar las funciones celulares.
Basados en esta conjetura, varios grupos de investigación han intentado, sin éxito hasta el momento, identificar los cambios en la expresión génica en las células con trisomía y relacionarlos con los síntomas de los pacientes. Como la expresión de los genes es diferente en cada persona, resulta muy difícil discernir entre los cambios exclusivamente relacionados con la trisomía 21 y aquellos debidos a la variación natural que existe entre individuos.
Los cromosomas están divididos en dominios que contienen genes con una similar producción de ARN, la molécula encargada de transmitir la información del ADN. En el caso del gemelo con trisomía 21, los dominios se expresaban a veces mucho y otras poco, en comparación con el gemelo sano. Según los expertos, el error en esta distribución del cromosoma 21 puede tener lugar durante las etapas más tempranas de las primeras divisiones celulares, justo después de que el óvulo fertilizado se divida en dos.
Para comparar los diferentes niveles de expresión génica entre los gemelos, los investigadores utilizaron modernas herramientas biotecnológicas, como por ejemplo las técnicas de secuenciación de alto rendimiento, en colaboración con diversos laboratorios de Estrasburgo, Seattle, Ámsterdam y la participación del Centro de Regulación Genómica (CRG) en Barcelona. De esta manera fueron capaces de eliminar el efecto de las variaciones entre los individuos e identificar aquellos cambios ocasionados exclusivamente por la trisomía 21.
La expresión de los genes localizados en otros cromosomas era bastante diferente en las células trisómicas. "Este resultado fue una verdadera sorpresa; esto sugiere que un pequeño cromosoma tiene una gran influencia en el resto del genoma", afirma Audrey Letourneau, primera autora del estudio.
Al comparar los resultados obtenidos con datos de otras investigaciones, los científicos encontraron que la organización del cromosoma 21 se correlaciona con la posición del ADN en el núcleo de la célula. Así, los dominios sobreexpresados en el gemelo con trisomía corresponden con las regiones del ADN que se sabe son las primeras en interactuar con la periferia del núcleo.
El estudio muestra por primera vez que la posición del ADN en el núcleo, o las características bioquímicas de las interacciones entre ADN y proteínas en las células con trisomía, se modifica ocasionando cambios en los patrones de expresión génica.
Federico Santoni, coautor del estudio, agrega que estos cambios "no ocurren solo en el cromosoma 21, sino en todo el genoma. La presencia de solo un 1% de material cromosómico extra modifica la función de todos el genoma e interrumpe el equilibrio de la expresión de los genes".
"Si pudiéramos hacer una analogía con el cambio climático, solo con que la temperatura del planeta aumente en 1 o 2 grados en los trópicos lloverá mucho menos y en las zonas templadas mucho más. El equilibrio completo del clima en el planeta puede ser modificado por un elemento muy pequeño", añade Stylianos Antonarakis, director del laboratorio de la UNIGE.
El trabajo abre nuevas vías para entender los mecanismos moleculares que explican el síndrome de Down. La gran cantidad de datos obtenidos con las nuevas técnicas de secuenciación ofrece muchas posibilidades para los científicos. "Este avance ha sido posible en gran medida por el gran desarrollo de las técnicas de análisis genómico, que nos permiten estudiar la actividad del genoma con una gran resolución", añade Roderic Guigó, coautor del estudio y jefe del grupo de Biología Computacional del Procesamiento del RNA del CRG.
David González, coautor del estudio, afirma que "nuestro rol fue el análisis bioinformático de los datos de secuenciación de ARN de las diferentes muestras del estudio, con el objeto de determinar los niveles de expresión de los diferentes genes en cada una de ellas".
Los investigadores de UNIGE continuarán investigando los mecanismos moleculares implicados y cómo está relacionada la expresión génica con los fenotipos del síndrome de Down. El objetivo es encontrar la forma de revertir las desregulación de la expresión génica a su estado normal para así corregir los errores producidos por esta enfermedad. Además, para los autores, conocer esto podrá ser de gran beneficio para el estudio de otras enfermedades que también presenten un desequilibrio en el balance genético.
http://noticiasdelaciencia.com/not/10131/un_nino_down_y_su_gemelo_sano_desvelan_la_clave_genetica_del_sindrome/
La deforestación de la Cuenca del Congo intensificará el cambio climático en la región
Hacia el año 2050, la deforestación por sí sola podría causar un incremento de 0,7 grados centígrados en las temperaturas de la Cuenca del Congo.
Ésta es la conclusión a la que se ha llegado en un estudio hecho por especialistas de la Universidad de Lovaina en Bélgica.
Un crecimiento explosivo de la población y unas prácticas agrícolas ineficientes son lo que está causando la destrucción a gran escala de las selvas tropicales en África Central.
Tom Akkermans, Wim Thiery y Nicole P. M. Van Lipzig examinaron cómo estas prácticas afectarán a las temperaturas a largo plazo en la región. Utilizando un modelo informático sofisticado, pronosticaron las temperaturas de la Cuenca del Congo en el año 2050. Los resultados indican que, como resultado de las emisiones globales de gases con efecto invernadero, el África Central de ese año será en promedio 1,4 grados centígrados más cálida que en la actualidad, mientras que la deforestación añadirá esa cantidad extra de 0,7 grados centígrados al calentamiento.
![[Img #19374]](http://noticiasdelaciencia.com/upload/img/periodico/img_19374.jpg)
Los resultados también muestran una fuerte correlación espacial entre la deforestación y el calentamiento global. En ciertos “puntos calientes” de deforestación, los incrementos causados por ella podrían ser de hasta 1,25 grados centígrados, a sumar al calentamiento causado por los gases de efecto invernadero. Tales aumentos drásticos de la temperatura echarán de las zonas a especies vegetales y animales, e incluso podrían poner a algunas en riesgo de extinción, tal como advierten los investigadores.
El calentamiento inducido por la deforestación pronosticado mediante el modelo puede atribuirse en gran parte a una reducción en la evaporación. Una vez que la deforestación ha acabado con una selva, la energía solar que de otra forma les sirve a las tierras selváticas para evaporar agua, pasa a acumularse cerca de la superficie de la Tierra, haciendo que la atmósfera se caliente.
Esta evaporación reducida también amenaza a los niveles de precipitación en la región. Sin embargo, debido a las complejidades de la circulación del aire y de la formación de nubes, el nexo de unión entre el patrón espacial de cambio y el patrón de deforestación es menos pronunciado.
http://noticiasdelaciencia.com/not/10135/la_deforestacion_de_la_cuenca_del_congo_intensificara_el_cambio_climatico_en_la_region/
Ésta es la conclusión a la que se ha llegado en un estudio hecho por especialistas de la Universidad de Lovaina en Bélgica.
Un crecimiento explosivo de la población y unas prácticas agrícolas ineficientes son lo que está causando la destrucción a gran escala de las selvas tropicales en África Central.
Tom Akkermans, Wim Thiery y Nicole P. M. Van Lipzig examinaron cómo estas prácticas afectarán a las temperaturas a largo plazo en la región. Utilizando un modelo informático sofisticado, pronosticaron las temperaturas de la Cuenca del Congo en el año 2050. Los resultados indican que, como resultado de las emisiones globales de gases con efecto invernadero, el África Central de ese año será en promedio 1,4 grados centígrados más cálida que en la actualidad, mientras que la deforestación añadirá esa cantidad extra de 0,7 grados centígrados al calentamiento.
![[Img #19374]](http://noticiasdelaciencia.com/upload/img/periodico/img_19374.jpg)
Los resultados también muestran una fuerte correlación espacial entre la deforestación y el calentamiento global. En ciertos “puntos calientes” de deforestación, los incrementos causados por ella podrían ser de hasta 1,25 grados centígrados, a sumar al calentamiento causado por los gases de efecto invernadero. Tales aumentos drásticos de la temperatura echarán de las zonas a especies vegetales y animales, e incluso podrían poner a algunas en riesgo de extinción, tal como advierten los investigadores.
El calentamiento inducido por la deforestación pronosticado mediante el modelo puede atribuirse en gran parte a una reducción en la evaporación. Una vez que la deforestación ha acabado con una selva, la energía solar que de otra forma les sirve a las tierras selváticas para evaporar agua, pasa a acumularse cerca de la superficie de la Tierra, haciendo que la atmósfera se caliente.
Esta evaporación reducida también amenaza a los niveles de precipitación en la región. Sin embargo, debido a las complejidades de la circulación del aire y de la formación de nubes, el nexo de unión entre el patrón espacial de cambio y el patrón de deforestación es menos pronunciado.
http://noticiasdelaciencia.com/not/10135/la_deforestacion_de_la_cuenca_del_congo_intensificara_el_cambio_climatico_en_la_region/
Una pequeña conexión con grandes implicaciones: hacia una nueva electrónica basada en el carbono
Las nanoestructuras basadas en carbono ofrecen propiedades nanomecánicas y nanoelectrónicas únicas en cualquiera de sus formas, tales como nanotubos, láminas de grafeno y nanocintas. Estos materiales ordenados en la nano-escala, es decir, en la dimensión de una millonésima de milimetro, son firmes candidatos para formar la base de muchos nano-dispositivos, y su aplicación se viene anunciando tanto en el campo de la conversión de energía como en el de transistores nano-electrónicos. Para el buen funcionamiento de estos nano-dispositivos, una buena conexión con el cableado eléctrico es crucial, y es en este aspecto donde investigadores del UPV/EHU, DIPC y CNRS, en España, han hecho avances de gran envergadura al estudiar el contacto de estos nano-dispositivos de carbono con átomos de diferente composición química.
La composición química del cableado eléctrico es de vital importancia ya que afecta tanto las propiedades eléctricas como la geometría de contacto con la nano-estructura de carbono. La influencia de estos dos factores en las propiedades de transporte eléctrico se combinan, y en el estudio se han analizado estos dos parámetros en contactos reducidos al límite atómico ya que en el caso de grandes estructuras es difícil separar su contribución individual.
En el marco de una estrecha colaboración, los investigadores se valieron de una molécula de carbono compuesta por 60 átomos que puede entenderse como una lámina de grafeno envuelta en una diminuta esfera. El grupo experimental liderado por Guillaume Schull en Estrasburgo, fijó esta molécula a la punta de la sonda de un Microscopio de Efecto Túnel, una especie de alfiler extremadamente fino. Posteriormente, ese alfiler acabado en una molécula de carbono se aproximó con extremada precisión a diferentes átomos hasta crear una conexión robusta. Midiendo sistemáticamente la corriente eléctrica a través de la conexión, los investigadores pudieron deducir cuál de estos átomos metálicos inyecta con mayor eficiencia la corriente eléctrica a la molécula de carbono.
Representación artística de la conexión eléctrica entre una molécula de carbono (con forma de pelota de fútbol) y un átomo metálico (partícula gris). Los investigadores han sido capaces de cuantificar cómo la corriente depende de la composición química del átomo metálico.
Las simulaciones a gran escala realizadas en San Sebastián por el grupo teórico liderado por Thomas Frederiksen, Ikerbasque Research Professor en el DIPC, revelaron un aspecto fascinante e inesperado de estas conexiones diminutas: sus propiedades eléctricas y mecánicas son análogas a materiales de carbono de tamaño mucho más grandes.
Estos resultados, publicados en la prestigiosa revista Nature Communications, marcan un precedente y asientan las bases para encontrar conexiones extremamente eficientes en un futuro próximo. El hallazgo hará posible el estudio de una gran cantidad de metales (así como de aleaciones compuestas por dos o tres átomos metálicos diferentes) permitiendo la clasificación sistemática de su capacidad para inyectar electrones en estos dispositivos electrónicos emergentes basados en carbono.
http://noticiasdelaciencia.com/not/10152/una_pequena_conexion_con_grandes_implicaciones__hacia_una_nueva_electronica_basada_en_el_carbono/
La composición química del cableado eléctrico es de vital importancia ya que afecta tanto las propiedades eléctricas como la geometría de contacto con la nano-estructura de carbono. La influencia de estos dos factores en las propiedades de transporte eléctrico se combinan, y en el estudio se han analizado estos dos parámetros en contactos reducidos al límite atómico ya que en el caso de grandes estructuras es difícil separar su contribución individual.
En el marco de una estrecha colaboración, los investigadores se valieron de una molécula de carbono compuesta por 60 átomos que puede entenderse como una lámina de grafeno envuelta en una diminuta esfera. El grupo experimental liderado por Guillaume Schull en Estrasburgo, fijó esta molécula a la punta de la sonda de un Microscopio de Efecto Túnel, una especie de alfiler extremadamente fino. Posteriormente, ese alfiler acabado en una molécula de carbono se aproximó con extremada precisión a diferentes átomos hasta crear una conexión robusta. Midiendo sistemáticamente la corriente eléctrica a través de la conexión, los investigadores pudieron deducir cuál de estos átomos metálicos inyecta con mayor eficiencia la corriente eléctrica a la molécula de carbono.
![[Img #19412]](http://noticiasdelaciencia.com/upload/img/periodico/img_19412.jpg)
Las simulaciones a gran escala realizadas en San Sebastián por el grupo teórico liderado por Thomas Frederiksen, Ikerbasque Research Professor en el DIPC, revelaron un aspecto fascinante e inesperado de estas conexiones diminutas: sus propiedades eléctricas y mecánicas son análogas a materiales de carbono de tamaño mucho más grandes.
Estos resultados, publicados en la prestigiosa revista Nature Communications, marcan un precedente y asientan las bases para encontrar conexiones extremamente eficientes en un futuro próximo. El hallazgo hará posible el estudio de una gran cantidad de metales (así como de aleaciones compuestas por dos o tres átomos metálicos diferentes) permitiendo la clasificación sistemática de su capacidad para inyectar electrones en estos dispositivos electrónicos emergentes basados en carbono.
http://noticiasdelaciencia.com/not/10152/una_pequena_conexion_con_grandes_implicaciones__hacia_una_nueva_electronica_basada_en_el_carbono/
Suscribirse a:
Entradas (Atom)