lunes, 30 de diciembre de 2013

Las personas son más lógicas al resolver conflictos en una segunda lengua

Los seres humanos toman decisiones continuamente. En muchas situaciones estas decisiones se ven influidas por procesos intuitivos (automáticos) y por procesos de razonamiento lógico (más controlados). 

La contribución de los procesos intuitivos, y los sesgos que estos provocan en la decisión final, depende en cierto modo de la respuesta emocional que provoca el problema. En este contexto, ante un problema a resolver, situaciones en las que se reduce la carga emocional deberían resultar en un impacto más pequeño de la intuición en la decisión final que se toma.

Un estudio en el que han colaborado investigadores del Center for Brain and Cognition (CBC) de la Universidad Pompeu Fabra (UPF) (España) demuestra que la toma de decisiones se ve afectada por la lengua en que se presentan los diferentes problemas. 


[Img #17424]
Concretamente, cuando los problemas a resolver, desde un punto de vista cognitivo, se presentan en una segunda lengua, distinta de la nativa, las personas parecen guiarse menos por las intuiciones y más por el procesamiento lógico.

Para llegar a estas conclusiones, los científicos han diseñado cuatro experimentos de la economía experimental y han evaluado el comportamiento de 700 personas, cuyos resultados se han publicado en la edición en línea de la revista Cognition. Los participantes en el estudio tenían el castellano como primera lengua y sabían inglés.


En cuanto a las principales conclusiones, como ha indicado Albert Costa, primer firmante del trabajo y director del grupo de Speech Production and Bilinguism (SPB) del CBC, "hemos visto que las personas, ante una segunda lengua, se ven menos influidos por sesgos de carácter intuitivo o emocional que cuando se enfrentan a los mismos problemas en su lengua nativa".

Por ejemplo, ha continuado explicando Costa, "sabemos que los humanos tienen una aversión a la pérdida que es un sesgo cognitivo y no está fundamentado lógicamente. Cuando los participantes resuelven tareas que promueven la aversión a la pérdida, o la aversión al riesgo, se ven menos afectados por estos sesgos si se hace en una segunda lengua. Las decisiones tomadas en una segunda lengua parecen ser más racionales y menos intuitivas".



http://noticiasdelaciencia.com/not/9154/las_personas_son_mas_logicas_al_resolver_conflictos_en_una_segunda_lengua/

Test bioquímico para detectar el riesgo de suicidio en una persona

Un nuevo test, basado en una investigación desarrollada en el Instituto Max Planck de Psiquiatría, en Múnich, Alemania, pasa ahora del laboratorio al mercado a través de la empresa estadounidense Sundance Diagnostics.

El análisis podría ayudar de manera significativa a los médicos en sus esfuerzos por reducir el riesgo de suicidio en pacientes que muestran determinados marcadores genéticos y que están siendo tratados con antidepresivos.

Los científicos del Instituto Max Planck de Psiquiatría descubrieron un conjunto de 79 biomarcadores genéticos del que se demostró un 91 por ciento de probabilidades de clasificar correctamente a pacientes con riesgo de cometer suicidio inducido por antidepresivos.


[Img #17410]A veces, puede darse la triste paradoja de que algunos antidepresivos promuevan las ganas de suicidarse en algunos pacientes. Y también, por supuesto, la persona puede acabar suicidándose si está muy deprimida y el antidepresivo es demasiado débil.

Debido a todo ello, una supervisión lo bastante buena del paciente durante su tratamiento puede permitir al médico suspender una medicación por inadecuada y recurrir a otras opciones.

El equipo del Instituto Max Planck de Psiquiatría también descubrió que el mayor riesgo de suicidio no se limita a individuos menores de 25 años, como lo describe una alerta emitida por la FDA (la agencia gubernamental estadounidense de alimentos y medicamentos), sino que dicho riesgo está presente en todas las edades desde los 18 a los 75 años.



http://noticiasdelaciencia.com/not/9148/test_bioquimico_para_detectar_el_riesgo_de_suicidio_en_una_persona/

Diez veces más rendimiento en la fibra óptica

Se ha descubierto un modo de multiplicar por diez el rendimiento de las fibras ópticas. La solución, simple pero imaginativa, reduce la cantidad de espacio necesario entre los pulsos de luz que transportan los datos, lo que permite un aumento drástico en la capacidad de las fibras ópticas.

Las fibras ópticas transportan los datos en forma de pulsos de luz a través de distancias de miles de kilómetros a velocidades tremendas. Son una de las glorias de la tecnología moderna de telecomunicaciones. Sin embargo, tienen capacidad limitada, debido a que en la fibra hay que alinear los pulsos de luz uno tras otro, separados por una distancia que no puede ser inferior a cierto límite mínimo, a fin de garantizar que las señales no se interfieran entre sí. Esto hace que en la fibra existan espacios vacíos que no se aprovechan para enviar datos.


[Img #17408]Desde su aparición en la década de 1970, la capacidad de trasmisión de datos de la fibra óptica se ha incrementado cada cuatro años en un factor de diez, un hecho impulsado por el flujo constante de nuevas tecnologías que se ha mantenido durante bastante tiempo. Sin embargo, en los últimos años se ha llegado a un cuello de botella, y científicos de todo el mundo han estado tratando de salir de él.

El equipo de Luc Thévenaz y Camille Brès, de la Escuela Politécnica Federal de Lausana (EPFL) en Suiza, ha ideado un método para agrupar más los pulsos en las fibras, sin que ello origine problemas, reduciendo así el espacio entre los pulsos. Su enfoque hace posible el uso de toda la capacidad de una fibra óptica. Esto permitirá aumentar diez veces el rendimiento de los sistemas de telecomunicaciones basados en fibra óptica.


http://noticiasdelaciencia.com/not/9146/diez_veces_mas_rendimiento_en_la_fibra_optica/

sábado, 28 de diciembre de 2013

Crean una lámina fotovoltaica de perovskita transparente y barata

Un equipo de científicos dirigido por el investigador Hendrik Bolink del Institut de Ciència Molecular (ICMol) del Parc Científic de la Universitat de València (España) ha creado un dispositivo fotovoltaico delgado, similar a una lámina, de muy bajo coste y una alta eficiencia.

Los resultados de este trabajo, realizado en colaboración con investigadores del École Polytechnique Fédérale de Lausanne (EPFL) en Suiza, se publicaron en la revista Nature Photonics.

La célula solar desarrollada por los investigadores del ICMol está formada por una capa de perovskita, un material híbrido orgánico-inorgánico de fácil síntesis y bajo coste, colocada entre dos capas ultra finas de semiconductores orgánicos, con un grosor total de menos de media micra (millonésima parte de un metro).

Hendrik Bolink explica que para su preparación “se han utilizado procesos de baja temperatura similar a los usados en la imprenta, lo que permite fabricar estos dispositivos sobre láminas de cristal o folios de plástico para que sean flexibles”.


[Img #17352]
Además, “existe la posibilidad de hacer los dispositivos de apariencia semitransparente, una característica muy útil para el aprovechamiento solar desde los edificios, ya que, también por su poco espesor y bajo peso, se podrían colocar en las ventanas y, al mismo tiempo que frenaran la entrada de rayos solares, generarían electricidad”, agrega el investigador, quien apunta que empresas de la construcción ya han mostrado su interés.

Las células fotovoltaicas que convierten la luz solar directamente en electricidad usan en la mayor parte de los casos –alrededor del 85%– silicio cristalino como material activo, un producto muy caro, mientras que el resto está basado en capas delgadas de teluro de cadmio y sulfuro de cadmio, más económicas de producir, pero basadas en materias primas muy escasas y contaminantes por incluir cadmio.

Por este motivo, “la demostración de altas eficiencias en células solares de capa delgada usando materiales muy abundantes y baratos, como los que constituyen las perovskitas, abre la puerta para aumentar el porcentaje de energía solar en la mezcla de fuentes renovables”, según Bolink.


http://noticiasdelaciencia.com/not/9118/crean_una_lamina_fotovoltaica_de_perovskita_transparente_y_barata/

Nanocatalizadores para combatir la contaminación por nitritos

Unos ingenieros químicos han encontrado un nuevo catalizador que puede descomponer rápidamente los nitritos, una clase común de sustancias contaminantes que a menudo causa problemas en el agua potable, y que muchas veces es el resultado de un uso excesivo de fertilizantes agrícolas.

Los nitritos y sus más abundantes primos, los nitratos, son compuestos inorgánicos que a menudo se encuentran tanto en las aguas subterráneas como en las aguas superficiales.

Estos compuestos son un peligro para la salud, y por eso las autoridades sanitarias imponen límites sobre la cantidad de nitratos y nitritos en el agua potable.


Si bien es cierto que es posible eliminar del agua los nitratos y los nitritos mediante filtros y resinas, el proceso puede ser prohibitivamente caro.

Éste es un gran problema, sobre todo para las comunidades agrícolas, y no hay realmente ninguna opción buena para lidiar con ello.


[Img #17395]


El equipo de Michael Wong, profesor de ingeniería química y biomolecular en la Universidad Rice en Houston, Texas, Estados Unidos, estudia desde hace años el potencial de los catalizadores de oro y paladio, diseñados y fabricados a escala nanométrica.


En el nuevo estudio, el equipo de Wong ha demostrado que las nanopartículas artificiales de oro y paladio puestas a prueba son varias veces más eficientes en la descomposición de los nitritos que cualquier catalizador estudiado previamente.

Las partículas, que se inventaron en el Laboratorio de Catálisis y Nanomateriales de Wong, consisten en un núcleo sólido de oro que está parcialmente cubierto con paladio.



http://noticiasdelaciencia.com/not/9139/nanocatalizadores_para_combatir_la_contaminacion_por_nitritos/

Una mutación heredada de los neandertales aumenta el riesgo de diabetes

Según el trabajo publicado en Nature, las personas que portan la versión de mayor riesgo del gen tienen un 25% más de probabilidad de tener diabetes, y las personas que heredan copias de ambos padres son un 50% más propensas a sufrirla.

El mayor riesgo se ha encontrado en casi la mitad de la gente con ascendencia indígena, incluyendo los latinoamericanos. Además, la variante se encuentra en alrededor del 20% de los asiáticos del este y es poco frecuente en las poblaciones de Europa y África.

La frecuencia elevada de este gen de riesgo en los latinoamericanos podría ser responsable de hasta un 20% de la prevalencia en estas poblaciones de diabetes tipo 2, cuyo origen no se conocía bien.

"Hasta la fecha, los estudios genéticos han utilizado en gran medida muestras de personas de ascendencia europea o asiática, lo que permite que genes causantes puedan alterarse en otras poblaciones", explica José Florez, profesor en la Facultad de Medicina de Harvard (EE UU) y uno de los autores.


El investigador español subraya como "al expandir nuestra búsqueda para incluir muestras de México y América Latina hemos encontrado uno de los factores más fuertes de riesgo genéticos descubiertos hasta la fecha, lo que podría mejorar el conocimiento de la enfermedad y de su tratamiento".

El ser humano como especie surgió por primera vez en África, por lo que casi todas las variantes genéticas humanas comunes están presentes en las poblaciones africanas.

Por su parte, la variante SLC16A11 –a pesar de ser común en las poblaciones nativas americanas– está ausente en gran medida en las poblaciones africanas y es rara en las europeas.

Sin embargo, la frecuencia para esta variante de SLC16A11 es algo inusual. El equipo llevó a cabo análisis genómicos adicionales, en colaboración con Svante Pääbo, investigador del Instituto Max Planck de Antropología Evolutiva, y descubrió que la secuencia asociada con el riesgo de diabetes tipo 2 se encuentra en un genoma neandertal recientemente secuenciado.

Los análisis indican que la versión de mayor riesgo de SLC16A11 se introdujo en los humanos modernos a través de la mezcla con neanderthal. Para los autores, heredar un gen de un neandertal es bastante común: aproximadamente del 1 al 2% de las secuencias presentes en todos los seres humanos fuera de África fueron heredados de los neandertales.

Los expertos señalan que es importante destacar que ni las personas con diabetes ni las poblaciones de nativos americanos o de ascendencia latinoamericana tienen un exceso de ADN neandertal en relación con otras poblaciones.

El artículo revela por primera vez algunas pistas sobre la posible relación de SLC16A11 con la diabetes tipo 2. SLC16A11 es parte de una familia de genes que codifican para proteínas que transportan metabolitos (moléculas que participan en diversas reacciones químicas del cuerpo).


Este gen se expresa en el hígado, y los investigadores demostraron que la alteración de los niveles de la proteína SLC16A11 puede cambiar la cantidad de un tipo de lípido implicado previamente en el riesgo de diabetes.

Estos resultados han llevado al equipo a la hipótesis de que SLC16A11 puede estar involucrado en el transporte de un metabolito desconocido que afecta a los niveles de grasa en las células y, por lo tanto, aumenta el riesgo de diabetes tipo 2.


El objetivo final del equipo es encontrar nuevos objetivos farmacológicos para el tratamiento de la diabetes.


http://noticiasdelaciencia.com/not/9141/una_mutacion_heredada_de_los_neandertales_aumenta_el_riesgo_de_diabetes/

Sabotear las comunicaciones entre los parásitos de la Enfermedad del Sueño para limitar su propagación

Un nuevo hallazgo podría ayudar a combatir la propagación de la Enfermedad del Sueño. Unos científicos han obtenido nuevos y reveladores datos sobre cómo los parásitos que causan la enfermedad son capaces de comunicarse entre ellos, y los puntos débiles que los investigadores han encontrado en ese sistema de comunicación podrían ser explotados para ayudar a limitar la propagación de la infección.

Lo descubierto sugiere que se podría diseñar fármacos para interrumpir el flujo de mensajes entre esos microorganismos infecciosos.


[Img #17372]
La Enfermedad del Sueño (llamada así porque altera los patrones del sueño) es transmitida por la picadura de la mosca tse-tsé. Más de 69 millones de personas en África se encuentran en riesgo de infección. De no ser tratada, la enfermedad puede ocasionar daños en el sistema nervioso, lo que puede llevar al coma, a la incapacidad de diversos órganos para realizar sus funciones, y finalmente, la muerte.

Durante la infección, los parásitos Trypanosoma brucei se multiplican en el torrente sanguíneo y se comunican entre sí liberando una pequeña molécula. Cuando los niveles de esa molécula son suficientemente altos, eso actúa como señal para que el parásito detenga el proceso de replicación y cambie a una forma en la que es capaz de soportar en buenas condiciones el proceso de traslado de un organismo a otro a través de las respectivas picaduras de la mosca tse-tsé.


Los autores del nuevo estudio han conseguido dilucidar los componentes clave del sistema de mensajería de los parásitos.

El equipo del profesor Keith Matthews, de la Universidad de Edimburgo en Escocia, Reino Unido, se valió de la técnica conocida como silenciamiento de genes para identificar a los genes que intervienen en pasos clave del intercambio de mensajes, y a los mecanismos involucrados.



http://noticiasdelaciencia.com/not/9129/sabotear_las_comunicaciones_entre_los_parasitos_de_la_enfermedad_del_sueno_para_limitar_su_propagacion/

El agujero en la capa de ozono no se agranda pero tampoco se reduce

Unos científicos de la NASA han sacado a la luz algunos de los entresijos del funcionamiento interno del gran agujero de la capa de ozono que anualmente se forma sobre la Antártida. Entre los hallazgos, destaca el de que la disminución de los de los clorofluorocarbonos (CFCs) en la estratosfera lograda con el Protocolo de Montreal, el primer tratado internacional de la historia en regular agentes contaminantes, no ha causado todavía una recuperación clara de la capa de ozono en la región del agujero.

Más de 20 años después de que dicho Protocolo de Montreal limitase las emisiones humanas de las sustancias que disminuyen la presencia de ozono en la estratosfera, las inspecciones de la zona del agujero de la capa de ozono efectuadas por satélites han mostrado que, esencialmente, se ha estabilizado, dejando de adoptar tamaños cada vez mayores. Sin embargo, dos nuevos estudios muestran que aún no hay signos claros de recuperación.


[Img #17409]






La representación del agujero en la capa de ozono, visto a gran distancia desde arriba, como ésta que lo muestra en octubre de 2013, es una manera de ver la evolución del agujero de año en año. Sin embargo, las mediciones clásicas, en su forma común de representarlas e interpretarlas, tienen limitaciones.









La presencia de agujeros ocupando áreas más pequeñas, y la existencia de una cantidad total de ozono más grande, no necesariamente son evidencias de recuperación atribuibles a la disminución del agente químico culpable, tal como argumenta Susan Strahan, del equipo de investigación, y científica del Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt.

Un análisis minucioso del agujero de 2012 en la capa de ozono ha revelado que fue más complejo de lo creído anteriormente. El ozono aumentó en altitudes superiores a principios de octubre, arrastrado hacia allí por los vientos, ocultando la destrucción del ozono en la estratósfera baja.

El nuevo estudio muestra que las mediciones clásicas basadas en los valores totales de ozono tienen limitaciones y no pueden revelar la situación en su totalidad.

Una de las conclusiones que se desprenden de esta investigación es que la recuperación de la capa de ozono tras el Protocolo de Montreal es más lenta de lo que parecía. Se trata de un ejemplo claro de que hay que actuar con mucha antelación para evitar los efectos nocivos de trastornos medioambientales. No se puede caer en la inacción y limitarse a actuar cuando la situación esté cerca de un desastre, porque para entonces ya será demasiado tarde aunque se apliquen medidas contundentes.



http://noticiasdelaciencia.com/not/9147/el_agujero_en_la_capa_de_ozono_no_se_agranda_pero_tampoco_se_reduce/

La amenaza de la acidificación marina para la red alimentaria

Una expedición científica al Ártico ha revelado que un tipo de diminutos crustáceos marinos, conocidos como copépodos, probablemente tendrá serias dificultades para sobrevivir si la acidez oceánica continúa aumentando.

Presentes por todas partes del globo terráqueo, los crustáceos conocidos como copépodos figuran entre los animales marinos más abundantes, y representan una fuente vital de alimento para una amplia variedad de especies marinas. Los copépodos son un eslabón crucial entre el fitoplancton y los peces en las redes alimentarias de los ecosistemas marinos. Los copépodos también pueden actuar como bioindicadores, por lo que constituyen un sistema de alerta temprana sobre problemas en la salud ambiental de los océanos.

Hasta fechas recientes, ha sido difícil documentar la actividad de los copépodos y otras formas de vida marinas cuando el Océano Ártico queda cubierto por hielo, y más específicamente qué condiciones experimentan esos seres en su hábitat bajo el hielo estacional.


[Img #17373]El equipo de las investigadoras Ceri Lewis de la Universidad de Exeter y Helen Findlay del Laboratorio Marino de Plymouth, ambas instituciones en el Reino Unido, acampó en condiciones invernales sobre el hielo ártico a temperaturas de 40 grados centígrados bajo cero para recolectar los nuevos datos, que respaldan los pronósticos de que los copépodos afrontan en el Ártico un serio peligro para el sostenimiento de su población.

Se estima que el 30 por ciento del dióxido de carbono emitido por los seres humanos hacia la atmósfera se disuelve en los océanos. El dióxido de carbono disuelto en el agua forma ácido carbónico, el cual, a su vez, hace disminuir el valor del pH (o sea, aumentar la acidez) del agua de mar. Esta acidificación perjudica a muchos moradores del mar.

Como es previsible que las emisiones de carbono aumenten aún más, todo apunta a que los problemas que sufren los océanos por culpa de la acidificación creciente de sus aguas se agravarán aún más.

Algunas áreas del Océano Ártico ya están experimentando las tasas más rápidas de acidificación en el planeta. Esto, en combinación con la pérdida cada vez mayor de la cubierta de hielo, y el aumento de las temperaturas, conduce al pronóstico bastante claro de que la vida marina en el Ártico será la primera en recibir los golpes más duros del cambio climático global.



http://noticiasdelaciencia.com/not/9130/la_amenaza_de_la_acidificacion_marina_para_la_red_alimentaria/

Ven ponerse en marcha la maquinaria de la fotosíntesis dentro de cianobacterias

Las cianobacterias, presentes en casi todos los ecosistemas de la Tierra, son uno de los pocos casos de bacterias capaces de realizar la fotosíntesis y fijar el carbono, a partir de moléculas de dióxido de carbono, obteniendo el "combustible" que necesitan para vivir. Para el proceso resultan fundamentales unos compartimientos minúsculos llamados carboxisomas.

Los investigadores han elaborado vídeos en los que se aprecia a esta compleja y vital maquinaria celular siendo configurada en el interior de cianobacterias vivas, como primer paso de su funcionamiento.El carboxisoma, a diferencia de las organelas eucarióticas, se ensambla desde adentro hacia afuera.

Lo descubierto en este nuevo estudio conducirá a un mejor conocimiento de la fisiología bacteriana y también podría contribuir al avance de la nanotecnología.

Aunque las cianobacterias son también conocidas como algas verdeazules, su semejanza con las algas verdaderas es escasa en muchos aspectos, ya que éstas tienen complejos compartimientos delimitados por membranas y conocidos como organelas, incluyendo cloroplastos, mientras que las cianobacterias, como todas las otras bacterias, carecen de organelas delimitadas por membranas. Gran parte de su maquinaria celular, incluyendo su ADN, flota en el citoplasma de la célula sin estar confinado por membranas. Sin embargo, sí tienen microcompartimentos rudimentarios donde tienen lugar algunas tareas especializadas.

Debido a que son tan abundantes, las cianobacterias desempeñan un papel importante en el ciclo del carbono de la Tierra, el ciclo en el cual el carbono se transfiere entre el aire, el mar y la tierra.

En este video, realizado por Jeffrey Cameron y Cheryl Kerfeld, puede verse que después de activar los genes decisivos, las cianobacterias comenzaron a construir carboxisomas a partir de materiales marcados de manera fluorescente, para permitir identificarlos claramente. El vídeo se compone de cuadros o fotogramas que son imágenes extraídas de una grabación y separadas por intervalos de 3 minutos, y comienza dos horas después de entrar los genes en escena:




Conexiones eléctricas entre bacterias de distintas especies

Durante cuarenta años, la comunidad científica ha creído conocer cómo ciertas bacterias trabajan juntas para "digerir" anaeróbicamente biomasa, produciendo con ello gas metano. Ahora, sin embargo, unos microbiólogos han comprobado que uno de los más abundantes microorganismos productores de metano en la Tierra forma conexiones eléctricas directas con un microorganismo de otra especie, produciendo así el gas de una manera completamente inesperada.

Las bacterias Methanosaeta son importantes por varias razones. La principal probablemente sea la de que son muy activas en humedales metanógenos, hasta el punto de que figuran entre las más destacadas productoras de metano del planeta. El interés hacia los organismos productores de metano va más allá del interés puramente académico, ya que el metano es en la atmósfera 20 veces más eficaz para retener el calor que el CO2. Teniendo en cuenta la amenaza del calentamiento global, es del máximo interés conocer a fondo la actividad de los microorganismos productores de metano.

Las comunidades microbianas productoras de metano han sido estudiadas durante décadas, pero a lo largo de todo este tiempo la comunidad científica desconocía una importante vía de producción de metano.


[Img #17370]




 Las bacterias Methanosaeta tienen la capacidad de generar metano a partir de dióxido de carbono mediante un notable mecanismo en el que establecen conexiones eléctricas con otros microorganismos, una forma de metanogénesis nunca antes vista.







Ya se sabía por estudios previos que en las Geobacter crecen filamentos eléctricamente conductores conocidos como nanocables microbianos, que pueden transportar electrones fuera de la célula, estableciendo conexiones eléctricas con minerales, electrodos u otras células. Se comprobó además que las bacterias Methanosaeta eran los microorganismos productores de metano dominantes en las cámaras de descomposición. También se sabía que pueden convertir el acetato en metano, pero el análisis de la expresión genética en el espacio propio de una cámara reveló que las bacterias Methanosaeta también tenían una elevada expresión de genes para la conversión de dióxido de carbono en metano. Los investigadores especularon con que las bacterias Geobacter estaban abasteciendo a las Methanosaeta con electrones a través de sus nanocables a fin de promover en éstas la producción de metano a partir de CO2.

Experimentos posteriores, en los que se cultivaron juntas la bacteria Geobacter y una especie de Methanosaeta, confirmaron estas sospechas. Lovley y sus colegas utilizaron trazadores radiactivos para demostrar que el CO2 estaba dando lugar a metano, a partir del proceso citado. A esa transferencia de electrones se la ha denominado "transferencia directa de electrones entre especies". Se confirmó del todo cuando usaron una cepa de Geobacter genéticamente alterada que no podía producir nanocables, y el proceso no funcionó.


El descubrimiento de la transferencia directa de electrones entre especies desafía el concepto sostenido durante décadas de que las comunidades microbianas naturales productoras de metano principalmente intercambian electrones a través de la producción y el consumo de hidrógeno.

La transferencia de electrones entre las especies es un mecanismo mucho más directo y potencialmente más eficiente para abastecer de electrones a bacterias productoras de metano.

El hallazgo puede conducir a un aumento espectacular de eficacia en el aprovechamiento energético del metano generado a través de procesos microbianos en instalaciones artificiales o semiartificiales.



http://noticiasdelaciencia.com/not/9127/conexiones_electricas_entre_bacterias_de_distintas_especies/

martes, 24 de diciembre de 2013

Electricidad microbiana a partir de aguas residuales

Un equipo interdisciplinario ha creado una nueva  "batería microbiana" que se sirve de bacterias bastante comunes en la naturaleza, a las cuales la evolución ha dotado de una llamativa capacidad: La de producir electricidad cuando "digieren" materia orgánica.

Hace mucho tiempo que se conocía de la existencia de tales microbios, que al evolucionar en ambientes idóneos desarrollaron las características necesarias para generar reacciones químicas con minerales que contienen óxido, a fin de obtener el "combustible" que necesitan para vivir.


[Img #17297]Durante el último decenio, algunos grupos de investigación han puesto a prueba varias maneras de usar estos microbios como biogeneradores de electricidad, pero explotar con la debida eficacia esta fuente potencial de energía ha sido todo un desafío.

Los creadores de esta singular batería eléctrica esperan que sea usada en lugares como las plantas depuradoras para tratamiento de aguas residuales, o en labores como descomponer sustancias contaminantes orgánicas en las "zonas muertas" de bastantes lagos y de algunos sectores marinos costeros.

Por el momento, sin embargo, el prototipo a escala con el que se trabaja en el laboratorio es poco más que un frasco con dos electrodos, uno positivo y otro negativo, colocados en el recipiente que contiene aguas residuales.


Dentro de ese frasco, pegado al electrodo negativo como lapas al casco de un barco, un raro tipo de bacteria se da un festín con las partículas de desechos orgánicos presentes en el agua, y produce electricidad que luego es capturada por el electrodo positivo de la batería. De hecho, los microbios proyectan unos zarcillos, a modo de cables eléctricos, por los que son expulsados los electrones que de otro modo se les acumularían peligrosamente.

A medida que estos microbios se nutren de materia orgánica y la convierten en su combustible biológico, sus electrones sobrantes fluyen hacia unos filamentos especiales del sistema, y prosiguen su trayecto hacia el electrodo positivo, hecho de un material que atrae los electrones.

Los ingenieros de la Universidad de Stanford estiman que la batería microbiana puede extraer un 30 por ciento de la energía potencial contenida en las aguas residuales. Aproximadamente de ese mismo orden es la eficiencia con que las mejores células solares disponibles comercialmente convierten la luz solar en electricidad.



http://noticiasdelaciencia.com/not/9094/electricidad_microbiana_a_partir_de_aguas_residuales/

Factor clave en la rapidez de una infección vírica

Los virus son demasiados básicos o elementales para ser capaces de reproducirse por sí mismos. Pero poseen una notable capacidad para explotar la “maquinaria” reproductiva de las células, mediante la inserción de elementos de su propio ADN de modo que sea transcrito por la célula receptora. Esta capacidad depende de que logren inyectar con éxito su material genético en las células a las que atacan.

Así pues, la principal vía de ataque de los virus consiste en la liberación del ADN viral dentro de la célula atacada.

Con el fin de combatir mejor a los virus, o encontrar formas de aprovechar para fines útiles esa capacidad, los científicos están tratando de entender este proceso en detalle.


[Img #17319]Un equipo internacional de investigadores ha estudiado cómo ocurre el proceso descrito y cuánto tiempo tarda en ser completado.

Cristian Micheletti de la escuela internacional de estudios avanzados (SISSA) de Trieste, Italia, y sus colegas, construyeron un modelo computacional del ADN viral y luego simularon la liberación de material genético desde la cápside viral dentro del núcleo de la célula receptora.

El equipo de investigación ha estudiado la cronología típica de los diversos pasos en el proceso por el cual el ADN vírico es lanzado hacia el interior de la célula atacada, y en particular cuánto tiempo toma y cuál es la secuencia precisa de eventos, y ha descubierto que eso depende del grado y la forma de entrelazamiento de la doble cadena de ADN dentro del virus. En otras palabras, la fluidez del proceso está sujeta a las fuerzas de fricción que dependen de cómo y con qué fuerza se entrelaza el ADN viral.


La situación es un tanto similar a la del comportamiento de la cuerda o cadena de un ancla. Si se ha enrollado bien, cuando el ancla se lanza por la borda, la cuerda se desenrolla limpiamente y sin paradas o tirones debidos a enredos, tal como comenta Micheletti a modo de ejemplo.


http://noticiasdelaciencia.com/not/9105/factor_clave_en_la_rapidez_de_una_infeccion_virica/

Hallan los puntos del cerebro donde se desarrolla la epilepsia

Una investigación de doctorado de la Universidad Nacional (UN) de Colombia propone el estudio de focos epilépticos a partir de algoritmos matemáticos, lo que permite encontrar con mayor rapidez y certeza los puntos del cerebro donde se desarrolla la epilepsia. El trabajo, que fue iniciado por el estudiante Eduardo Giraldo Suárez durante su maestría y presentado como tesis del Doctorado en Ingeniería – Línea de Investigación Automática en la Universidad Nacional de Colombia en Manizales, recibió "Mención Meritoria" por la rigurosidad metodológica, su potencial aplicación clínica y su meticulosidad en el desarrollo y ejecución. 

[Img #17316]

“Con los algoritmos que se perfeccionaron y que se propusieron dentro de la tesis doctoral, lo que se hace es mejorar las posibilidades de reducir los efectos colaterales asociados a una operación de epilepsia, durante la etapa de diagnóstico médico. El trabajo fue muy matemático en la parte del desarrollo de los algoritmos, pero la mención meritoria fue dada específicamente por la rigurosidad y la potencial aplicación en la parte clínica”, argumentó Giraldo Suárez.

En el análisis, donde se implementó una técnica conocida como problema inverso diverso, se ofrece una herramienta menos invasiva para reducir el tamaño del fragmento que se va a extraer en un procedimiento quirúrgico, evitando que se elimine una gran porción.


De esta forma, se minimiza la posibilidad de que se presenten efectos secundarios en el individuo, como disminución de la memoria a corto plazo, problemas en el habla y limitación en los movimientos.

“Esa mención me da ánimo para no dejar en la parte teórica todos esos algoritmos que se desarrollaron, sino que pueda avanzar en muchas aplicaciones. La idea es que, a través de los proyectos de investigación con los que se sigue trabajando en la U.N. y con los convenios que se manejan con centros médicos, se pueda llevar una aplicación más tangible alrededor del proyecto matemático que se hizo en la tesis doctoral”, agregó el investigador de la Sede Manizales.


http://noticiasdelaciencia.com/not/9102/hallan_los_puntos_del_cerebro_donde_se_desarrolla_la_epilepsia/

Las barreras al aborto más difícil

Hidrocefalia grave, isomerismo derecho cardiaco, esclerosis tuberosa... Decenas de enfermedades fetales incurables que conllevan una alta probabilidad de mortalidad o que pueden provocar graves secuelas neurológicas deberán seguir su curso sin que las madres puedan remediarlo si se diagnostican a partir de las 22 semanas de embarazo. Así lo contempla la nueva ley del aborto, una norma que no dejará más salida que partir al extranjero y pagar los entre 6.000 y 7.000 euros que puede costar la intervención, especialmente delicada dado el avanzado estado de la gestación, a quien quiera interrumpir el que quizás sea el aborto más difícil, aquel de hijos queridos con anomalías gravísimas incurables.
Cada año se producen entre 300 y 400 abortos por malformación fetal por encima de las 22 semanas. Corresponden a dos tipos de diagnósticos. Los menos numerosos, como comenta Begoña Diego, ginecóloga especialista en diagnóstico prenatal, son aquellos en los que se detectan anomalías incompatibles con la vida (según la terminología y criterios empleados por la Sociedad Española de Ginecología y Obstetricia, SEGO). La nueva ley permitirá que la mujer interrumpa estos embarazos si demuestra que la gestación le supone un riesgo psicológico para su salud y la patología no se ha detectado antes “con un diagnóstico certero”, circunstancias que deben avalar sendos informes.
Pero las más numerosas son las intervenciones que tienen relación con enfermedades extremadamente graves e incurables. Son situaciones con una alta probabilidad de mortalidad durante el periodo fetal o tras el nacimiento, asociados con “un tiempo de supervivencia corto y/o con un desarrollo neurológico profundamente deficiente y/o una probabilidad de dependencia extrema y persistente para el desarrollo de la vida posnatal”, según la definición de la SEGO.
Existen distintas causas que explican que estos casos no se puedan diagnosticar antes (las pautas de las sociedades científicas recomiendan que el primer diagnóstico con ecografía prenatal se practique entre las semanas 11 y 14, el segundo entre las 20-22 y el tercero entre las 31-33).

El clima frío contrae montañas

Cada año, miles de millones de toneladas de roca y tierra desaparecen de la superficie de la Tierra, recorrieron desde las montañas y llanuras y barridas por el viento, la lluvia y otros elementos. El principal motor de este rejuvenecimiento dramático es el clima, según un nuevo estudio. Y cuando cae la temperatura global, la erosión comienza a toda marcha.

La mayoría de los estudios previos de la erosión se han basado en la medición de las cantidades de sedimentos que se acumulan en algún lugar después de haber sido llevado lejos de sus fuentes y depositado en otro lugar.Pero este tipo de análisis se centran en las secuelas de la erosión, no el proceso en sí mismo. Para estimar de forma más directa las tasas de erosión, los investigadores utilizan técnicas generalmente conocidas como termocronometría, o la medida de la temperatura de una roca ha cambiado a través del tiempo. Muchas de estas técnicas se basan en la evaluación de la forma de desintegración de elementos radiactivos dentro de una roca que ha afectado sus minerales.

Recorrer el poder.  El aumento espectacular de las tasas de erosión en todo el mundo en los últimos 2 millones años se puede atribuir en gran medida a la formación y expansión de los glaciares de latitudes medias (como el Glaciar de Aletsch en Suiza, que se muestra aquí), sugiere un estudio reciente.
Hace unos 6 millones de años, como se enfría el clima de la Tierra, las tasas de erosión en general aumentaron en todas las latitudes, pero aumentaron sobre todo en las regiones montañosas. Luego, en la estela de refrigeración aún más fuerte que ayudó a desencadenar una serie de edades de hielo y períodos interglaciares comenzando hace unos 2,4 millones de años, las tasas de erosión se duplicaron , publicó el equipo en línea hoy en día en la naturaleza . Debido a la erosión aumentó más drásticamente en las latitudes medias de montaña rangos-áreas con mayor probabilidad de primera experiencia glaciares como el clima gradualmente refrigerado por Herman y sus colegas culpan a la aceleración de la erosión de la erosión glacial.
Los nuevos resultados, y especialmente de su escala global ", confirma para mí que los aumentos en las tasas de erosión son ​​una señal climática", dice David Egholm, geofísico de la Universidad de Aarhus en Dinamarca. En particular, señala, las variaciones de latitud-dependiente en las tasas de erosión "muy probablemente" se pueden atribuir a los glaciares.
Si el clima de la Tierra continúa enfriándose, como lo ha hecho en el largo plazo en los últimos millones de años, las tasas de erosión es probable que continúe aumentando. Pero si esa tendencia al enfriamiento puestos, ya sea debido a las variaciones naturales del clima o el calentamiento debido a las emisiones humanas de gases de efecto invernadero, la erosión en todo el mundo disminuirá gradualmente. Eso es un efecto que no podría incluso ser notado en el corto plazo, ya que probablemente desarrollará durante millones de años, además de que probablemente se puede enmascarar con otros cada vez mayores cambios humanos impulsada en el paisaje.