jueves, 31 de julio de 2014

Facebook lanza aplicación para acceso a internet básico y gratuito

Facebook lanza aplicación para acceso a internet básico y gratuito. Reuters
Facebook presentó en su sitio este jueves una aplicación móvil que permite acceder gratuitamente a algunos servicios básicos de internet, en el marco de un proyecto que comienza en Zambia para abrir el camino al ciberespacio en regiones apartadas o poco desarrolladas.

"Zambia se convierte en el primer país donde podemos proveer una serie de servicios básicos gratuitamente", dijo el fundador y presidente de Facebook, Mark Zuckerberg, en un mensaje publicado en su página personal en la red.

El empresario reveló que sólo 15% de los habitantes de Zambia tienen en la actualidad acceso a internet.

La aplicación "Internet.org", presentada este jueves, estará disponible en una primera etapa únicamente en ese país, en asociación con el operador de telecomunicaciones Airtel, pero Facebook dijo querer "continuar mejorando (su) utilización y extenderla a otros países del mundo", en otro mensaje en su sitio oficial.

Los usuarios podrán acceder a través de la aplicación a una decena de servicios (clima, salud, informaciones locales, búsqueda de empleo, así como también al motor de búsqueda de Google y a Facebook). Los datos utilizados no serán cobrados por Airtel.

Facebook lanzó en agosto de 2013 el proyecto Internet.org, con la meta de ampliar el acceso a internet a 5.000 millones de personas -sobre una población mundial de 7.000 millones- reduciendo drásticamente el costo de los servicios de internet en los teléfonos móviles en los países en desarrollo.

Para estos efectos, también creó a finales de marzo el "Connectivity Lab" o "Laboratorio de conectividad", que reúne a expertos de la NASA y a cinco empleados del fabricante británico de aviones solares Ascenta.
Colaboración AFP

Descubren el secreto científico de la misteriosa sonrisa del gato de Alicia

Ilustración del Gato de Cheshire

Es la primera vez que lo consiguen: los científicos separaron una partícula de una de sus propiedades físicas, creando así un "Gato de Cheshire cuántico".

El fenómeno recibe el nombre del enigmático felino del cuento de "Alicia en el país de las maravillas", que se desvanece dejando su sonrisa flotando en el aire.
Para su hazaña, que describen en la revista especializadaNature Communications, los investigadores tomaron un haz de neutrones y los separaron de sus momentos magnéticos, como cuando los pasajeros se separan brevemente de su equipaje en el control de seguridad de los aeropuertos.

Y el mismo truco de separación podría en principio realizarse con cualquier propiedad de cualquier objeto cuántico, aseguran sus creadores, científicos de la Universidad de Tecnología de Viena, Austria.

¿Y para qué puede servir la sonrisa cuántica de un gato imaginario? Según los expertos, esta técnica podría ser muy útil para la metrología, la ciencia que estudia las mediciones, al permitir filtrar las perturbaciones durante las mediciones de alta precisión de sistemas cuánticos.

La paradoja de Schrodinger
En la clásica historia para niños de Lewis Carroll, el Gato de Cheshire desaparece lentamente del cielo y deja solamente su sonrisa pícara.
Ante esto, Alicia exclama: "He visto a menudo un gato sin sonrisa, pero no una sonrisa sin gato. ¡Es la cosa más curiosa que he visto en mi vida!"

La idea de un "Gato de Cheshire cuántico" fue propuesta por primera vez en 2010 por Jeff Tollasksen, de la Universidad de Chapman, en Estados Unidos, uno de los autores de este nuevo trabajo.
Gráfico de la paradoja del Gato de Cheshire
El gato (el neutrón) va por el camino de arriba, y su sonrisa (el momento magnético) va por el de abajo.

En el mundo que conocemos, un objeto y sus propiedades siempre van juntos.
Una pelota que gira, por ejemplo, no puede separarse de su rotación.

La teoría cuántica predice que una partícula (como un fotón o un neutrón) puede separarse físicamente de una de sus propiedades, como su polarización o su momento magnético (la fuerza con la que se acopla a un campo magnético externo).
"Encontramos el gato en un lugar, y su sonrisa en otro", explican los investigadores.

La analogía felina es un guiño al gato de Schrodinger – el experimento imaginario en el que, dentro de una caja, un gato está muerto y vivo al mismo tiempo, ilustrando un fenómeno cuántico conocido como superposición.

La precisión del gato cuántico
Para probar que el Gato de Cheshire no es sólo una teoría simpática, los científicos usaron una máquina llamada interferómetro en el Instituto Laue-Langevin (ILL) en Grenoble, Francia.

Allí hicieron pasar un haz de neutrones por un cristal de silicona dirigiéndolo en dos caminos diferentes, como los pasajeros y sus maletas en el control de los aeropuertos.
Al aplicar filtros y una técnica conocida como "post selección" pudieron detectar la separación física de los neutrones de sus momentos magnéticos.

"El sistema se comporta como si los neutrones fueran por un camino, mientras sus momentos magnéticos viajan por el otro", detallaron los expertos.
Pero para poder ver este Gato de Cheshire se requiere lo que los físicos cuánticos llaman una "medición débil", en la que interactúan con un sistema muy suavemente para evitar que colapse de su estado cuántico a uno clásico.

Sus delicados aparatos pueden tener aplicaciones útiles para la metrología de alta precisión, dicen los autores.
"Por ejemplo, uno podría imaginar una situación en la que el momento magnético de una partícula eclipsa a otra de las propiedades de la partícula que uno quiere medir con mucha precisión".

"El efecto del Gato de Cheshire puede dar lugar a una tecnología que permita separar el momento magnético no deseado a una región donde no cause perturbación a la medición de alta precisión de la otra propiedad", dicen los creadores del enigmático gato cuántico. (BBC Ciencia)

La bala que puede cambiar las guerras


Prototipo de bala de la DARPA
El prototipo fue desarrolaldo por la Agencia de Proyectos de
Investigación Avanzada de Defensa (DARPA)
.

Una bala que, tras ser disparada, se detiene y cambia de dirección. Todo en milésimas de segundo, como en la película Matrix.

Pero en este caso, el escenario es la realidad y el "arquitecto", el ejército de Estados Unidos.
Seis años le tomó a la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA por sus siglas en inglés), desarrollar el prototipo.

Y tras unos US$25 millones invertidos, lograron una prueba que funcionó.
La DARPA es el brazo de la defensa de EE.UU. encargado de desarrollar las armas del futuro. Y basta ver el video del demo de la bala para darse cuenta.


Este muestra un disparo de rifle, calibre 50. La bala alcanza su objetivo, con el mero detalle de que el rifle apuntaba hacia otra dirección.
La bala fue desarrollada como parte del proyecto Artillería de Extrema Precisión (EXACTO) y "busca mejorar la efectividad de francotiradores y la seguridad de las tropas al permitirles mayores alejamientos de tiro y una reducción de los plazos para alcanzar el blanco", asegura la página web del proyecto.

"Es crítico para los francotiradores ser capaces de alcanzar los objetivos más rápido y con mayor precisión, ya que cada disparo que no alcanza su objetivo pone en riesgo la seguridad de las tropas, al indicar su presencia y, potencialmente, exponer su ubicación".
"Santo grial" de la balística

La teoría detrás de la tecnología de EXACTO pareciera no ser demasiado complicada. Se basa en un sistema de guía que envía señales a la bala mientras está en vuelo y altera su curso.
Pero el video es de baja resolución y no muestra exactamente cómo se guía la bala.

Lo básico de la reproducción no es casual: de demostrarse su efectividad, el sistema cambiará la forma de hacer una guerra. Y la DARPA lo mantiene como su secreto mejor guardado. O al menos, como uno de ellos.

"La idea de balas guiadas siempre ha sido considerada 'el santo grial' de la tecnología de proyectiles, a pesar de que sólo recientemente se han vuelto disponibles los micro-sensores que facilitan esta tecnología", le comenta a BBC Mundo Christopher Shepherd, profesor de Ciencia Forense de la Universidad de Kent, experto en balística.

"De hecho, esta tecnología es pionera, a pesar de que se ha estado investigando por años", continúa Shepherd.
Porque a pesar de que fórmulas para desviar proyectiles en vuelo han sido ampliamente estudiadas y utilizadas en armamento de guerra mayor –como misiles-, las pruebas en municiones más pequeñas no han sido exitosas. Hasta ahora.

"Las armas de menor calibre tienen un espacio extremadamente limitado para adaptarse a estos mecanismos. El cambio de la masa y la distribución de un proyectil puede alterar significativamente su rendimiento balístico exterior, por lo que la miniaturización de las tecnologías necesarias es probablemente el mayor desafío", le explica a BBC Mundo James Shackel, experto en balística y profesor del Cranfield Forensic Institute.

¿Cómo funciona el sistema?
La forma en que funciona el sistema que direcciona la bala, por lo tanto, el que la desvía, es un total misterio. Pero los expertos tienen algunas pistas.

"La habilidad de corrección [de la dirección] está relacionada ya sea a los anillos mostrados (expansión/contracción de estos anillos que alteran la distribución de la masa y/o el flujo de aire de la superficie de la bala) o podría haber una masa dentro de la bala que puede cambiar de posición, lo que provoca que la bala giratoria cambie de posición", explica Shackel.

Sin embargo, este cambio tiene sus límites. Y las balas de rifle calibre 50 son unas de las más grandes dentro de las municiones de armas menores.
"Aunque el mecanismo interno de la bala en el sistema EXACTO es desconocido, probablemente sólo será capaz de realizar pequeños cambios en su durante estos intervalos más largos, debido a la velocidad a la que la bala se mueve", señala Shepherd.

"El pequeño tamaño de la bala, y la falta de aletas en este sistema EXACTO también parece ofrecer poca oportunidad para frenar el descenso de la bala de manera significativa para facilitar un mayor cambio en la dirección. Un sistema anterior publicado por otro organismo de defensa de EE.UU. emplea aletas para maniobrar el proyectil y es la manera más fácil de hacerlo", le comenta a BBC Mundo el investigador de la Universidad de Kent.

Se refiere al desarrollado por Sandia, otra agencia del gobierno estadounidense, que en 2012 desarrolló un prototipo de bala guiada con un sensor interno y aletas ajustables. Sin embargo, el sistema se basaba en tecnología de transmisión láser, por lo que era vulnerable a las condiciones climáticas, algo que la DARPA parece haber resuelto.

"La utilización de un sistema de teledirección óptico, el que sólo puedo asumir que sea basado en infrarrojo, significa que no tendrá los mismos problemas que los sistemas anteriores asociados a tecnologías láser que se bloquean o son sensibles a las condiciones climáticas".

¿Revolución de la guerra moderna?
Esta tecnología no es necesariamente aplicable a todos los escenarios donde se desarrollan los actuales conflictos bélicos.
"La guerra moderna no se lucha en un campo de batalla como las anteriores guerras mundiales", asegura Shepherd.

Según el experto, las disputas de hoy tienen dos grandes escenarios. El primero son las luchas urbanas, en estrecho contacto con el adversario. En ellas este sistema no serviría, dado el corto alcance de la trayectoria de las balas utilizadas.

Un segundo escenario de las guerras modernas son los intercambios de larga distancia, con francotiradores en condiciones adversas, como las que ha enfrentado el ejército de EE.UU. en Afganistán: campos montañosos, con poca visibilidad y donde los objetivos no están en la línea de visión.

"Es un tremendo desafío para los francotiradores militares darle a blancos en movimiento en condiciones no favorables, como fuertes vientos y terreno polvoriento, como el que se encuentra comúnmente en Afganistán, con la tecnología actual", narra la página oficial de la DARPA.

"Este nuevo sistema ayudará a hacer tiros largos más preciso o a golpear objetivos que quizá no están en la línea de visión, aunque es probable que sea sólo en un pequeño número de casos", concluye Shepherd.

miércoles, 30 de julio de 2014

Un sistema acústico para medir el transporte de sedimento en ríos

[Img #21238]

En busca de técnicas rápidas, económicas y seguras para cuantificar el sedimento de los ríos, investigadores de la Universidad Nacional del Litoral (UNL), en Argentina, prueban un novedoso sistema acústico. Se trata de perfiladores que aprovechan el llamado efecto Doppler, diseñados originalmente para medir velocidades del flujo y que podrían servir para cuantificar el transporte de sedimentos en cursos naturales a fin de identificar y resolver problemas de sedimentación en embalses, puertos o rutas de navegación, entre otros.

Ricardo Szupiany, investigador de la Facultad de Ingeniería y Ciencias Hídricas (FICH) y Conicet, explicó que se trata de tecnologías que se encuentran en proceso de estudio, pero que aún no reemplazaron a los métodos tradicionales: “Esta tecnología aparece como la más prometedora dentro de las alternativas que se están analizando. Resultados recientes sobre el sistema del río Paraná demuestran que son comparables con los métodos tradicionales”, contó.

Medir el sedimento del río es importante, porque es clave en su dinámica. Con ese conocimiento se pueden predecir con gran resolución espacial problemas de ingeniería (en el caso de la construcción de un embalse, por ejemplo), para determinar zonas de erosión o sedimentación en zonas críticas como puertos o en los pasos críticos de las rutas de navegación que dificultan la circulación de barcos.

Szupiany expresó que actualmente se utilizan métodos mecánicos para cuantificar el transporte de sedimentos de los ríos, sistemas muy costosos que insumen mucho tiempo de medición e inseguros en la práctica. Consisten en hacer descender y ascender aparatos que toman muestras de agua, con las embarcaciones ancladas en determinados puntos, y luego llevarlas a laboratorio para analizar concentraciones y granulometría. “Son mediciones dificultosas, porque salir a campo es caro, se tardan días enteros y la precisión no es la adecuada, porque no se pueden tomar demasiadas muestras, sino un número limitado. En concreto: la resolución espacial y temporal no es buena, dificultando el entendimiento de los procesos que operan”, redondeó.

En cambio, la nueva propuesta de los investigadores de la FICH es la utilización de instrumentos llamados Perfiladores de Corrientes Acústicos Doppler (ADCP, por sus siglas en inglés), que fueron creados originalmente para medir caudales utilizando la acústica. “Con la embarcación se recorre el río de una margen a la otra, mientras el aparato va sumergido emitiendo pulsos de sonido que rebotan en las partículas en suspensión y el fondo del cauce. Así, la señal vuelve al aparato y en base a un cambio de frecuencia, debido al movimiento, determina la velocidad del flujo a diferentes profundidades del agua e intervalos de tiempo. Cuando la embarcación llega al otro lado, el aparato ya registró el tránsito del caudal, algo que tradicionalmente se hacía bajando un molinete”, recordó.

Pero, según Szupiany, esa misma tecnología se puede usar para medir niveles de sedimento. “Aprovechamos la capacidad del instrumento en medir intensidades de las señales acústicas de retorno y, en función de ello, determinamos la concentración de material. Entonces, el aparato se creó para caudales líquidos, pero ahora se piensa también para caudales sólidos”, manifestó.

Según precisó, el aparato toma una sección transversal y hace una grilla en vertical y profundidad mucho más densas que con el método mecánico. Cuando se hace un ploteo de los valores, se obtiene la manera en que se comporta el sedimento. A nivel científico, se trata de un gran avance, porque permite encarar el problema desde otro punto de vista, con resoluciones imposibles de obtener con los métodos tradicionales.

El investigador añadió que el ADCP otorga otras ventajas como, por ejemplo, los costos, ya que con él las mediciones se pueden hacer en unos pocos minutos y con un análisis de laboratorio bastante sencillo. “El factor económico muchas veces nos limita, porque el sistema tradicional implica disponer de una embarcación durante un tiempo prolongado, con los insumos de traslado y combustible que eso significa, además de necesitar disposición de personal. Esta es la principal causa de por qué en la red hidrométrica Argentina la variable sedimento es mucho menos medida. Por su parte, el nuevo método nos lleva mucho menos tiempo, con lo cual todos los costos se reducen”, celebró.

Asimismo, Szupiany destacó que los perfiladores son elementos que poseen cierta complejidad, pero que se pueden aprender a usar luego de un entrenamiento. De hecho, existen contactos con organismos provinciales y nacionales que se encargan de hacer las mediciones y con la empresa que releva la red hidrológica nacional, con el fin de que se prueben los ADCP en sus estaciones de medición.

“Los diferentes grupos y organismos que miden sedimento en cursos naturales del país tenderán a usar esta tecnología, ya que podrán reducir costos, aumentar la frecuencia y ampliar la escasa red de medición”, finalizó.

El grupo que dirige Szupiany está compuesto por Francisco Latosinski, Lucas Domínguez Ruben, Cecilia López Weibel, Mario Amsler y Carlos Ramonell, además de investigadores de Italia y Estados Unidos, con quienes trabajan en la conformación de una red. Además, el trabajo que realizan ya fue publicado a nivel internacional en Journal of Hydraulic Engineering, bajo el título Concentration and suspended load assessments by means of ADCP recording in a large river. (Fuente: UNL/DICYT)

Energizar California exclusivamente con electricidad de origen hidráulico, solar y eólico para el 2050

[Img #21343]
El estudio de la Universidad de Stanford permite vislumbrar cómo la energía de
instalaciones como el ISEGS (Ivanpah Solar Electric Generating System), en
el desierto californiano de Mojave, podría formar parte del futuro basado en
las energías renovables de ese estado. (Foto: de BrightSource Energy Inc.)
Cada vez resulta más evidente que es viable, técnica y económicamente, iniciar una transición total hacia las energías limpias y renovables. Desde el punto de vista económico, el ahorro en gastos sanitarios para tratar las enfermedades crónicas generadas en la población por la contaminación podría compensar el costo de la transición e incluso el rendimiento menor de las infraestructuras de energía limpia y renovable en comparación con el de las de energía sucia y no renovable.

Debido a todo esto, comienzan a perfilarse proyectos orientados a puntos geográficos concretos, para aprovechar las fuentes de energía limpia y renovable más comunes y prácticas en cada lugar.

Ahora se han presentado los alentadores resultados de un estudio, en este caso enfocado a California, uno de los estados más tecnificados de Estados Unidos y del mundo, y la conclusión es que resulta viable energizar California exclusivamente con electricidad limpia, esencialmente de origen hidráulico (en el sentido más amplio), solar y eólico, para alrededor del año 2050. Esto podría servir de ejemplo para algunos otros lugares del mundo.

El equipo de Mark Z. Jacobson, profesor de ingeniería civil y medioambiental en la Universidad de Stanford en California, ofrece, en cierto modo, una hoja de ruta hacia un posible futuro para California en el que la energía renovable creará un entorno más sano, generará empleos y estabilizará los precios de la energía. Las zonas urbanas de esa California del futuro estarían libres de humos. Por las carreteras, solo circularían automóviles eléctricos y otros vehículos del mismo tipo. La electricidad de la que se alimentarían todos esos vehículos, así como viviendas y locales, provendría de centrales hidroeléctricas (incluyendo las que aprovechan el flujo de las mareas y el del oleaje), eólicas y solares, repartidas según su tipo en las zonas más idóneas.

Los resultados del estudio indican que es técnica y económicamente viable convertir la infraestructura californiana para todos los tipos de energía en una alimentada sólo por energía limpia y renovable. También muestran el camino a seguir hacia un suministro energético sostenible, barato y fiable en California que podría crear decenas de miles de empleos y ahorrar miles de millones de dólares en costes sanitarios relacionados con la contaminación.

El plan perfilado en el estudio llevaría a California a energizar todo su transporte, industria y suministro energético a viviendas, incluyendo calefacción y aire acondicionado, con energía renovable, hacia 2050. En el estudio se calcula el número de nuevos aparatos y empleos creados, las áreas terrestres y marinas que se requerirían, y las políticas que se necesitarían para los cambios en la infraestructura. También proporciona nuevas estimaciones sobre los impactos en la mortalidad, en la enfermedad y en los costes debidos a la contaminación del aire, basándose en datos de calidad del aire de varios años. El plan es análogo a uno que Jacobson y otros investigadores desarrollaron para el estado de Nueva York, otra zona donde el mero descenso de los costes sanitarios generados por la contaminación ayudaría en buena medida a financiar el uso exclusivo de energías renovables.

Los resultados del estudio indican que, si bien una conversión hidráulica, solar y eólica a gran escala podría suponer un gasto inicial notable, como el de construir centrales eléctricas de energía renovable, tales costes quedarán amortizados por los diversos ahorros, tanto los directamente inherentes a dejar de usar las energías sucias, como los de no tener que pagar los elevados costos sanitarios por la mayor incidencia de casos de enfermedades causadas o agravadas por la contaminación medioambiental.

Otro efecto de esta conversión que se pronostica en el estudio es que los precios de la energía se estabilizarían. Después de todo, materias primas como el petróleo cada vez serán más caras, mientras que, por ejemplo, no hay que pagar nada por el viento ni por la luz solar ahora ni en el futuro.

La conversión descrita por Jacobson crearía también una ganancia neta de unos 220.000 empleos, después incluso de que se tengan en cuenta las pérdidas de puestos de trabajo de la energía nuclear y de los combustibles fósiles. Estos 220.000 empleos estarían en la fabricación de la tecnología e infraestructuras asociadas, así como en su instalación y su manejo. Además de todo ello, el estado recogería unas ganancias netas de esos empleos de unos 12.000 millones de dólares al año.

Según los cálculos de los investigadores, uno de los escenarios barajados sugiere que todas las necesidades de energía de California en 2050 podrían ser satisfechas con una mezcla de fuentes, incluyendo:

-25.000 aerogeneradores de 5 megavatios
-1.200 centrales de energía solar concentrada de 100 megavatios

-15 millones de sistemas fotovoltaicos residenciales para tejados, de 5 kilovatios
-72 plantas geotérmicas de 100 megavatios

-5.000 dispositivos para generar electricidad a partir de la energía mecánica de las olas, de 0,75 megavatios
-3.400 turbinas para generar electricidad a partir de la energía mecánica de las mareas, de 1 megavatio

En el estudio se ha determinado que si California se pasara al viento, el agua y la luz solar como energías renovables, las muertes por contaminación del aire disminuirían en unas 12.500 al año, y el estado se ahorraría unos 103.000 millones de dólares, o aproximadamente el 4,9 por ciento del producto interior bruto del 2012, en costes anuales relacionados con la sanidad. Los resultados del estudio sugieren asimismo que la consecuente disminución de emisiones reduciría los costes por el cambio climático global en 2050 (tales como el de la erosión costera y el de los daños por meteorología extrema), en unos 48.000 millones de dólares al año.

“Las tecnologías necesarias para una transición rápida hacia un sistema energético general basado en renovables en todo el estado están disponibles hoy mismo”, declara sin tapujos Anthony Ingraffea, coautor del estudio y profesor de ingeniería en la Universidad Cornell de Ithaca, Nueva York, Estados Unidos.

Al igual que en muchos lugares del mundo, actualmente la mayor parte de la energía de California procede del petróleo, el gas natural, la energía nuclear y el carbón. Según el plan propuesto por Jacobson y sus colegas, el 55,5 por ciento de la energía en el estado para todos los usos procedería del Sol, el 35 por ciento al viento, y el resto a una combinación de energía hidroeléctrica tradicional, geotérmica, de mareas y de olas.

Los autores del estudio están desarrollando planes similares para todos los estados de EE.UU. (NCYT)

Un modelo matemático para optimizar el uso de la madera

[Img #21337]
A lo largo de la historia de la construcción, la madera ha sido uno de los materiales usados por excelencia. Con el paso del tiempo, otros elementos la han desplazado, sin embargo, sigue siendo el material más utilizado en las construcciones de bajo presupuesto. En Chile, la industria forestal se ha desarrollado ampliamente, llegando a un 2,6 por ciento del producto interno bruto (PIB) y la madera se impuso como tercer producto chileno más exportado el 2011, según la Corporación Chilena de la Madera.

Pese a la importancia de este producto a nivel mundial, existen pocas investigaciones sobre la madera, manteniéndose muchas dudas sobre sus propiedades y atributos.

“A la fecha no se entiende completamente, ni en Chile ni el mundo, cómo predecir con exactitud las propiedades mecánicas y capacidades resistentes de la madera. Eso, de alguna forma, se traduce en ciertas deficiencias en el diseño de estructuras, siendo utilizada de forma conservadora, lo que significa un uso de más material que lo óptimo”, señala el académico del Departamento de Ingeniería en Obras Civiles, Dr. Erick Saavedra, indicando que su estudio puede ser un aporte en la materia.

Tras años investigando este material, buscando profundizar y potenciar sus hallazgos, el profesor Saavedra desarrolla actualmente el proyecto Fondecyt Regular “Mecánica computacional multiescala para la descripción de materiales y estructuras de madera”, estudio que se extenderá hasta el 2017.

“Esta investigación busca comprender el comportamiento mecánico de la madera, con el fin de determinar sus elementos de falla y de deformación, que ocurren a nivel microscópico, y poder vincularlo a nivel macroscópico”, señala el Dr. Saavedra.

Según explica, la diferencia que se puede observar entre este material biológico y los desarrollados por el ser humano, es su constitución por escalas. Cuando se analiza el acero, por ejemplo, se puede advertir un solo nivel relevante de material, mientras que al examinar la madera, se pueden encontrar cinco distintas escalas, las que están organizadas jerárquicamente.

“Todas estas escalas coexisten simultáneamente en la madera. Así, tenemos una viga de madera que representa una escala estructural o macroscópica. A su vez, la madera está constituida por una serie de anillos de crecimiento que son del orden de los milímetros, esto es, una escala mesoscópica. Luego, en un nivel aún más pequeño, dichos anillos están conformados por fibras de madera del tamaño de unos cuantos micrómetros, o escala microscópica, y así sucesivamente”, explica el especialista.

Otra característica importante que destaca en la madera, es la optimización que ha experimentado durante miles de años de evolución. “La naturaleza se ha encargado de optimizar las características microestructurales de la madera, obteniendo excelentes propiedades mecánicas en relación a su baja densidad. Debido a esto, la madera es muy atractiva para los ingenieros, ya que estas cualidades se traducen en estructuras con bajo peso sísmico”, destaca el profesor.

El Dr. Saavedra ya desarrolló un modelo que trabaja con la nueva información detectada de las escalas, buscando predecir el comportamiento mecánico de la madera. En esta etapa, se busca robustecer dicho patrón matemático, incorporando nueva información sobre estas escalas para predecir el comportamiento de la madera bajo diferentes estados de carga.

“Si no entiendo bien un material, lamentablemente tengo que asignar grandes márgenes de seguridad a mi diseño y eso aumenta la cantidad de material, y por lo tanto los costos. Lo que proponemos es reducir los márgenes de seguridad, siendo el usuario final quien se verá beneficiado con el ahorro. Por esto, hacer más óptimo el uso de la madera podría tener un gran impacto en la sociedad, siendo aún más relevante en construcción de viviendas sociales”, puntualiza Saavedra. (Fuente: USACH/DICYT)

Galaxy S4 se incendia bajo la almohada de una joven mientras dormía en EE.UU.

Tomado de twitter.com: @FiguerasChris

Un smarthphone de la marca Samsung se incendió mientras su dueña, Ariel Tolfree, una niña estadounidense de 13 años, dormía con el celular debajo de la almohada.

“Todo el teléfono se derritió. El plástico, el vidrio… ni siquiera parece que fuera un teléfono”, explicó el padre de la niña, Thomas Tolfree, mientras le mostraba a los cronistas de un canal de televisión cómo había quedado el aparato.

La joven conectó el aparato antes de ir dormir y lo puso justo debajo de la almohada, pero despertó al percibir el olor a humo que provenía de los componentes del aparato y así fue como descubrió que el teléfono estaba totalmente destruido

Por lo tanto, Samsung ha solicitado a la víctima que envíe a la compañía los restos carbonizados del Galaxy S4 para una oportuna investigación, y se comprometen sustituir su teléfono y cambiar las sabanas que se dañaron debido al incidente. 
Redacción NTN24

Despega el cohete que llevará a la Estación Espacial Internacional al último carguero de la Agencia Espacial Europea

Licencia Creative Commons

Este martes despegó el cohete Ariane, transportando en su interior al carguero espacial automático europeo ATV-5 rumbo a la Estación Espacial Internacional.

El despegue se realizó desde el puerto espacial de Kourou en la Guyana Francesa.

El carguero denominado Georges Lemaítre lleva a bordo todo tipo de suministros para los tripulantes de la Estación Espacial Internacional.

Municiones de comida y repuestos, así como ropa y utensilios de aseo fueron enviados al espacio.

Además el Ariane transportará 6.6 toneladas de agua, 33.33 toneladas de aire y 66.67 de oxígeno.

Redacción NTN24

martes, 29 de julio de 2014

Una rana de Alaska puede sobrevivir 200 días congelada

Se trata de las ranas de madera, una especie que se ha adaptado al invierno de Alaska al punto de que son capaces de sobrevivir congeladas un máximo de 218 días. Podría aplicarse para la congelación de órganos.

Don Larson, estudiante de la Universidad de Alaska Fairbanks, es el autor de un trabajo que demuestra que la extrema tolerancia a la congelación de la rana de madera. Resiste temperaturas ambientales de hasta 18 grados bajo cero.
"Las ranas de madera de Alaska pasan más tiempo de congelación y descongelación que un filete en el congelador, pero vuelven a la vida en la primavera en mejor forma que la carne", dijo Larson.

Según consignó el portal 20minutos.com en la Alaska subártica Interior, las ranas de madera pasan el invierno en el suelo cubierto por mantillo y hojarasca, creando hibernáculos donde las temperaturas pueden mantenerse por debajo de cero durante más de seis meses con temperaturas mínimas de -20º C.

Larson hizo un seguimiento de la hibernación de esta especie, para saber cuánto tiempo y cuánto frío eran capaces de soportar con éxito en su hábitat natural. Proceso de crioprotección Comprobó que estas ranas eran capaces de prevenir la degradación celular por congelación envolviéndolas con glucosa, lo que reducía su deterioro y las estabilizaba en un proceso llamado crioprotección.

"La concentración de azúcar dentro de la célula ayuda a equilibrar la concentración de sales fuera de la célula que se produce cuando se forma hielo", dijo Barnes. "Sale menos agua de la célula que si el azúcar no estuviera presente, y se cree que el azúcar y otros crioprotectores mantienen el agua dentro de la célula".

Esperan que la ciencia puede encontrar la manera de congelar los órganos humanos sin sufrir daños. Lo curioso que Larson descubrió es que cuando las ranas de madera se encuentran fuera de su entorno natural acumulan concentraciones mucho más altas de glucosa en los tejidos que hacen las ranas congeladas en el laboratorio, tal como se describe en su artículo publicado en la revista Journal of Experimental Biology.

Esta protección adicional habilita a las ranas a sobrevivir a temperaturas más frías durante un tiempo más largo que antes creían los científicos.
Larson cree que el proceso da a las ranas la capacidad de sobrevivir a la congelación a temperaturas mínimas de -18 grados Celsius durante un máximo de 218 días con el 100 por ciento de supervivencia.

Esta habilidad de las ranas es más que una curiosidad, y algún día puede tener una aplicación en la ciencia del trasplante de órganos humanos. "Si la ciencia puede encontrar la manera de congelar los órganos humanos sin sufrir daños, se daría más tiempo para llegar a las personas en necesidad de órganos", dijo Larson.

Expertos señalan que la “mala suerte” ocasionó la extinción de los dinosaurios

Archivo AFP
El impacto de un asteroide unido al incremento del nivel del mar y de la actividad volcánica fueron los principales factores que ocasionaron la extinción de los dinosaurios hace 66 millones de años, según un nuevo estudio divulgado lunes.

En un informe publicado en la revista especializada británica "Biological Reviews", once expertos en dinosaurios del Reino Unido, Estados Unidos y Canadá evalúan las últimas investigaciones sobre la extinción de los dinosaurios.

El doctor Steve Brusatte, de la Universidad de Edimburgo (Escocia), calificó de "mala suerte colosal" este hecho y asegura que los dinosaurios podrían haber sobrevivido si el asteroide hubiese impactado en la Tierra algunos millones de años antes o después.
"Fue una tormenta perfecta justo en el momento en el que los dinosaurios eran más vulnerables", afirmó Steve Brusatte.

En dicho estudio, el interés de los investigadores se centró en conocer si la disminución de la especie hubiese continuado sin el impacto del asteroide, ya que tenían constancia de que algunas especies de dinosaurios fueron muriendo antes de la fatal caída.
La conclusión de los expertos determinó que pese a que algunas especies de herbívoros de América del Norte estaban muriendo en el periodo anterior al impacto del asteroide no se evidenciaba su desaparición a largo plazo.

En el informe, los expertos afirman que el aumento del nivel del mar, de las temperaturas y de la actividad volcánica provocó que muchas especies se hiciesen vulnerables, y estos factores facilitaron su extinción en el momento en el que el asteroide golpeó la Tierra.
"Cinco millones de años antes, los ecosistemas de los dinosaurios eran más fuertes, más diversos, la base de la cadena alimentaria más robusta y más difícil de hacer desaparecer muchas de las especies" afirmó Brusatte.

Este experto cree que si el asteroide hubiese impactado en la Tierra millones de años antes, cuando las condiciones ambientales eran buenas, o después, cuando los dinosaurios se hubiesen recuperado, aún hoy sería posible ver dinosaurios caminando por la Tierra. (NTN24)

lunes, 28 de julio de 2014

Desarrollan un innovador sensor de fuerza a partir de nanotubos de carbono

[Img #21311]
El diseño del sensor se basa en el uso de dos nanotubos, cuyos extremos
abiertos se colocan uno frente al otro. En la ilustración, recreación artística
de ambos nanotubos  (Imagen: Amazings / NCYT / JMC)
Un grupo de investigadores de Rusia, Bielorrusia y España ha desarrollado un sensor de fuerza microscópico basado en nanotubos de carbono.

El diseño se fundamenta en el uso de dos nanotubos, cuyos extremos abiertos se colocan uno frente al otro. Al aplicarles un voltaje, a través del circuito fluye una corriente de unos 10 nanoamperios.

Las paredes de los nanotubos de carbono son conductores buenos, y por el espacio que queda entre los extremos de los nanotubos la corriente fluye gracias al Efecto Túnel, que es un fenómeno cuántico en el que los electrones atraviesan una barrera considerada insuperable en la mecánica clásica.

Esta corriente se denomina corriente de túnel y se utiliza ampliamente en diversos ámbitos. Un ejemplo es el microscopio de Efecto Túnel (o microscopio STM), en el que se escanea la superficie de una muestra usando una aguja muy fina con voltaje aplicado. La aguja pasa sobre la superficie, y la magnitud de la corriente que fluye a través de ella muestra la distancia hasta la muestra con tal exactitud que el microscopio STM puede detectar protuberancias de un átomo de altura.

El equipo integrado, entre otros, por Yury Lozovik, del Instituto de Física y Tecnología de Moscú en Rusia, Andrey Popov, del Instituto de Espectroscopia adscrito a la Academia Rusa de Ciencias, e Irina V. Lebedeva, de la Universidad del País Vasco (UPV/EHU) en España, utilizó la relación entre la corriente de túnel y la distancia entre los extremos de los nanotubos para determinar la posición relativa de los nanotubos de carbono y así medir la magnitud de la fuerza externa ejercida sobre ellos.

Con el nuevo sensor es factible registrar fuerzas de unas pocas décimas de nanonewton. (NCYT)

Investigan la generación de hidrógeno a partir de residuos de banano

[Img #21304]

“Generar fuentes ilimitadas de energía, dando valor agregado a nuestros recursos naturales, es un gran aporte para el cambio de la matriz productiva”, señaló Jaime Medina, Subsecretario de Investigación Científica, durante el lanzamiento del Proyecto de Generación de Hidrógeno a partir de la biomasa proveniente de los residuos del banano.

El evento se llevó a cabo en a Facultad de Ciencias Químicas de la Universidad de Cuenca (Ecuador) y contó con la asistencia de decenas de jóvenes estudiantes y autoridades nacionales, locales y universitarias.

El proyecto será desarrollado por la Universidad de Cuenca en conjunto con el Instituto Nacional de Energías Renovables (INER) y consiste en optimizar la biomasa proveniente de los residuos de las plantas de banano sometiéndolos en agua a una temperatura supercrítica, es decir a temperaturas mayores a los 374 grados Celsius y a una presión mayor a los 22,1 mega pascales y luego estos residuos pasan a través de un catalizador que permitirá gasificar el hidrógeno.

Para Eduardo Noboa, Director Ejecutivo del INER, la importancia del hidrógeno radica en la versatilidad de este elemento como medio de almacenamiento y transporte de energía. “Es el momento de buscar otros precursores de desarrollo basados en fuentes ilimitadas de energía”, afirmó.

El proyecto será totalmente financiado por la Secretaría de Educación con un monto de 751.147,10 dólares y contará con el apoyo de docentes investigadores de la Universidad de Zaragoza en España como Jaime Soler, quien se refirió a los avances que el país está haciendo en investigación e incorporación de nuevas tecnologías para mejorar los procesos de producción. “Los países que son capaces de aprovechar sus recursos son los que mayores beneficios sociales obtienen”, dijo.

La obtención de hidrógeno para el país significa la generación del producto energético del futuro, que reemplazará los combustibles provenientes de las reservas de petróleo. Para ello, los estudiantes universitarios están llamados a ser los nuevos generadores de ciencia y tecnología del país. Esto fue ratificado por el Rector de la Universidad de Cuenca, Fabián Carrasco, quien añadió que “la prioridad de las universidades es generar academia con mayor investigación”. (Fuente: SENESCYT/DICYT)

¿Cómo sería vivir en Marte? Un grupo de científicos simula las condiciones del planeta durante cuatro meses

Tomado de nasa.gov

Un neuropsicólogo del Centro Neurológico Fort Wayne en Indiana y un ingeniero químico de la NASA, han permanecido cuatro meses en una cúpula de 93 metros cuadrados ubicada en un volcán, con el objetivo de simular lo que sería vivir en Marte. Los investigadores solo salían para hacer simulacros de paseos espaciales.

El volcán hawaiano llamado 'Mauna Loa' es un prototipo de hábitat de Marte, donde los científicos viven para practicar una estadía aislada en el planeta rojo.

Stedman, un oficial de la reserva de la Fuerza Aérea de Estados Unidos expresó, "no he visto un árbol, olido la lluvia, escuchado un pájaro, o sentido el viento en mi piel en cuatro meses".

La cúpula, de la operación Hi-SEAS, tiene baños orgánicos que no necesitan de agua y está casi autosostenida, a excepción de un sistema de reutilización y reabastecimiento de agua que funciona cada dos o tres semanas.

Durante la estadía en la cúpula, que comenzó el 28 de marzo, los científicos responden encuestas psicológicas diarias, estudian el exterior del hábitat y desarrollan proyectos científicos. Redacción NTN24

Científicos descubren lo que podría ser la mayor reserva de agua para el planeta bajo EE.UU.

Licencia Creative Commons

El sismólogo Brandon Schmandt, de la Universidad de Nuevo México y el geofísico de la Universidad de Northwestern Steve Jacobsen, descubrieron sacos de magma a 400 kilómetros debajo de Norteamérica.

El descubrimiento podría representar la mayor reserva de agua encontrada en el planeta.

Por otro lado, el hallazgo podría significar también una explicación a la formación de la Tierra, además de conocer datos sobre el actual funcionamiento interno de esta y la cantidad de agua en el manto terrestre.

Steve Jacobsen, uno de los autores del informe, explicó que los “procesos geológicos en la superficie de la Tierra, como terremotos o erupciones de volcanes, son expresiones de lo que sucede en el interior de la Tierra”; además añadió que el agua encontrada puede ser la evidencia del ciclo completo del agua, algo que explica la inmensa cantidad del líquido en la superficie del planeta.

El informe de los dos científicos es el único que da evidencias directas de que en la zona de transición(como es conocida esta capa), hay agua. Redacción NTN24

sábado, 26 de julio de 2014

Lenovo no quiere quedarse fuera del internet de las cosas

lenovo-gafas
Durante esta semana, Lenovo realizó un evento en Beijing, donde mostró sus planes de cara al futuro, con su nueva división enfocada en dispositivos "inteligentes" con los que piensan ampliar su mercado.

Entre esos nuevos dispositivos vemos que Lenovo estaría apostando por las gafas inteligentes, al más puro estilo de las Google Glass, y en el evento la intención fue atraer desarrollares con quienes hacer alianzas para impulsar sus productos apostando por el internet de las cosas.
Nuevos dispositivos para estar siempre conectado
Lenovo's New Business Development (NBD) o Desarrollo de nuevos negocios de Lenovo, división incorporada en marzo pasado, servirá como una plataforma de nuevas iniciativas de gadgetscomo dispositivos inteligentes para el hogar relacionados con la salud y wearables, el cual es un nuevo mercado para Lenovo.

En el evento por supuesto destacaron las gafas, pero también tenemos un purificador de aire inteligente y un router inteligente con almacenaje en la nube (como vemos, el abuso de la palabra inteligente está a todo).

Y hablando de las gafas inteligentes, éstas fueron creadas a partir de una colaboración con Vuzix Corp., compañía con sede en los Estados Unidos y quienes se encargan de desarrollar la tecnología de las gafas. No se dieron datos ni especificaciones y lo único que se sabe es que llevarán una batería que se coloca en el cuello del usuario (¿?), tendrán una pantalla traslúcida y cámara, se espera que tengan un costo de 1300 dólares aproximadamente y aún no tienen fecha de disponibilidad.

NBD no sólo tendrá estos dispositivos, sino que será el enlace con marcas y fabricantes que ya tengan experiencia en los diversos mercados que quieren atacar, donde el objetivo principal es incorporarse al internet de las cosas, donde se cuente con un ecosistema lo suficientemente robusto para conectar todos estos dispositivos y los nuevos por llegar.

Es así como en el evento se anunció la alianza con Luftmed GmbH, empresa alemana fabricante de purificadores de aire y con Diting Technology Co, proveedor de soluciones de almacenaje en la nube con base en Chengdú China.

Lenovo, quien es muy fuerte en China, quiere demostrar que no sólo lo es ahí, apostando en empresas y negocios nuevos, ya vemos la compra de Motorola y ahora con este anuncio quieren ponerse a la altura de Microsoft con Qualcomm, la alianza The Open Interconnect Consortium que entre sus filas cuenta con Intel, Dell y Samsung, por supuesto Apple con su HomeKit y las decenas de startups que ya están trabajando en esto.

Al coche automático de Google le sale competencia: Baidu

Google coche autónomo

Uno de los muchos escenarios futuros del mundo del automóvil es el que rodea al coche autónomo. Aquel que se conduce solo y donde los viajeros del mismo solo tienen que sentarse y esperar a llegar a su destino. Google lleva el proyecto más mediático pero no es la única que trabaja en esta dirección.

Precisamente Baidu, el muchas veces llamado Google chino, ha anunciado que también está trabajando en este tipo de tecnología para desarrollar coches autónomos. Sin embargo, este proyecto tiene una serie de matices que hay que destacar porque automático no es exactamente, veamos por qué.

Automático cuando nosotros queramos
La compañía explica que su aproximación a un coche automático es diferente a la de Google. Ellos no buscan tanto crear un vehículo que sepa capaz de ir siempre de un punto a otro sino más bien crear un vehículo autónomo e inteligente. O lo que es lo mismo, que podamos conducirlo nosotros.

La diferencia estriba en que el coche de Baidu solo se conducirá de forma automática en algunos tramos y bajo determinadas circunstancias. Es decir, no quieren renunciar a que exista un conductor humano y que la utilidad de este sistema sea solo para momentos puntuales. Una buena aproximación en mi opinión.

Podremos intercalar entre qué momentos queremos tener nosotros el control y en cuales conduce el coche. El objetivo, de momento, pasa por crear un sistema seguro ya que las necesidades y los usos son diferentes: el tráfico en ciudades como Beijing o Shanghai es horrible.

De momento los planes de Baidu pasan por lanzar su primer prototipo el año que viene. Estaremos atentos a su puesta en marca, cuando se produzca, y veremos si puede ser un competidor para las otras compañías que también buscan su coche autónomo (o automático).  XatakaVía | The Next Web

¿Cómo sería vivir en Marte? Un grupo de científicos simula las condiciones del planeta durante cuatro meses

Tomado de nasa.gov

Un neuropsicólogo del Centro Neurológico Fort Wayne en Indiana y un ingeniero químico de la NASA, han permanecido cuatro meses en una cúpula de 93 metros cuadrados ubicada en un volcán, con el objetivo de simular lo que sería vivir en Marte. Los investigadores solo salían para hacer simulacros de paseos espaciales.

El volcán hawaiano llamado 'Mauna Loa' es un prototipo de hábitat de Marte, donde los científicos viven para practicar una estadía aislada en el planeta rojo.

Stedman, un oficial de la reserva de la Fuerza Aérea de Estados Unidos expresó, "no he visto un árbol, olido la lluvia, escuchado un pájaro, o sentido el viento en mi piel en cuatro meses".

La cúpula, de la operación Hi-SEAS, tiene baños orgánicos que no necesitan de agua y está casi autosostenida, a excepción de un sistema de reutilización y reabastecimiento de agua que funciona cada dos o tres semanas.

Durante la estadía en la cúpula, que comenzó el 28 de marzo, los científicos responden encuestas psicológicas diarias, estudian el exterior del hábitat y desarrollan proyectos científicos.

Redacción NTN24

viernes, 25 de julio de 2014

Un ‘software’ muestra en directo el desarrollo del sistema nervioso célula a célula

Gracias a la combinación de herramientas de neurociencia, biología y biofísica, investigadores de EE UU han desarrollado un método de cálculo y microscopía avanzada que les ha permitido observar el desarrollo en directo y en 3D del sistema nervioso de la mosca de la fruta desde el principio.

Los avances en la tecnología de imágenes están transformando el modo en el que los científicos ven el universo celular. Pero extraer el torrente de información contenida en esas imágenes resulta muy complejo. Ahora, un grupo de investigadores del Howard Hughes Medical Institute (Maryland, EE UU) –una institución sin ánimo de lucro fundada por el aviador e ingeniero Howard Hughes en 1953– ha desarrollado un método que combina cálculo y microscopía avanzada y que ha permitido observar el desarrollo en directo y en 3D del sistema nervioso del embrión célula a célula de la mosca de la fruta (Drosophila melanogaster), uno de los organismos más estudiados por los genetistas.

El método incluye un software open source, denominado Next, que está disponible gratuitamente para toda la comunidad científica. La investigación, cuyos resultados han sido publicados en la revista Nature Methods, ha combinado herramientas de neurociencia, biología y biofísica.

Philipp Keller, líder del trabajo, dirigió el equipo que desarrolló todo el entorno computacional. El grupo ha utilizado el método para reconstruir el linaje celular durante el desarrollo del sistema nervioso de una mosca de la fruta desde el principio. Su técnica se puede utilizar para rastrear los linajes de células en múltiples organismos y procesar eficientemente los datos de diferentes tipos de microscopios fluorescentes.

Los autores utilizaron su técnica para rastrear los linajes de 295 neuroblastos (precursores de las células nerviosas) y descubrieron que es posible predecir el futuro y la función de muchas células a partir de su comportamiento dinámico inicial.

Microscopio multivisión
En 2012, Keller desarrolló un microscopio multivisión simultáneo de lámina de luz (SimView), que capta imágenes tridimensionales con una velocidad y precisión sin precedentes en períodos de horas o días.

Las imágenes obtenidas revelan las divisiones y reordenamientos complejos de células individuales cuando emergen las estructuras biológicas en un embrión en desarrollo. Desde entonces, Keller ha estado perfeccionando el sistema con el objetivo de que pueda utilizarse para seguir el desarrollo del sistema nervioso de un organismo en sus fases iniciales.

“Queremos entender cómo se forma el sistema nervioso. En última instancia, nos gustaría recoger la historia del desarrollo de todas las células del sistema nervioso y vincular esa información hasta la última función de la célula. Para ello, tenemos que ser capaces de seguir las células individuales en una escala bastante grande y durante un período de tiempo largo”, agrega el investigador.

El sistema nervioso de un ratón embrionario tarda más de una semana en ser funcional y el de la mosca de la fruta, un día. Esto conlleva el tratamiento de decenas de miles de imágenes de células en puntos de tiempo, lo que sumaterabytes de datos. "Podemos obtener buenas series de datos de imagen, pero si queremos reconstruirlos, no podemos hacerlo sin ayuda del ordenador", agrega el responsable.

Método de cálculo
Fernando Amat, especialista en bioinformática en el equipo de Keller y sus colegas han resuelto ese problema con el nuevo método de cálculo que identifica y rastrea las células en división tan pronto como el microscopio de alta velocidad captura las imágenes. El proceso está automatizado en gran medida, pero incorpora una función de edición manual para mejorar la precisión de un pequeño porcentaje de células que son difíciles de seguir informáticamente.

El equipo de Keller ha estado lidiando con la forma de interpretar este tipo de datos de imágenes desde 2010. Fue un reto, no sólo por el gran volumen de datos de su microscopio avanzado, sino también por la complejidad de la información. Las células en un embrión en desarrollo tienen diferentes formas y comportamientos y pueden ser densas, por lo que es difícil que un ordenador pueda identificar y rastrear las células individuales. Además, las inevitables variaciones en la calidad de imagen complican aún más el análisis, señala el estudio.

Supervoxels
Amat lideró el esfuerzo para desarrollar una solución eficiente. Su primera prioridad fue reducir la complejidad de los datos. Su estrategia consistió en agrupar primero los vóxeles (píxeles tridimensionales) que componen cada imagen en unidades más grandes llamadas supervóxeles. Usando esta medida como la unidad más pequeña, se logró reducir la complejidad de una imagen mil veces, explica Keller.

Según el autor principal, Next busca formas elipsoidales entre grupos de supervóxeles conectados, que se reconoce como núcleos celulares. Una vez que un grupo de supervóxeles es identificado como un núcleo de la célula, el ordenador utiliza esa información para encontrar el núcleo de nuevo en las imágenes subsiguientes.

La microscopía de alta velocidad capta las imágenes con la suficiente rapidez para que una sola célula no pueda migrar muy lejos de un marco a otro. "Nos aprovechamos de esa situación y utilizamos un punto como partida para el siguiente punto", explica Keller.

Este científico está deseoso de comenzar a usar el método para investigar varías vías sobre el desarrollo inicial y espera que otros apliquen su enfoque en sus investigaciones. Para ello, el equipo probó que la técnica se puede utilizar con varios tipos de datos. Además de moscas de la fruta, aplicaron el software con éxito para analizar imágenes de pez cebra (como en el vídeo que se ve sobre estas líneas) y ratones.También analizaron datos procedentes de microscopios comerciales de última tecnología.

Referencia bibliográfica: Philipp Keller et al."Fast, accurate reconstruction of cell lineages from large-scale fluorescence microscopy data". Nature Methods, 18 de julio de 2014.