lunes, 7 de junio de 2010

avances tecnologicos:

Interpretar el lenguaje de signos
Un nuevo sistema visual interpreta el lenguaje de signos

La lengua de signos española se compone de cientos de signos. Ahora, los investigadores Sergio Escalera, Radeva Petia y Vitria Jordi, de la CVC-UAB, seleccionaron más de veinte de estos signos para desarrollar un nuevo sistema de interpretación visual que permite a las personas sordas llevar a cabo consultas en el lenguaje que utilizan habitualmente.

Los signos pueden variar ligeramente en función de cada usuario. Los investigadores del proyecto tuvieron esto en cuenta durante los ensayos, realizándolos con diferentes personas para ayudar al sistema a "familiarizarse" con esta variabilidad. Los signos reconocidos por el sistema se programaron para que las personas sordas pudieran mantener una conversación básica, incluyendo el pedir ayuda o instrucciones.

El hardware incluye una cámara de video que registra las secuencias de imágenes cuando detecta la presencia de un usuario que desea realizar una consulta. Un sistema de aprendizaje automático y visión por ordenador detecta los movimientos de la cara, las manos y los brazos, así como cualquier desplazamiento de pantalla y los incorpora a un sistema de clasificación que identifica cada movimiento con la palabra asociada con el signo.

Uno de los aspectos que vale la pena destacar es la capacidad para adaptar el sistema a cualquier otro lenguaje de signos, dado que la metodología utilizada es de carácter general. Bastaría con reprogramar el sistema con los signos utilizados en ese idioma específico. La cantidad de signos que el sistema puede reconocer también es escalable, aunque los investigadores admiten que los nuevos datos incrementarán las dificultades para diferenciarlos.

El sistema se presentó, recientemente, como prototipo de la fase final de un proyecto europeo y los investigadores ya están trabajando en nuevas fases del proyecto, como el uso de dos cámaras con el objetivo de reconocer signos aún más complejos y complementar la información con las características faciales.










Sistema para leer el cerebro de los bebés
Durante los primeros cinco años de vida, un remolino de conexiones neuronales se desarrollan en el cerebro del niño. Entender cómo se desarrollan estos circuitos interconectados y cómo piensan los bebés, podría dar lugar a toda una serie de nuevos avances en diversos campos, desde el autismo a la adquisición del lenguaje. Sin embargo, recopilar esta información ha sido difícil: no es posible ordenar a un bebé que permanezca quieto, algo necesario para las técnicas de neuroimagen más avanzadas. Ahora, un sistema que trabaja conjuntamente con la maquinaria de formación de imágenes existente puede identificar los movimientos de cabeza permitiendo que, por primera vez, los investigadores puedan ver una actividad detallada del cerebro de un bebé en activo.

La magnetoencefalografía (MEG), una tecnología utilizada para estudiar la función cerebral e identificar las áreas enfermas del cerebro , aprovecha los campos magnéticos muy débiles que se crean cuando un grupo de neuronas despiertan a la vez. Sobre la cabeza del sujeto se coloca un casco, parecido a un secador de peluquería, pero con 306 sensores; el casco detecta dónde se producen los pulsos magnéticos. A diferencia de las maquinas de resonancia magnética nuclear (RMN), que sólo muestran las instantáneas de los datos y requieren que las personas se permanezcan quietas en el interior de túnel estrecho y ruidoso, mientras se someten a un potente campo magnético giratorio, la MEG es silenciosa y se realiza en un espacio abierto, permitiendo que los sujetos interactúen con el entorno. Los datos obtenidos pueden mostrar de forma precisa a los investigadores en qué parte del cerebro tiene lugar la actividad en tiempo real.

Para poder estudiar a bebés que estaban despiertos y ocupados con alguna actividad social, los investigadores del Institute for Learning and Brain Studies (Instituto para el aprendizaje y estudios cerebrales) de la Universidad de Washington, trabajaron con la compañía de dispositivos médicos Elekta, con sede en Helsinki, para crear un sistema de "posicionamiento de la cabeza" muy similar al GPS. Los científicos colocan un suave gorro de nylon en la cabeza del bebé. El gorro tiene cuatro bobinas incrustadas y cada una de ellas emite una longitud de onda de alta frecuencia que indica su posición relativa en todo momento. A medida que el sistema de hardware detecta el movimiento de la cabeza, el software interpreta los resultados y los combina con los datos del sensor de la magnetoencefalografía.