Convierten ondas cerebrales en sonidos para “dar voz” a personas con discapacidad (EpSocial/Barcelona)

El aparato crea sonido en base de las emociones, sin necesidad de control motor y en tiempo real.
El aparato crea sonido en base de las emociones, sin necesidad de control motor y en tiempo real.

Científicos del Centro de Regulación Genómica (CRG), la Universitat de Barcelona (UB) y la empresa de investigación Starlab han desarrollado un sistema que convierte las ondas cerebrales en sonido, un sistema pionero que “da voz” en tiempo real a las personas con discapacidad que no pueden comunicarse por si solas ni mediante otras herramientas ya existentes.

La iniciativa ha sido presentada este miércoles en rueda de prensa por la jefe de grupo en el CRG y responsable del proyecto Brain Polyphony, Mara Dierssen; la responsable de Asuntos Científicos e Internacionales del centro, Michela Bertero; el investigador del Barcelona Research Art & Creation (BR::AC) de la UB, Efraín Foglia, y el investigador de Starlab David Ibáñez.

La mayoría de sistemas de traducción de señales actuales necesitan control motor por parte del paciente –por ejemplo, siguiendo el movimiento de la retina en los ojos–, por lo que los discapacitados con espasmos y los que no consiguen controlar ningún aspecto motor quedan excluidos y no pueden utilizarlos.

Otro inconveniente es que muchos de estos dispositivos hasta ahora existentes no permiten un análisis en tiempo real de las expresiones y requieren un postprocesado de la información, por lo que pasa un periodo desde que el usuario ha emitido la señal hasta que se traduce.

El aparato ahora desarrollado es el único que consigue crear sonido en base a las emociones –medidas mediante señales de electroencefalografía, cardíacas y musculares–, sin necesidad de control motor por parte del paciente y en tiempo real.

La aplicación –basada en un casco que mide los impulsos y un software que los traduce– ya se ha probado con dos pacientes con parálisis cerebral, de quienes no se sabía ni siquiera si eran capaces de comprender lo que sucede a su alrededor y que han logrado comunicarse.

MEDIR EMOCIONES

Ibañez ha concretado que el sistema es capaz de medir dos parámetros emocionales, el ‘valance’ y el ‘arousal’, que miden si un sentimiento es agradable o desagradable y si es excitante o tranquilizante, respectivamente.

Si el sistema detecta señales cerebrales muy elevadas de ‘arousal’ y neutras de ‘valance’, traducirá que el paciente con parálisis cerebral está sorprendido, algo que le podrá ayudar a comunicarse con su entorno, al mismo tiempo que facilitará la labor de los cuidadores.

Dierssen ha concretado que el sistema es todavía un proyecto piloto, que requiere de una investigación de un año para diseñar un prototipo sólido que permita a los investigadores “desarrollar un proyecto más amplio”, que podría llegar a facilitar que los pacientes con parálisis cerebral apagaran la luz de forma autónoma si están cansados, por ejemplo.

http://www.europapress.es/epsocial/discapacidad-00330/noticia-convierten-ondas-cerebrales-sonidos-dar-voz-personas-discapacidad-20150708130400.html

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s