La nueva tecnología podría ayudar a las personas con parálisis a volver a hablar

Los científicos están cerca de idear una tecnología que utilice la codificación del cerebro y los comandos de control de los músculos para permitir que las personas que han perdido el poder del habla debido a la parálisis puedan volver a hablar.

Las personas que no pueden hablar debido a la parálisis pronto podrán volver a aprender la habilidad.

Una investigación reciente dirigida por la Universidad Northwestern en Evanston, IL, encuentra que el cerebro genera sonidos del habla de una manera similar a cómo controla los movimientos de las manos y los brazos.

El hallazgo acerca el día en que las personas paralizadas, como las personas con "síndrome de enclaustramiento", podrán hablar a través de una "interfaz cerebro-máquina" simplemente tratando de decir palabras.

Un documento sobre el trabajo ahora aparece en el Revista de neurociencia.

El equipo prevé que la tecnología utiliza la codificación de los sonidos por el propio cerebro junto con los comandos que controlan los músculos de los labios, la lengua, el paladar y la laringe para producirlos.

Más "intuitivo" que la tecnología de Hawking

Tal sistema, explican los autores, sería más "intuitivo" que el utilizado por el renombrado físico Stephen Hawking, quien murió a principios de este año a la edad de 76 años.

Hawking tenía una enfermedad rara llamada esclerosis lateral amiotrófica que lo dejó paralizado e incapaz de hablar con naturalidad durante la mayor parte de su vida.

Sin embargo, gracias a una interfaz de computadora que podía controlar moviendo la mejilla, podía escribir palabras y oraciones que luego leía un sintetizador de voz.

Aunque el método funciona, es lento y laborioso. No es articular el habla que el cerebro codifica y envía a los músculos que producen los sonidos.

En cambio, requiere que la persona pase por un proceso que se asemeja más a escribir; tienen que pensar, por ejemplo, en la forma escrita de las palabras y oraciones que desean articular, no solo en sus sonidos.

"Fonemas y gestos articulatorios"

El estudio persigue un modelo de producción del habla que consta de dos partes: formulación de fonemas y "gestos articulatorios".

El primero es el proceso jerárquico de descomponer oraciones, frases, palabras y sílabas en sonidos individuales o fonemas. El segundo es su producción mediante el control de los músculos que articulan el tracto vocal. Hasta este trabajo, no se sabía cómo el cerebro realmente los planeaba y representaba.

"Hicimos la hipótesis", señala el autor principal del estudio, el Dr. Marc W. Slutzky, profesor asociado de neurología y fisiología, "las áreas motoras del habla del cerebro tendrían una organización similar para armar las áreas motoras del cerebro".

Continúa explicando que identificaron dos áreas del cerebro que están involucradas en la producción del habla, informando: “La corteza precentral representaba los gestos en mayor medida que los fonemas. La corteza frontal inferior, que es un área del habla de nivel superior, representa tanto fonemas como gestos ".

Él y sus colegas hicieron los descubrimientos mientras estudiaban la actividad cerebral en personas con electrodos implantados en el cerebro mientras se sometían a una cirugía para extirpar tumores. Los pacientes tenían que estar conscientes durante la cirugía porque tenían que leer palabras en una pantalla.

Los autores explican:

"Estos hallazgos sugieren que la producción del habla comparte una estructura organizativa crítica similar con el movimiento de otras partes del cuerpo".

"Esto tiene importantes implicaciones", concluyen, "tanto para nuestra comprensión de la producción del habla como para el diseño de interfaces cerebro-máquina para restaurar la comunicación con las personas que no pueden hablar".

Con base en sus resultados, ahora planean construir un algoritmo de interfaz cerebro-máquina que, además de decodificar gestos, también podrá formar palabras combinándolos.

none:  depresión huesos - ortopedia intolerancia a la comida