El grupo de científicos de la Universidad de California, dirigido por el neurocirujano Edward Chang, lleva muchos años investigando sobre el tema y finalmente ha conseguido una forma para decodificar las señales cerebrales del habla.
Las personas no piensan en todos los movimientos que tienen que hacer hablan, cuando lo hacen, su cerebro simplemente envía señales a sus labios, lengua, mandíbula y laringe, y todas estas partes trabajan juntas para producir los sonidos deseados.
Los investigadores han aprovechado estas señales cerebrales para crear un dispositivo que es capaz de captar frases completas como “No laves los platos sucios de Charlie” y “El equipo necesita un mantenimiento adecuado”.
Esta investigación es un gran paso hacia un sistema que podría ayudar sobre todo a personas con parálisis severa a hablar, y tal vez algún día, existirán unos dispositivos disponibles para todos los consumidores que permitan a cualquiera enviar mensajes de texto solo con pensarlos.
El equipo registró los cerebros de cinco personas con epilepsia que estaban siendo sometidas a una cirugía cerebral, consiguieron una lista de casi 100 frases. Cuando el equipo posteriormente transmitió las señales a un modelo de computación del sistema vocal humano, generó un discurso sintetizado que podía llegar a ser casi del todo comprendido.
No se captan los pensamientos abstractos, sino que escucha los nervios que se disparan mientras el cerebro le ordena a los órganos vocales que se muevan. Ya se habían utilizado estas señales motoras de otras partes del cerebro para controlar los brazos robóticos.
“Estamos aprovechando las partes del cerebro que controlan estos movimientos para decodificarlas sin que la persona tenga que hablar”, dice el responsable del equipo.
Las señales se han registrado usando una almohadilla de electrodos llamada matriz de electrocorticografía, o ECoG, que descansa sobre la superficie del cerebro. Para probar qué tan bien funcionaba el experimento, los investigadores enseñaron los resultados a unas personas que intentaron transcribirlas usando un grupo de palabras posibles, los participantes podían entender alrededor del 65% de las palabras.
Las interfaces cerebro-computadora aún no están lo suficientemente avanzadas para ayudar a personas con parálisis, aunque este sería el principal objetivo.
El año pasado, otro investigador de la UCSF comenzó a trabajar con personas con ELA y la enfermedad de Lou Gehrig para ponerles implantes ECoG y también tratar de sintetizar el habla.
Algunas empresas de Silicon Valley afirman que están investigando en el desarrollo de lectores cerebrales comerciales de pensamientos a texto. Una de ellas, Facebook, que está financiando investigaciones de este tipo para poder crear la primera interfaz de voz silenciosa capaz de escribir 100 palabras por minuto, según un portavoz.
Chang dice que no conoce ninguna tecnología que sea capaz de funcionar desde fuera del cerebro, sin implantes, donde las señales se mezclan y se vuelven complicadas de descifrar, pero todo se andará. “Nuestro estudio era con personas habían pasado por neurocirugía. Realmente no conocemos una tecnología no invasiva que te permita hacer esto desde fuera del cerebro”, dice. “Créeme que si existiera, tendría infinitas de aplicaciones médicas”.
Fuente: MIT technology review
Trackbacks/Pingbacks