• Hermosillo, Sonora, México a     |  Año 29 No. 11    

Un implante cerebral que usa IA convierte el pensamiento en habla casi en tiempo real

AFP /




Nota publicada: 2025-04-01

París. Un implante cerebral que utiliza inteligencia artificial (IA) logró convertir casi simultáneamente en habla los pensamientos de una mujer paralizada, indicaron ayer investigadores estadunidenses.

Aunque sólo se ha probado en una persona, este nuevo logro con un implante que conecta ondas cerebrales a un ordenador generó esperanzas de que otras personas que han perdido por completo la capacidad de comunicarse recuperen su voz.

El equipo de investigadores, basado en California, había utilizado una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos de Ann, una mujer de 47 años con cuadriplejia, quien perdió el habla durante 18 años tras un derrame cerebral, y traducirlos en habla.

Sin embargo, había un retraso de ocho segundos entre la generación de pensamientos y la producción del habla leída en voz alta por una computadora. Esto significaba que mantener una conversación fluida estaba fuera del alcance para Ann, una profesora de matemáticas de secundaria.

El equipo California registró la actividad cerebral de la mujer mediante electrodos mientras pronunciaba frases en silencio. Los científicos utilizaron un sintetizador que construyeron con su voz antes de la lesión para crear el sonido del habla que ella habría pronunciado. Entrenaron un modelo de IA que traduce la actividad neuronal en unidades de sonido.

Funciona de manera similar a los sistemas existentes utilizados para transcribir reuniones o llamadas telefónicas en tiempo real, dijo Gopala Anumanchipalli, de la Universidad de California en Berkeley.

El implante se ubica en el centro del habla del cerebro, de modo que escucha, y esas señales se traducen en fragmentos de habla que forman oraciones. Es un método de transmisión, explicó Anumanchipalli, donde cada fragmento de habla de 80 milisegundos (aproximadamente media sílaba) se envía a una grabadora.

Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar, dijo a Afp el principal autor del estudio, Anumanchipalli.

Anumanchipalli agregó que la meta final de Ann es convertirse en consejera universitaria.

Aunque todavía estamos lejos de lograr eso para Ann, este avance nos acerca más a mejorar drásticamente la calidad de vida de las personas con parálisis vocal, indicó.

Emocionada al escuchar su voz

Durante la investigación Ann podía ver oraciones en una pantalla –del tipo Entonces me amas– que pronunciaba para sí misma en su mente.

Estas señales cerebrales eran rápidamente convertidas en su voz, que los investigadores reconstruyeron a partir de grabaciones antes de su lesión.

Ann estaba muy emocionada al escuchar su voz y reportó una sensación de corporalidad, detalló Anumanchipalli.

El modelo utiliza un algoritmo basado en una técnica de IA llamada aprendizaje profundo, que fue entrenado previamente a partir de miles de frases que Ann intentó pronunciar silenciosamente.

El modelo no es totalmente exacto y el vocabulario es limitado por el momento a mil 24 palabras.

Patrick Degenaar, experto en neuroprótesis de la Universidad de Newcastle en Reino Unido, quien no participó en el estudio, destacó que esta investigación es una prueba muy temprana de la efectividad del método.

Aun así, es genial, comentó.

Degenaar señaló que este sistema utiliza una serie de electrodos que no penetran en el cerebro, a diferencia del BCI usado por la empresa Neuralink de Elon Musk.

El método para instalar estos electrodos es relativamente común en hospitales donde se diagnostica la epilepsia, lo que significa que esta tecnología podría implementarse fácilmente a gran escala, añadió.


Más información en esta sección ..

Opiniones