Table of Contents
Un equipo de investigadores de la Universidad de Stanford logró decodificar la “voz interna” de personas con discapacidades del habla mediante implantes cerebrales y un modelo de inteligencia artificial.
El sistema alcanzó un 74% de precisión al traducir pensamientos en palabras, lo que representa un avance sin precedentes para quienes enfrentan limitaciones motoras y de comunicación.
Cómo funciona la tecnología
- Los pacientes con electrodos implantados en la corteza motora del habla debían pronunciar frases en voz alta y luego repetirlas mentalmente.
- Los científicos descubrieron que “pensar en hablar” genera un patrón neuronal similar al de articular palabras, aunque con menor intensidad, como si fuera un “volumen bajo”.
- A partir de esos patrones, el modelo de IA tradujo secuencias de fonemas y palabras directamente desde el pensamiento, reduciendo el esfuerzo físico y la frustración que implica intentar hablar con músculos limitados.
Implicaciones sociales y éticas
El avance publicado en la revista Cell abre un camino prometedor hacia la inclusión, pero también plantea retos éticos:
- Privacidad mental: por primera vez, la tecnología puede acceder a los monólogos internos.
- Protección de datos cerebrales: el estudio probó una “contraseña mental”, donde el paciente debía pensar en una palabra secreta antes de activar la traducción, con una eficacia de 98.75%.
Hacia una comunicación más humana
Hasta ahora, la mayoría de interfaces cerebro-computadora se enfocaban en mover objetos o modular sonidos artificiales. Con esta innovación, se abre la posibilidad de que las personas con disartria u otras discapacidades del habla puedan expresarse de forma natural, directa y sin fatiga.
El hallazgo marca un antes y después en la neurociencia aplicada y confirma que la unión entre chips cerebrales e IA puede transformar la forma en que nos comunicamos.
