Neurocientíficos logran “escuchar” la voz interna de personas con discapacidades del habla con chips cerebrales e IA

Neurocientíficos logran “escuchar” la voz interna de personas con discapacidades del habla con chips cerebrales e IA


El monólogo que tienes en la cabeza y las ideas que compartes en voz alta se originan de manera similar en el cerebro, y cuando se transmiten por impulsos eléctricos, sus señales se parecen bastante. Esta coincidencia permitió que neurocientíficos hayan escuchado, por primera vez en la historia, la voz interna de las personas en tiempo real a través de chips cerebrales y las interfaces cerebro-computadora (BCI, por sus siglas en ingles).

Las implicaciones culturales y éticas de dispositivos que permiten adentrarse a las conversaciones internas de una persona no son pocas ni están exentas de polémica. Sin embargo, por ahora, los científicos trabajan en ellas con un objetivo más noble: conseguir que pacientes con discapacidades graves del habla y motoras puedan expresarse de manera más natural.


ALtman%2520(1) Neurocientíficos logran “escuchar” la voz interna de personas con discapacidades del habla con chips cerebrales e IA

Sam Altman y Elon Musk llevan su rivalidad al terreno de las interfaces cerebro-computadora. El CEO de OpenAI respalda el lanzamiento de una startup llamada Merge Labs, un nuevo competidor en un campo liderado por Neuralink.


Cómo crear un traductor de pensamiento

En un reciente artículo publicado en la revista Cell, un equipo de investigadores de la Universidad de Stanford analizó los patrones neuronales de cuatro pacientes que tenían electrodos implantados en la corteza motor del habla. Los participantes del estudio debían repetir frases en voz alta (en la medida de lo posible según sus capacidades) y también las expresaron en su mente, sin mover sus músculos. Esto permitió descubrir que “pensar en hablar” tiene la misma geometría en términos neurales que hablar, aunque con una menor intensidad. Es como si tuvieras el “volumen bajo”, afirmaron los científicos.

A partir de ese patrón, los investigadores crearon un modelo de inteligencia artificial que interpreta secuencias de fonemas y palabras directamente del pensamiento. Luego lo aplicaron en las mismas cuatro personas con implantes cerebrales y disartria, un trastorno motor que dificulta articular palabras por lesiones o enfermedades del sistema nervioso central. En una prueba piloto, el modelo tradujo los pensamientos con 74% de precisión, de manera estable, rápida y sin causar fatiga

Desde el punto de vista energético y computacional, pensar el habla resulta más eficiente que intentar articularla. Convertir pensamientos en sonido exige un trabajo biomecánico complejo que involucra cerca de 100 músculos y una amplia porción del sistema respiratorio. Para la mayoría, hablar ocurre de forma simple; para quien tiene control muscular limitado, intentar comunicarse de manera fonética, además de frustrante, agota.

Hasta ahora, muchos trabajos en BCI se han centrado en traducir impulsos cerebrales que provocan respuestas mecánicas en el cuerpo, como ejecutar un saludo, operar una herramienta o modular la garganta para generar sonido. En paralelo, los sistemas de traducción del habla para movilidad limitada suelen apoyarse en soluciones ortopédicas a las que el paciente debe adaptarse o que demandan esfuerzo físico extra. Decodificar pensamientos de manera directa abre un camino prometedor para la inclusión.

Uno de los aportes llamativos del estudio es la implementación de una “contraseña» para proteger la privacidad mental de las personas con chips cerebrales. La estrategia supone que, para que una computadora inicie la traducción mental, es imperativo que el paciente “piense” en una palabra o concepto que solo él conozca. En el estudio, la palabra secreta se registro con un éxito de 98.75%.



Source link

Share this content:

Publicar comentario