
- Un nuevo dispositivo de interfaz cerebro-computadora logró decodificar el habla interna, es decir, los pensamientos que no verbalizamos, y transformarlos en palabras.
Por Julio García G. / Periodista de Ciencia
Es probable que la referencia más cercana que tenemos sobre dispositivos que son capaces de procesar el vocabulario que empleamos para comunicarnos sea el que utilizaba el ya fallecido físico de origen británico Stephen Hawking –desde muy joven enfermo de esclerosis lateral amiotrófica (ELA)–, quien no solamente se hizo famoso por sus teorías en torno a los agujeros negros, sino también por su peculiar voz de sintetizador y su tesón para afrontar las adversidades de la vida.
En un inicio, la computadora que Hawking empleaba para comunicarse funcionaba a partir de la selección de palabras que él iba eligiendo en la pantalla (a partir de comandos) y que la computadora se encargaba de predecir y “acomodar”, hasta construir oraciones y frases enteras, la mayoría de las cuales ya estaban almacenadas en su base de datos.
Posteriormente, y dado que su enfermedad fue evolucionando, ésta le impidió elegirlas manualmente, por lo que tuvo que verse obligado a utilizar los gestos de su rostro para ordenarle a la computadora qué decir.
Para su época –los años 90 y el primer decenio del siglo XXI– la tecnología empleada por Hawking resultó revolucionaria, pero, hoy en día, afortunadamente, los científicos continúan desarrollando dispositivos para que la gente con problemas de movilidad y habla se puedan comunicar aún mejor.
Por ejemplo, el pasado 14 de agosto apareció publicado un artículo en la prestigiosa revista Cell, firmado por Erin Kunz y otros investigadores de la Universidad de Stanford (Estados Unidos), quienes lograron desarrollar un dispositivo capaz de, literalmente, leer la mente, es decir, lograron que éste sea capaz de procesar el habla interna de las personas.
Esta habla interna no es otra cosa que los pensamientos que tenemos y que no externalizamos o comunicamos y que suelen vivir, solamente, en nuestra cabeza.
De hecho, este nuevo dispositivo –que ya ha sido puesto a prueba– traduce las señales cerebrales, permitiendo que la gente que, por alguna enfermedad, o por alguna lesión ha perdido la habilidad de hablar, lo pueda hacer nuevamente.
Este lector mental, también llamado BCI (Brain Computer Interface), fue capaz de descifrar de forma precisa más del 74% de las frases imaginadas.
El funcionamiento del sistema consiste en descifrar el habla interna del usuario (el silencioso diálogo que todos tenemos en el mundo mental, con nosotros mismos).
Este diálogo interno, compuesto básicamente de pensamientos traducidos en palabras que en muchas ocasiones no expresamos, está protegido por una contraseña, es decir, para que la persona pueda comunicar sus pensamientos a la computadora, es necesario que proporcione una clave de acceso la cual ya está previamente definida.
Una vez que la clave fue pensada y es la correcta –coincide con la base de datos que tiene la computadora–, entonces la persona podrá comenzar a comunicarse con el exterior.
Para la investigadora Sarah Wandelt, ingeniera neuronal del Medical Research (Manhasset, Nueva York), quien hace unos días concedió una entrevista al portal de internet de la revista Nature, “es una técnica impresionante y un paso significativo hacia el desarrollo de dispositivos BCI que de manera precisa decodifican el habla interna”.
Estos dispositivos BCI pueden traducir las señales del cerebro en audio o texto (quizá en un futuro también puedan convertir esa información de la persona en video, como si ésta hablara en tiempo real) se están convirtiendo en herramientas prometedoras para aquellos que poseen alguna parálisis o que tienen un limitado control muscular, como Hawking y miles de personas más.
En este sentido, la mayoría de los dispositivos actuales requieren que los usuarios hablen relativamente fuerte, lo que puede resultar extenuante y poco confortable.
Por otro lado, fue el año pasado, en 2024, cuando Sarah Wandelt y su equipo desarrollaron el primer dispositivo BCI para decodificar el habla interna. De hecho, este dispositivo dependía de las señales producidas por el giro supramarginal, una región del cerebro que juega un papel fundamental en el habla y el lenguaje.
Desafortunadamente este primer BCI no poseía una contraseña. Y esta última es importante porque, de no existir, el riesgo de que partes del habla interna de una persona se decodifiquen sin su consentimiento es muy alto. Por lo tanto, la técnica empleada para decodificar conlleva implicaciones éticas que no debemos pasar por alto.
Para solventar el problema de la contraseña, otro equipo, el de Kuntz y sus colegas de Stanford, que acaban de publicar en Cell, se dieron a la tarea de analizar las señales cerebrales recogidas por microelectrodos en la corteza motora (ésta está implicada en los movimientos voluntarios) de cuatro participantes.
Estos cuatro participantes tenían, todos, dificultades para hablar: uno debido a un ictus, tres a causa de ELA y un cuarto padecía una degeneración nerviosa que provoca la pérdida del control muscular.
Luego, Los investigadores pidieron a los participantes que intentaran imaginar o decir un conjunto de palabras.
Los resultados de las grabaciones de la actividad cerebral mostraron que el habla intentada (aquella que la persona se esfuerza en decir pero que finalmente no dice) y el habla interna se originaron en la misma región del cerebro y generaron señales neuronales similares. Sin embargo, las asociadas con el habla interna fueron más débiles.
Posteriormente Kunz y su equipo utilizaron estos datos –concretamente las grabaciones de los participantes– para entrenar modelos de inteligencia artificial que fueron capaces de reconocer fonemas.
Los fonemas son las unidades más pequeñas del habla y son diferentes a las letras porque estas últimas son signos gráficos mientras que los fonemas son sonidos.
Luego, el equipo de Kuntz utilizó modelos lingüísticos con el fin de unir estos fonemas y formar palabras y oraciones en tiempo real; todas fueron extraídas de un vocabulario que consistía en más de 125,000 palabras.
Quizá algo que resulta también muy interesante es que los modelos de inteligencia artificial, instalados en el dispositivo BCI, fueron capaces de decodificar números que los participantes imaginaban cuando contaban en silencio rectángulos rosados que se les iban mostrando en una pantalla. Esto sugiere, también, que las BCI pueden detectar, además, el diálogo interno espontáneo.
Para finalizar, solamente hay que mencionar que esta tecnología, y gracias también a la irrupción de la Inteligencia Artificial, está haciendo posible lo que antes era inimaginable: que las personas con alguna dificultad para comunicarse tengan ahora la oportunidad de tener una mejor calidad de vida.
Evidentemente, habrá que ver quiénes realmente se van a beneficiar de ella por los costos que supondrá implementarla en la vida real y, sobre todo, si estos beneficios no quedarán solamente en manos de unos pocos privilegiados: los que solamente tengan la capacidad de pagarla.