banner

Blog

Sep 07, 2023

El decodificador de actividad cerebral puede revelar historias en la mente de las personas

AUSTIN, Texas — Un nuevo sistema de inteligencia artificial llamado decodificador semántico puede traducir la actividad cerebral de una persona, mientras escucha una historia o imagina en silencio que cuenta una historia, en un flujo continuo de texto. El sistema desarrollado por investigadores de la Universidad de Texas en Austin podría ayudar a las personas mentalmente conscientes pero que no pueden hablar físicamente, como las debilitadas por derrames cerebrales, a comunicarse de manera inteligible nuevamente.

El estudio, publicado en la revista Nature Neuroscience, fue dirigido por Jerry Tang, estudiante de doctorado en informática, y Alex Huth, profesor asistente de neurociencia e informática en UT Austin. El trabajo se basa en parte en un modelo de transformador, similar a los que impulsan ChatGPT de Open AI y Bard de Google.

A diferencia de otros sistemas de decodificación de idiomas en desarrollo, este sistema no requiere que los sujetos tengan implantes quirúrgicos, lo que hace que el proceso no sea invasivo. Los participantes tampoco necesitan usar solo palabras de una lista prescrita. La actividad cerebral se mide usando un escáner fMRI después de un extenso entrenamiento del decodificador, en el cual el individuo escucha horas de podcasts en el escáner. Más tarde, siempre que el participante esté abierto a que se decodifiquen sus pensamientos, escuchar una nueva historia o imaginarse contando una historia le permite a la máquina generar el texto correspondiente solo a partir de la actividad cerebral.

"Para un método no invasivo, este es un verdadero avance en comparación con lo que se ha hecho antes, que generalmente son palabras sueltas u oraciones cortas", dijo Huth. "Estamos logrando que el modelo decodifique un lenguaje continuo durante largos períodos de tiempo con ideas complicadas".

Lea más en The New York Times: La IA está mejorando en la lectura de la mente

El resultado no es una transcripción palabra por palabra. En cambio, los investigadores lo diseñaron para capturar la esencia de lo que se dice o piensa, aunque de manera imperfecta. Aproximadamente la mitad de las veces, cuando el decodificador ha sido entrenado para monitorear la actividad cerebral de un participante, la máquina produce un texto que se asemeja mucho (ya veces con precisión) a los significados previstos de las palabras originales.

Por ejemplo, en los experimentos, los pensamientos de un participante que escuchaba a un orador decir: "Todavía no tengo mi licencia de conducir" se traducían como: "Ella ni siquiera ha comenzado a aprender a conducir todavía". Escuchar las palabras: "No sabía si gritar, llorar o huir. En lugar de eso, dije: '¡Déjame en paz!'", se decodificó como: "Empecé a gritar y llorar, y luego ella simplemente dijo: ' Te dije que me dejaras en paz'".

Comenzando con una versión anterior del artículo que apareció como preimpresión en línea, los investigadores abordaron preguntas sobre el posible mal uso de la tecnología. El documento describe cómo la decodificación funcionó solo con participantes cooperativos que habían participado voluntariamente en el entrenamiento del decodificador. Los resultados para las personas en las que no se había entrenado el decodificador eran ininteligibles, y si los participantes en los que se había entrenado el decodificador más tarde oponían resistencia, por ejemplo, pensando otros pensamientos, los resultados eran igualmente inutilizables.

"Nos tomamos muy en serio las preocupaciones de que podría usarse para malos propósitos y hemos trabajado para evitarlo", dijo Tang. "Queremos asegurarnos de que las personas solo usen este tipo de tecnologías cuando quieran y que les ayuden".

Además de hacer que los participantes escucharan o pensaran en historias, los investigadores pidieron a los sujetos que miraran cuatro videos cortos y silenciosos mientras estaban en el escáner. El decodificador semántico pudo usar su actividad cerebral para describir con precisión ciertos eventos de los videos.

Actualmente, el sistema no es práctico para su uso fuera del laboratorio debido a su dependencia del tiempo necesario en una máquina fMRI. Pero los investigadores creen que este trabajo podría transferirse a otros sistemas de imágenes cerebrales más portátiles, como la espectroscopia funcional de infrarrojo cercano (fNIRS).

"fNIRS mide dónde hay más o menos flujo de sangre en el cerebro en diferentes puntos en el tiempo, lo que resulta que es exactamente el mismo tipo de señal que está midiendo la resonancia magnética funcional", dijo Huth. "Entonces, nuestro tipo exacto de enfoque debería traducirse en fNIRS", aunque, señaló, la resolución con fNIRS sería menor.

Este trabajo fue apoyado por la Fundación Whitehall, la Fundación Alfred P. Sloan y el Fondo Burroughs Wellcome.

Los otros coautores del estudio son Amanda LeBel, ex asistente de investigación en el laboratorio de Huth, y Shailee Jain, estudiante de posgrado en ciencias de la computación en UT Austin.

Alexander Huth y Jerry Tang han presentado una solicitud de patente PCT relacionada con este trabajo.

Para obtener más información sobre el proyecto, visite el comunicado de prensa completo en la Facultad de Ciencias Naturales.

Contacto con los medios

Disponible para su reutilización con el crédito correspondiente a la Universidad de Texas en Austin u otras organizaciones acreditadas.

Lea más en The New York Times: La IA está mejorando en la lectura de la mente Marc Airhart
COMPARTIR