Dos docentes de la Maestría realizan aportes relevantes en Neurociencia Computacional

Por Ignacio UmanInvestigadores del Laboratorio de Inteligencia Artificial Aplicada (LIAA) desarrollan modelos computacionales para estudiar el movimiento de los ojos, a la hora de buscar un objeto o leer un texto y determinar si los algoritmos de procesamiento son capaces de modelar la actividad cerebral al momento que realizamos esta tarea perceptual. Para conocer más sobre los proyectos, conversamos con Bruno Bianchi y Gastón Bujía, quienes son integrantes del LIAA además de docentes de la Maestría en Data Mining y del Departamento de Computación FCEN-UBA.

El cerebro humano sigue siendo un gran desconocido, pero hace 30 o 40 años lo era aún más. Los significativos avances en Neurociencia han permitido comprender rigurosamente cómo funciona el cerebro, cuál es el rol de la percepción, la memoria, el lenguaje y las emociones, para la adquisición de nuevos conocimientos.

En este sentido, la Neurociencia Cognitiva surgió como entidad propia en la década del 80, impulsada por las técnicas de neuroimagen (por ej., Electroencefalogramas o EyeTracking), las cuales permitieron visualizar el cerebro en vivo y estudiar diferentes funciones psicológicas complejas, hasta entonces vedadas al investigador. Esta disciplina se centra en el estudio de los mecanismos neurales implicados en los procesos psicológicos que caracterizan la cognición humana, entendida en un sentido amplio, que abarca no solamente los procesos estrictamente cognitivos (atención, memoria, lenguaje, etc.), sino también los procesos emocionales, cuya importancia para la propia cognición ha comenzado a recibir el reconocimiento que merece en el ámbito académico.  

¿Qué sucede cuando a la neurociencia cognitiva se le suman nuevas herramientas de cómputo, para poder desarrollar modelos computacionales que intenten representar la actividad del cerebro? Desde el Laboratorio de Inteligencia Artificial Aplicada (LIAA-UBA), que pertenece al DC/ICC, se realizan numerosos experimentos empíricos relacionados con el entendimiento de la cognición en escenarios naturales, utilizando técnicas clásicas de la neurociencia como EyeTracking o EEG (ver entrevista del ICC al investigador Juan Kamienkowski: “Una mirada a la neurociencia computacional”). Dado que el procesamiento de esas señales requiere mucho esfuerzo tanto teórico como computacional, se desarrollan algoritmos y modelos para estudiar operaciones unitarias en procesos de búsqueda visual, pudiendo ayudar a representar la información que está siendo procesada e integrada en cada paso de estas rutinas visuales complejas. 

Nuestro proyecto involucra una primera tarea que se llama ‘free viewing’, observación libre en la que se le da al sujeto una imagen y observamos cómo la explora, en qué parte mira, lo cual va a cambiar dependiendo de la imagen en sí misma, si tiene muy centrado el horizonte o directamente no se ve el horizonte”, puntualiza Gastón Bujía, licenciado en matemática (UBA) y doctorando del LIAA. En este aspecto, Bujía aclara que están desarrollando modelos denominados “de saliencia”, los cuales reconocen la presencia de un estímulo en la información, que se destaca entre los demás hasta el punto de dirigir la mirada exclusivamente hacia ese estímulo. “Estos modelos de saliencia tratan de predecir qué lugares de la imagen atraen más nuestra vista: si es un rostro por ejemplo va a tener más prominencia que el resto de los elementos de la imagen, o si hay carteles vamos a mirar las letras”, explica el matemático. Y comenta que el objetivo es poder vincular esta tarea, denominada como “mapas de saliencia”, con la tarea general de búsqueda visual. “Al recorrer la imagen inteligentemente, estos modelos de saliencia nos permiten codificar el significado de la imagen. Cuando uno vea una cara va a saber que es muy saliente, entonces en este proceso de búsqueda visual en un escenario natural, el modelo la va a codificar”, complementa.

En el proyecto se utilizan, por un lado, modelos probabilísticos bayesianos que van representando el proceso de decisión del sujeto en la detección activa (active sensing) de la información que se procesa en el entorno, para encontrar el objeto que está buscando. Por otro lado, los modelos de saliencia involucran redes neuronales de aprendizaje profundo (deep learning), modelos convolucionales que están preentrenados en grandes datasets de observación en imágenes naturales, a partir de diversos experimentos de EyeTracking realizados en el laboratorio. Estos registros finalmente se procesan para obtener conclusiones relevantes sobre nuestra percepción visual y atención. Para lograr esto,cada experimento se realiza con más de 100 imágenes e involucra entre 30 a 60 personas que dejan sus registros de búsqueda visual, cantidad que usualmente varía dependiendo de la tarea a realizar.

Entre las posibles aplicaciones del modelado computacional para la búsqueda visual, Bujía menciona la conducción de vehículos autónomos, la renderización de imágenes de realidad virtual y, por último, una orientación hacia el diagnóstico clínico que tiene que ver con poder medir trastornos del espectro autista en niños y niñas, a partir de cómo observan un rostro.

Neurociencia computacional, psicolingüística y procesamiento visual de las palabras

Al mismo tiempo, en el Laboratorio de Inteligencia Artificial Aplicada se realizan estudios experimentales durante el proceso de lectura, que combinan el análisis de los movimientos oculares de los sujetos con la electroencefalografía (EEG). El propósito de estos trabajos es tratar de entender qué sucede en el cerebro mientras leemos. “El movimiento ocular y la electroencefalografía son áreas que venían muy separadas, porque tratar de hacer todo esto junto, es decir, hacer que la persona lea moviendo los ojos cuando tiene puesto el gorro de EEG, no es nada sencillo de lograr”, aclara Bruno Bianchi, biólogo, Doctor en Ciencias Biológicas y postdoctorando del LIAA. Bianchi comenta que el mismo movimiento del ojo genera un potencial eléctrico que interfiere con el que se quiere medir del cerebro. “En los últimos años, los avances de la computación y los algoritmos que tenemos a disposición han permitido poder separar la electricidad que viene del cerebro con la electricidad proveniente de los ojos. Claro que cuando leemos lo hacemos con los ojos en movimiento, no con los ojos quietos, y esto genera una serie de procesos complejos en nuestro cerebro”, complementa el integrante del laboratorio.

Cuando en los experimentos el sujeto va leyendo cada palabra de un texto de la literatura, se desencadenan los siguientes procesos: el sujeto se da cuenta que es una palabra, reconoce las letras que tiene, reconoce la palabra y su significado, e integra la palabra con el contexto que viene leyendo. El tiempo de lectura de cada palabra varía de acuerdo a si ya es previamente conocida por el sujeto o no.

“¿Es lo mismo leer de a una palabra a la vez, una palabra por segundo, que leer naturalmente muchas palabras moviendo los ojos? Es una pregunta que todavía no tiene una respuesta clara, un interrogante que recién se está empezando a desentrañar con los experimentos que hacemos en el laboratorio, continuando gran parte de los avances que vienen del campo de la psicolingüística”, sostiene Bianchi. El postdoctorando del LIAA relata que están intentando adaptar algunos de los experimentos que originalmente hacían en el laboratorio para poder desarrollarlos de manera virtual, a fin de poder ampliar la muestra a miles de participantes. El proyecto se realiza en colaboración con el Instituto de Lingüística de la Facultad de Filosofía y Letras-UBA, el Laboratorio de Neurociencia de la Universidad Torcuato Di Tella y la Universidad de Potsdam (Berlín, Alemania).

Algunos de los resultados de estas investigaciones fueron publicados en un reciente artículo en Scientific Reports de la prestigiosa editorial Nature y en la tesis de doctorado de Bianchi “Bases cerebrales de las predicciones durante la lectura de textos naturales: análisis de Movimientos Oculares, EEG y modelos de lenguaje natural”, dirigida por Juan Kamienkowski y defendida en marzo de 2021. “Mi trabajo se centró en entender qué pasa en el cerebro cuando predecimos palabras que todavía no leímos. Una de las preguntas asociadas a este problema es qué pasaría en el cerebro cuando leemos oraciones que ya conocemos”, describe el investigador.

En este punto, parecería que a partir de leer una frase conocida previamente, como “en casa de herrero cuchillo de palo”, el sistema de predicción estaría cambiando, lo cual haría que nuestro cerebro lea de otra manera, ya sea de manera más rápida (en aproximadamente un cuarto de segundo) o salteando la oración. Apoyándose en el uso de algoritmos de procesamiento de señales, así como de algoritmos probabilísticos y de procesamiento del lenguaje natural (PLN), los investigadores trabajan en el modelado computacional de estas predicciones producto de la compleja actividad cerebral.

¿Son capaces estos algoritmos de PLN de modelar algo similar a lo que sucede en esta actividad cerebral? “Responder esta pregunta nos va a permitir, por un lado, a partir de conocer los algoritmos, entender el cerebro y por otro lado a partir de entender el cerebro, entender los algoritmos. Dado que aún no está del todo claro este modelado del lenguaje, debemos seleccionar aquellas partes de los modelos de lenguaje que mejor simulan lo que pasa en el cerebro, un objetivo propio de la inteligencia artificial”, reflexiona Bianchi.

El licenciado y doctor en biólogía comenta que si la investigación puede asegurar que las respuestas que devuelven los modelos de lenguaje de las computadoras (por ej. en los modelos GPT2 ó GPT3) serán muy parecidas a las que daría un humano, o a lo que haría un cerebro humano procesando el lenguaje, tal vez el día de mañana no nos podríamos dar cuenta de la diferencia entre una computadora y un humano. “Más allá de que las técnicas avanzadas se fueron refinando muchísimo, un modelo de lenguaje que logre esto nos permitiría comunicarnos con una computadora como si fuese un humano”, concluye Bianchi. Sin dudas, uno de los desafíos a futuro es que los modelos de procesamiento del lenguaje natural que combinan los movimientos oculares con estudios sobre señales cerebrales puedan entender cómo procesamos visualmente una palabra o un texto literario, y así poder generar un sistema de predicciones más robusto que permita representar esa compleja información cada vez mejor.


Acerca de los entrevistados

Gastón Bujía es Licenciado en Ciencias Matemáticas de la Universidad de Buenos Aires. Es doctorando del LIAA-UBA, docente de Organización del Computador 1 en el Departamento de Computación y de Aprendizaje Automático en la Maestría en Data Mining.

 

 

 

 

Bruno Bianchi es Licenciado y Doctor en Ciencias Biológicas de la Universidad de Buenos Aires. Es postdoctorando del LIAA-UBA, docente de Algoritmos y Estructuras de Datos 1 en el Departamento de Computación y de Text Mining en la Maestría en Data Mining.

Facebooktwitterlinkedin

Una respuesta a “Dos docentes de la Maestría realizan aportes relevantes en Neurociencia Computacional”

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *