Inteligencia Artificial aplicada a la psicología: nuevas arquitecturas para el trabajo de profesionales de la salud
Matías Torres Esteban es egresado de la Lic. en Ciencias de la Computación y propuso en su trabajo de tesis el desarrollo de un modelo híbrido que combina herramientas como GPT o Gemini con «grafos de conocimiento». Con su investigación busca contribuir a que las respuestas de la IA sean más transparentes, auditables y seguras.
Matías Torres Esteban, reciente egresado de la Lic. en Ciencias de la Computación de la Facultad, propuso en su trabajo de tesis, el desarrollo de un modelo híbrido que combina la potencia de herramientas como GPT o Gemini con «grafos de conocimiento». El objetivo de su investigación es contribuir a que las respuestas de la Inteligencia Artificial (IA) sean más transparentes, auditables y seguras para áreas críticas como la salud.
Matías realizó su trabajo en el marco del Laboratorio de Investigación y Desarrollo en Inteligencia Artificial (LIDIC) de la Facultad, desde donde se vienen llevando a cabo distintas investigaciones sobre la IA y el desarrollo de herramientas para detectar distintas patologías o factores de riesgo en usuarios de redes sociales.
Su investigación parte de preguntarse por la transparencia de las fuentes que consulta la IA al momento de ofrecer una respuesta a una consulta o demanda puntual. Para la mayoría de los usuarios, el funcionamiento de modelos como GPT o Gemini es una especie de caja negra. “Recibimos un resultado, pero no sabemos cómo la máquina conectó los puntos para llegar a él. Este fenómeno, sumado a las famosas «alucinaciones» (cuando la IA inventa datos con total seguridad), representa un riesgo en áreas donde la precisión es vital como es el caso de la salud”, explica.
Para enfrentar este problema, Matías desarrolló su trabajo centrado en la interpretabilidad, buscando que la IA no solo responda, sino que muestre el camino que recorrió para hacerlo. “La intención final es crear métodos que permitan a un profesional de la salud entender el porqué de la respuesta de un modelo de lenguaje y poder auditar rápidamente si este está razonando de manera correcta y detectar fácilmente si comete un error de razonamiento o un error de interpretación de texto”, agrega.
¿Qué son los grafos de conocimiento y por qué los empleaste en tu trabajo?
“En lugar de dejar que la IA solo use su memoria entrenada con millones de textos, empleamos Grafos de Conocimiento. Un grafo es como un mapa conceptual, una colección de algo que se llama “terna de conocimiento”. Tres componentes, uno de ellos es un concepto fuente, otro es un concepto objetivo y esos dos conceptos se unen por una relación semántica. Y esa terna representa una proposición acerca del mundo. Por ejemplo: “Hombre” (concepto A) — “es” (relación) — “mortal” (concepto B)”.
“Mientras que el texto libre no tiene una estructura clara, el grafo es explícito y fácil de interpretar para un humano. Al integrar estos mapas, la IA deja de dar respuestas cuyas fuentes no son del todo transparentes para convertirse en un asistente que consulta una base de datos estructurada y experta. Esto permite que sus razonamientos sean determinados, así ante una misma pregunta, siempre dará la misma respuesta basada en evidencias, algo que no siempre ocurre con los modelos actuales (…) Esta tecnología ya se está empleando en áreas de salud, como, por ejemplo, la detección o diagnóstico de enfermedades raras”, cuenta.
Elegiste el dominio de la psicología para probar tu modelo ¿Por qué? ¿Cómo puede contribuir tu investigación con este campo disciplinar?
“Los trabajos que se vienen llevando a cabo en el LIDIC, emplean la IA para analizar sentimientos o vocabulario que emplean usuarios comunes en redes sociales, este enfoque que propongo en mi trabajo, va más allá al analizar el conocimiento experto o especializado. Esta tecnología no busca reemplazar al humano, sino asistirlo. En el ámbito de la salud podría ayudar a un profesional a procesar miles de artículos científicos (papers) en tiempo real para encontrar relaciones entre síntomas y nuevos tratamientos que estarían «escondidos» en un mar de textos”.
En las pruebas, Matías notó que, si bien la respuesta final de la IA puede parecer similar a la de un modelo común, la diferencia fundamental está en el panel de control que se le ofrece al usuario. «Podemos mostrar la respuesta y, al lado, un panel con el grafo de las fuentes utilizadas. Así, el profesional de la psicología puede auditar rápidamente qué información usó la máquina para dar ese diagnóstico o sugerencia», señala.
“Actualmente, el mundo usa modelos de lenguaje puros como son los Grandes Modelos de Lenguaje (LLMs), pero ya estamos viendo algunas de sus limitaciones como son algunos sesgos, falta de citas y datos inventados. Por eso, hay autores y trabajos que piensan que el futuro está en la IA neurosimbólica, una mezcla de redes neuronales con métodos simbólicos como son estos marcos conceptuales que nos proporcionan los grafos de conocimiento”, menciona.
Tras concluir su tesis, Matías continuará esta línea de investigación con una beca doctoral del CONICET, buscando perfeccionar estas arquitecturas. “Quiero analizar si un sistema basado exclusivamente en redes neuronales, es capaz de vencer un modelo híbrido o si el modelo híbrido tiene algo característico que el modelo basado en redes neuronales nunca va a poder alcanzar”, concluye.
El trabajo fue dirigido por la Dra. Leticia Cagnina y el Lic. Horacio Thompson.
