Programa de apoyo a la finalización de doctorados: tres físicos seleccionados

Cristian Diaz, Camila Villagrán y Julián Riccardo, fueron beneficiados con una beca que les permitirá finalizar sus tesis doctorales. Los tres, son físicos formados en la Facultad y en esta entrevista nos cuentan qué están investigando y cómo la beca les contribuye a cerrar una etapa importante de sus vidas académicas.

El Programa de Apoyo a la Finalización de Estudios de Doctorado, propuesto por el Consejo de Posgrado de la UNSL en el marco del Programa de Doctorados de la Secretaría de Políticas Universitarias, tiene como objetivo apoyar económicamente la finalización doctorados de docentes investigadores/as de la UNSL.

¿Qué investigas? ¿De qué se trata tu tesis doctoral?

Cristian Díaz: Mi tesis de doctorado se centra en el estudio de un fenómeno conocido como adsorción, y en particular sobre ciertos materiales denominados sólidos porosos, que podríamos imaginar como esponjas a una escala nanométrica. Estos materiales presentan una gran área superficial y una estructura de poros (lo que se conoce como propiedades texturales) que los hace muy interesantes para una amplia variedad de aplicaciones. Una de las principales áreas de interés es su capacidad para almacenar gases, lo que resulta crucial en contextos tanto ambientales como energéticos.

En particular, mi investigación se enfoca en el almacenamiento de gases como el dióxido de carbono (CO2), el hidrógeno (H2) y el metano (CH4), que son de gran relevancia por su impacto ambiental y su potencial como vectores energéticos. Mi trabajo busca comprender cómo las propiedades texturales de ciertos materiales porosos se relacionan con su capacidad para almacenar estos gases, lo que podría tener aplicaciones en el diseño de sistemas más eficientes para el almacenamiento y la captura de gases.

Camila Villagrán: Mi tesis doctoral se centra en el estudio numérico y experimental del fenómeno de resuspensión de partículas bajo la acción de un flujo de aire. En particular, investigo los mecanismos que intervienen en el desprendimiento de partículas depositadas sobre superficies, con un enfoque especial en la influencia que tienen las distintas formas de las partículas.

Julián Riccardo: Mi tesis de doctorado se centra en el estudio de la adsorción de moléculas poliatómicas con estructuras complejas que pueden adoptar diferentes estados conformacionales al adsorberse en diferentes tipos de superficies. Usamos simulaciones de Monte Carlo para analizar este tipo de fenómenos, analizando varios casos como el de varillas rígidas (k-meros) y moléculas flexibles adsorbidas sobre redes de geometría variable. El objetivo principal es proponer una “espectrometría configuracional” de estados accesibles/excluidos que nos permita caracterizar las transiciones de fase orientacionales que ocurren en gases de red de k-meros. Además, proponemos la aplicación de los modelos desarrollados a sistemas biológicos como las proteínas anticongelantes (AFPs), esto para investigar sus mecanismos de absorción en hielo, lo que tiene implicaciones en la comprensión de la vida en ambientes extremos con muy bajas temperaturas (con temperaturas “bajo cero”).

¿Qué carreras has cursado/cursas? ¿Quiénes son tus directores?

Cristian Díaz: Toda mi formación académica la realicé acá en la Universidad Nacional de San Luis (UNSL), donde primero obtuve el título de Licenciado en Física. Luego, con el acompañamiento del Dr. Karim Sapag, director del Laboratorio de Sólidos Porosos (LabSoP), completé una Maestría en Ciencias de Superficies y Medios Porosos bajo la dirección del Dr. Jhonny Villarroel-Rocha. Actualmente, estoy realizando mi doctorado en Física, nuevamente bajo la dirección de Karim y la supervisión de Jhonny. También quisiera destacar el papel fundamental de la Dra. Deicy Barrera, que dirigió mi tesis de licenciatura. Los tres han sido grandes guías, tanto en lo académico como en los desafíos de la investigación.

Camila Villagrán: Soy Licenciada en Física, egresada de la Universidad Nacional de San Luis y actualmente estoy finalizando mi Doctorado en Física en el Instituto de Física Aplicada, dependiente de CONICET.  Mi trabajo doctoral es bajo la dirección de la Dra. Ana Vidales y la Dra. Jesica Benito. Planeo defender mi tesis a fines de este año, entre noviembre y diciembre. Además, me desempeño como Jefa de Trabajos Prácticos en las materias de Física II para Ingeniería en Minas e Ingeniería en Alimentos durante el primer cuatrimestre, y en Física para Farmacia, Bioquímica y TULB en el segundo cuatrimestre. También imparto clases de Física y Matemática en nivel secundario.

Julián Riccardo: Soy Lic. en Física egresado de la UNSL y docente también en la UNSL, en las facultades FCFMyN y FCS . En la actualidad me encuentro cursando el tramo final de la carrera de posgrado Doctorado en Física. Mis directores son el Dr. Antonio José Ramirez Pastor (Director) y el Dr. Pedro Marcelo Pasinetti (Co-Director). Pertenezco al grupo de investigación “Simulación y Mecánica Estadística de Sistemas Complejos” dentro del Instituto de Física Aplicada (INFAP-CONICET-UNSL).

Durante tu doctorado, ¿realizaste estadías de investigación en otros centros, con beca? ¿Puedes contarnos tu experiencia?

Cristian Díaz: Sí, tuve la oportunidad de realizar una estadía en Canadá, en el laboratorio de la Dra. Liliana Trevani en la Universidad del Instituto de Tecnología de Ontario (OnTech), gracias a una beca del gobierno canadiense llamada ELAP. Esta experiencia tuvo un gran impacto tanto a nivel profesional como personal.

Trabajar en un entorno diferente, con un grupo de investigación que tenía su propia cultura y métodos de trabajo, resultó ser muy enriquecedor. Aprendí nuevas técnicas experimentales como espectroscopía Raman, electroquímica y síntesis de otros materiales. Además, la oportunidad de colaborar con investigadores de diversos antecedentes y establecer vínculos durante esta estadía es muy importante, no solo para mi investigación actual, sino que también abre puertas a colaboraciones futuras. Creo que estas experiencias son fundamentales para el desarrollo de un científico, ya que fomentan un intercambio de ideas y conocimientos que son esenciales.

Camila Villagrán: Sí, durante mi doctorado realicé tres estadías de investigación, tanto dentro como fuera del país. La primera fue en Rennes, Francia, en el Institut de Physique de Rennes, Université de Rennes 1. La segunda fue en el Laboratorio de Ingeniería del Instituto Balseiro en San Carlos de Bariloche. La tercera fue en el Laboratoire de Physique et de Métrologie des Aérosols del Institut de Radioprotection et de Sûreté Nucléaire (IRSN) en Saclay, París, Francia. En particular, en esta última estadía gran parte del costo de los pasajes aéreos para trasladarme fue financiado gracias a una Beca de Movilidad Docente otorgada por la UNSL. Estas estadías me permitieron realizar experimentos propios que complementaron el modelo computacional que venía desarrollando, obteniendo resultados muy satisfactorios, muchos de los cuales ya han sido publicados en revistas internacionales. Estas experiencias fueron enriquecedoras, no solo en lo académico, sino también en lo personal, ya que trabajar en distintos laboratorios y enfrentarme a distintas culturas amplió mis habilidades de comunicación y adaptación.

Julián Riccardo: No realicé estadías de investigación en otros centros con beca. Si adquirí una beca para realizar un curso, en Italia, sobre Sistemas Complejos. Lamentablemente, una vez estando allá, el dictado del curso se vio frustrado por la Pandemia COVID19. Me vi obligado a tener que regresar a la Argentina debido a la emergencia sanitaria.

¿Cuáles han sido los principales desafíos que enfrentaste durante tu investigación y cómo los superaste?

Cristian Díaz: Podría destacar dos desafíos principales. Por un lado, como físico experimental, lograr que los experimentos funcionen no es fácil. A veces, los equipos o los experimentos pueden fallar y en más de una ocasión algunos equipos se han roto. En Argentina, reparar equipos de laboratorio puede convertirse en toda una odisea debido a los costos, y a la dificultad para acceder a ciertos repuestos o servicios técnicos especializados.  Por otro lado, mantener la motivación durante el doctorado puede ser un reto, sobre todo después de varios años de estudios y trabajo acumulado. En esos momentos puede ser fácil perder el foco. Afortunadamente, en ambos casos, contar con un grupo de trabajo que siempre está ahí para apoyarse y ayudarse mutuamente ha sido clave.

Camila Villagrán: Uno de los principales desafíos fue aprender a programar ya que no contamos con una formación específica en programación durante la carrera de grado, salvo en una materia en la que se nos da una pequeña introducción a la temática, así que gran parte de lo que aprendí fue de manera autodidacta. Otro gran reto fue la pandemia, que alteró considerablemente los planes de investigación, ralentizando su ejecución. Además, la falta de financiamiento para la ciencia en Argentina ha sido un obstáculo constante. Muchas veces tuve que recurrir a estadías en el extranjero para poder realizar experimentos, ya que en el país no contamos con los recursos suficientes para implementar un laboratorio adecuado para realizar las experiencias. Mis estadías en Francia fueron financiadas en gran parte por convenios y becas externas, junto con ahorros personales.

Julián Riccardo: Un desafío importante que tuve a afrontar a lo largo del trayecto de investigación es el de adaptarme a la redacción de los textos científicos (“papers”), parece algo básico pero poco se trabaja sobre esto durante las carreras de grado y es un aspecto fundamental para la culminación y presentación de un trabajo científico (…) Parte de poder superar este desafío fue de manera autodidacta y otra parte fue buscando apoyo y ayuda en mis directores de tesis y colegas, consultando e intentando aprender de sus experiencias y habilidades. Otro desafío muy importante fue aprender a programar, fase clave en el desarrollo de la investigación por el tipo de trabajo planteado en mi tesis doctoral en donde hacemos uso de simulaciones de Monte Carlo basadas en código programación, que, si bien algo vimos durante el transcurso de la carrera de grado, se necesita un gran aporte autodidacta para poder seguir perfeccionando este aspecto. El poder superarlo también estuvo de la mano de una gran componente autodidacta junto con la ayuda de mi director y codirector. Sin duda, uno de los mayores desafíos -si no el mayor- fue atravesar una pandemia durante el transcurso de la beca doctoral. Esto nos obligó a reprogramar y reorganizar numerosas tareas desde otro enfoque, lo que llevó a un cambio considerable en los tiempos de investigación. Además, fue necesario cumplir con tareas docentes en paralelo y adaptando tanto las tareas de investigación como las docentes al formato virtual.

¿Consideras que la formación que recibes desde la UNSL te prepara para los desafíos del mundo en el día de hoy? ¿Puedes explicar?

Cristian Díaz: Sí, por supuesto. Puede que uno no se dé cuenta del nivel que tenemos hasta que salimos e interactuamos con gente de otros lugares, incluso de otros países, pero al hacerlo nos damos cuenta de que estamos bien formados. Incluso en el caso particular del Departamento de Física, al ser pocos, hay una buena comunicación docente-alumno, lo que fomenta que desde temprano ya vayamos experimentando el ambiente de la investigación. Además, dado que la mayoría de nuestros exámenes finales son de modalidad oral, nos vamos acostumbrando a expresarnos y debatir ideas. También, en el grupo al que pertenezco, solemos tener presentaciones y contamos con la colaboración de numerosos colegas que vienen a nuestro laboratorio a hacer pasantías, colaboraciones, etc., lo que nos enseña el espíritu colaborativo de la ciencia y nos permite aprender de muchas disciplinas relacionadas a la nuestra.

Camila Villagrán: Definitivamente, sí. La formación en la carrera de grado fue fundamental. En mi caso, la mayoría de los exámenes finales fueron orales, con jurados exigentes de dos o tres docentes. Esto me sorprendió cuando trabajé en otros laboratorios, especialmente en el extranjero, donde los exámenes orales no son comunes. La práctica de defender tus conocimientos ante un jurado me otorgó una gran capacidad para hablar en público, una habilidad esencial no solo en lo académico, sino también para comunicar ciencia al público general.

Julián Riccardo: Definitivamente, la formación que recibo en la UNSL me prepara de manera sólida para enfrentar los desafíos actuales, especialmente en campos que combinan simulación computacional y física estadística. El enfoque en el pensamiento crítico, la autonomía en investigación y el acceso a herramientas computacionales modernas me ha permitido estar a la vanguardia en la investigación. Además, la interacción con expertos de diversas áreas científicas dentro de la universidad, así como las oportunidades de asistir a conferencias y colaborar con grupos internacionales, me han dado una perspectiva global y multidisciplinaria, que es esencial para resolver problemas complejos en la ciencia actual.

¿Cuáles son tus perspectivas a futuro luego de finalizar el doctorado?

Cristian Díaz: Como se sabe, investigar va de la mano de enseñar y transmitir conocimientos. Ambas actividades las disfruto mucho. Me gustaría seguir enseñando y compartiendo la física que tanto me apasiona, así como continuar con la investigación, que siempre, al responder una pregunta, nos abre un montón de otras nuevas.

Camila Villagrán: Mi objetivo es seguir investigando. Actualmente, estoy evaluando si continuar con esto dentro el país o en el extranjero. Es probable que este plan se concrete dentro del marco de una beca postdoctoral, que es lo que comúnmente está disponible para quienes finalizan el doctorado en estas áreas.

Julián Riccardo: Después de finalizar el doctorado, mis perspectivas están abiertas tanto en el ámbito académico como de investigación. La idea principal es seguir formándome en la investigación científica a través de la realización de un posgrado, esto sujeto a poder conseguir una beca, nacional o internacional, para poder realizar el mismo. Otra ruta posible, es la de explorar la posibilidad de incorporarme al sector privado o la de poder trabajar en conjunto con este sector.

Investigadores advierten sobre una nueva temporada de incendios en la provincia

La confluencia de factores como las modificaciones en los patrones de precipitaciones y de las temperaturas, sumados a la escasez de verdor en la vegetación, podrían contribuir al desarrollo de incendios forestales.

El equipo interdisciplinar de investigación Gestión Integral de Incendios Forestales está integrado por especialistas de tres Facultades de la UNSL, la de Ciencias Físico Matemáticas y Naturales, Química, Bioquímica y Farmacia y la de Ingeniería y Ciencias Agropecuarias y vienen trabajando en el análisis de diversos datos a distintas escalas, siendo una de ellas las imágenes satelitales e información de distintos sistemas de monitoreo, lo cual  permite observar que están dadas las condiciones para la incidencia de incendios.

Los modelos climáticos dinámicos y estadísticos indican una probabilidad de más de 60 % de desarrollo de una fase fría conocida como La Niña, en el Océano Pacífico Ecuatorial. Este fenómeno, que se caracteriza por una anomalía de temperatura del agua del mar, puede tener repercusiones significativas en el clima global y regional. 

El Dr. Lucas Muñoz, investigador y docente del Departamento de Geología, explica que La Niña suele provocar cambios en los patrones de precipitación y temperatura a nivel global. Para mitigar los efectos adversos de La Niña, es crucial que los gobiernos, las universidades y las comunidades, implementen medidas preventivas. La cooperación entre los organismos del estado es fundamental, ya que juega un papel relevante para compartir datos y recursos que ayuden a anticipar y gestionar los riesgos climáticos. 

Históricamente, La Niña ocurre con una frecuencia inferior a la de su contraparte cálida, El Niño. No obstante, los eventos de La Niña tienden a ser más persistentes, a veces extendiéndose por dos años consecutivos. La fase actual de probabilidad elevada se compara con anteriores eventos de La Niña, sugiriendo un patrón climático que puede repetirse en ciclos de varios años.  

Según el Servicio Meteorológico Nacional Argentino (SMN), los efectos de La Niña sobre el país son diversos y varían dependiendo de la fase, la región y la época del año. “Con La Niña, las lluvias suelen ser bastante escasas, especialmente en la provincia de San Luis, y además también se favorecen las altas temperaturas. Los veranos con el fenómeno de La Niña suelen tener períodos muy cálidos, temperaturas muy elevadas, varias olas de calor y muchos días soleados”, explica.

Algunos datos a tener en cuenta es que el invierno de 2022 en la Argentina fue un 33,3% más seco que lo normal y se posicionó como el 7° más seco desde 1961 y el 5° consecutivo en registrar déficit de lluvias, según datos del SMN. Para el año 2022 en la provincia de San Luis más de 40 mil hectáreas fueron afectadas por los incendios forestales, donde las superficies quemadas fueron analizadas por imágenes satelitales en diversos sectores y localidades, destacando algunos de ellos como Villa de la Quebrada, Suyuque-Los Molles, Buena Esperanza, El Trapiche, Lafinur y el paraje Las Palomas. Muñoz cuenta que “hemos obtenido datos de diferentes sensores para precipitación anual (CHRIPS) y de superficie quemada (Ej MODIs Burn MD61), el cual nos permiten establecer comparaciones con la situación de la Provincia de San Luis para el último periodo 2022-2023 y las proyecciones para el periodo 2024-2025”.

“Desde el grupo de geología lo que estamos aportando es  el análisis y procesamiento de imágenes satelitales y de informaciones disponibles en plataformas y repositorios digitales, complementando con relevamiento de campo. Hay muchos recursos donde se pueden tomar datos climáticos y ambientales. Esas imágenes satelitales disponen un alto background temporal de amplio rango, desde el año 72 aproximadamente hasta ahora, lo que es una gran ventaja. Además, disponemos de la posibilidad de crear y obtener buenos aplicativos”, relata.

¿Pueden analizar factores como la sequía y su incidencia en incendios forestales?

Si, se puede llegar a una aproximación en cuanto a la sequía. Hay indicadores de la vegetación, uno de ellos es el índice NDVI que en español significa índice normalizado de vegetación diferenciada y que nos indica cuánto verdor, densidad y salud tiene la vegetación, que en este caso es el combustible, la fuente para el desarrollo de incendios. Si está más seco o si está más húmedo, nos da una incidencia e información de dónde puede comenzar un incendio. Si bien es un punto complejo, porque las imágenes satelitales muchas veces tienen una resolución de 30 metros. Y un foco de incendio por ahí se desata en un sector de unos pocos metros, pero se puede tener en cuenta un aproximado donde puede haber comenzado.  También hay disponibles imágenes satelitales más sofisticadas que tienen resolución de pocos metros. De un metro, por ejemplo, son indicativos que, a la hora de trabajar con un sistema de alerta temprana, son una buena herramienta. 

Mencionabas que pueden desarrollar aplicativos. ¿Cuáles y con qué funciones? 

La gente informática tiene su campo de desarrollo allí. Se trabaja mucho con lenguaje de programación, con Java, con Python y a su vez, con Google Earth Engine que da la posibilidad de crear una API, es decir,una interfaz de programación de aplicaciones . A través de un celular se puede ingresar y ver las bases de datos espaciales; pero a su vez también se pueden crear aplicaciones para Android, para teléfonos celulares. Para poder visualizar, por ejemplo, dónde están los focos de calor, superficies quemadas o el índice de calor en un determinado sector.

Y las alertas tempranas a las que referías ¿cómo se implementan concretamente? 

Los sistemas de alerta temprana son mecanismos o instrumentos que utilizan sistemas de comunicación integrados con el fin de ayudar a las comunidades a prepararse para los peligros relacionados con el clima, en este caso los incendios, el que a su vez requiere, de políticas públicas localizadas que hagan uso de esas herramientas. Sí un sistema de alerta temprana, se ha implementado a nivel nacional se requiere la articulación con con organismos públicos. Por ejemplo, en este caso con alguien que centralice las acciones como bomberos voluntarios, defensa civil.  Un punto fundamental es desarrollar un sistema integrado. Una de nuestras ideas dentro del proyecto es pensar cómo conectar todas esas partes que por ahí quizás hoy no están del todo conectadas y hacerlo a través de la creación de un dispositivo que reúna todos los datos de los que hemos venido hablando, como por ejemplo a través de un índice de severidad de incendios, el cual refleje determinadas condiciones climáticas como sequía, temperaturas elevadas, escasez de precipitaciones, viento y ubicarlo espacialmente en zonas que son más propensas a que se pueda desarrollar un incendio, por ejemplo.

Han analizado imágenes, datos, distintos índices que les permite pensar que están dadas las condiciones para prestar mucha atención a posibles focos ígneos en la provincia… 

Sí, hemos hecho un análisis preliminar empleando estas bases de datos climáticas, analizando series temporales desde el año 2000 y por un periodo de 20 años, del año 2000 hasta ahora y ya hemos podido determinar una aproximación, de cuál ha sido la recurrencia y la frecuencia y por lo tanto los lugares más afectados. Hemos obtenido datos preliminares, también sobre los índices de verdor, las precipitaciones y algunas otras variables. Actualmente estamos desarrollando un trabajo integrado que reúne información sobre cuáles son las superficies quemadas, cómo influye este fenómeno de ciclos más húmedos, los ciclos  de sequía, ciclos neutrales y su conexión con los incendios forestales.

Como investigador que realiza sus tareas en la provincia, ¿cuál es tu posición respecto de la necesidad de que los tomadores de decisión conozcan estas herramientas, estos datos, para la implementación de acciones de cuidado y de prevención?

Es fundamental. Y también lo es aportar desde la Universidad Nacional de San Luis todos estos datos con los que contamos. Como organismo público podemos desarrollar y podemos investigar y aportar conocimiento integrando las nuevas tecnologías. Es una satisfacción mutua otorgar esta información a tomadores de decisión para que no seamos entes aislados. Y como ciudadano y ser humano que es relevante también hacer este aporte. 

Integrantes del Proyecto Gestión Integral de Incendios Forestales: 

Director del Proyecto: JAUME, DANIEL ALEJANDRO

Grupo Responsable: PATRICIA ESTELA VERDES Investigador integrante; ELISA MARGARITA PETENATTI Investigador integrante; RAÚL HORACIO LÓPEZ Investigador integrante; GUILLERMO ENRIQUE OJEDA Investigador integrante; MARIA GISELA DORZÁN Investigador integrante; Grupo Colaborador: BRIAN LUCAS MUÑOZ Investigador; HECTOR DANIEL GOMEZ Investigador; MARIA TERESA TARANILLA Investigadora; MARCO PULITI LARTIGUE Becario; JOHANA MEDINA Becaria; LUIS GONZALO MOLINA Becario; LUIS ANGEL DEL VITTO Investigador; MARIA VIRGINIA PRINCIPE Investigadora; JAEL ARANDA Investigadora; VALERIA CORNETTE Investigadora; CECILIA LARTIGUE Investigadora; BEATRIZ ROMERO Investigadora; JORGE LEPORATI Investigador; MAXIMILIANO RIGLOS Investigador; EDILMA OLINDA GAGLIARDI Investigador; PABLO PALMERO Investigador; MARCOS PASCUALI Investigador; SILVINA SAIBENE Investigadora; XIOMARA CARBONELL Investigadora; MARIA ESTRELLA MUÑOZ Investigadora; LUCIA MIRANDA MOLINA Becaria; MARIA GUADALUPE DEL VITTO Estudiante.

Investigación e innovación tecnológica: la creación de agentes conversacionales

Las noticias sobre el desarrollo de nuevas tecnologías son parte de nuestra cotidianidad. Todo el tiempo podemos informarnos y sorprendernos sobre distintos avances y productos que aportan soluciones a diversos problemas y necesidades sociales. Detrás de esas innovaciones hay mucha investigación, meses de prueba y error y equipos que trabajan para optimizar estas herramientas y llevarlas al mercado.

El Laboratorio de Computación Gráfica de la FCFMyN, dirigido por el Mcs. Roberto Guerrero, es el escenario en el que se lleva a cabo el Proyecto de investigación denominado “La Realidad Extendida en la Comunicación de Información para el Metaverso”. En este espacio trabajan con Realidad Extendida, un concepto que incluye la Realidad Virtual, la Aumentada y la Mixta. Estas herramientas se han convertido en un recurso muy valioso para proveer de recursos a distintas tecnologías que requieren entregar a los usuarios, información de forma rápida y eficiente.

El famoso Metaverso que fue presentado con algarabía por empresas multinacionales, viene poniendo a prueba algunas aplicaciones y prometiendo el desarrollo de mundos virtuales paralelos que permitan el despliegue de tareas de diversa complejidad. Una de ellas, está relacionada a los agentes conversacionales. ¿Qué son y qué implican?

Guerrero, explica que son programas de computadora diseñados para simular conversaciones humanas. Estos agentes, a menudo llamados chatbots o asistentes virtuales, utilizan técnicas de inteligencia artificial, como el procesamiento del lenguaje natural para entender y responder a preguntas y solicitudes de los usuarios. Se emplean para brindar atención al cliente, en educación, entretenimiento y como asistentes personales, entre otras funciones.

Para que esos agentes conversacionales logren responder de manera natural y fluida, se trabaja en el diseño de códigos e interfaces que lo posibiliten. Hay experiencias con mejores resultados en las aplicaciones que solo implican sonido, pero ¿qué pasa con las que implican interactuar con un agente corporizado?

“Si tiene una representación física, que obviamente es una representación virtual, un avatar, un cuerpo, es un agente corporizado con el que el usuario puede conversar. El diseño y desarrollo de ese cuerpo, tiene que ver con poder aumentar o perfeccionar la transmisión de información.  ¿Por qué? Porque más allá de que estamos formados en la lectoescritura, para los seres humanos es mucho más fácil hablar y transmitir información verbal. El agente conversacional va a interpretar lo que el usuario dice, lo va a procesar y va a dar una respuesta verbal.

El agente conversacional procesa el sonido que emite el usuario para desglosarlo en palabras, para sacarle un contenido y la semántica. Busca hacer un “razonamiento” para encontrar una respuesta, lo convierte en oraciones, en frases verbales, incluso en el idioma que emplea el usuario y después lo vocaliza”, explica.

¿Cómo entra en juego la IA (Inteligencia Artificial) en estas aplicaciones? ¿Cuáles son las limitaciones que presenta para el entendimiento de ciertos modismos en el habla y cómo abordan esas dificultades?

No es fácil. Esta tecnología está naciendo, falta rato, pero se visualiza como algo con mucho potencial. Ha tenido un aceleramiento muy grande desde el 2020 gracias a ciertos aciertos y movimientos que lo han favorecido. La globalización es uno de esos factores. En el caso de la IA, el gran puntapié se dio cuando lo pusieron a prueba en forma gratuita para todo el mundo, con lo cual ahí se aprovechó la curiosidad de la gente; y ese uso está ayudando a desarrollar la herramienta. Estamos hablando de informática y esta se basa en matemática y por lo tanto poder hacer una deducción y un razonamiento que es intelectual, que es algo que es muy cerebral y no matemático, conlleva la búsqueda de conclusiones y deducciones de manera estadística. Entonces, realmente el agente no está razonando, está sacando estadísticas. Ahora, cuanto mayor es la población de información y de datos, la estadística va a ser también mejor.

La IA, no es algo nuevo. Surge como concepto en los años ‘60 como muchas cosas de la informática, lo que pasa es que nunca se pudo implementar porque la tecnología no lo permitía. Cuando aparece la computación, se habilita esta capacidad y cuando se abre al público, se incrementa el aporte de datos lo que permiten perfeccionar la estadística, la que comúnmente es interpretada como “razonamiento”.

El razonamiento humano no funciona a través de cálculos matemáticos, o cálculos probabilísticos. Es más bien, un compendio de factores y elementos que tienen que ver con la experiencia vivida, las relaciones, las emociones, los intereses que se combinan para elaborar un razonamiento y llegar a una conclusión, buena o mala, no importa, pero llegar a una conclusión. A la IA le falta todo eso, le falta el sentimiento, le falta la experiencia, le falta la vivencia. Simplemente saca una estadística, lo que obviamente para ciertas áreas está perfecto.

¿Qué complejidades entran en juego cuando ese agente conversacional debe tener una forma humana, o ser un cuerpo hablante?

“Los humanos estamos acostumbrados a hablar con alguien físicamente visible, no hablar con una pared. Lo importante en la comunicación y en la transmisión de información, es la cara, es el cuerpo, es algo físicamente visible. ¿Cuál es el problema acá? Necesitamos ver caras y cuerpos realistas. Durante la comunicación necesitamos ver gestos, el parpadeo de quien nos habla, identificar la concordancia de los labios con el sonido que se emite, los movimientos del cuerpo y hacer un personaje fotorrealista, requiere simular todo eso. Es muy complejo.

Ese agente, además de tener todas esas características humanas, debe interpretar el sonido, descomponerlo, interpretar la semántica, encontrar un “razonamiento” y dar una contestación. El desafío es hacer agentes conversacionales lo más fotorrealistas posible o desarrollar agentes que tengan un aspecto más cercano a una caricatura y que ofrezca una presencia, una inmersión, una emoción. Y, de hecho, eso lo hace Walt Disney desde hace muchísimos años.

Los dibujos animados generan emociones y son parte de las vivencias humanas. Podemos reconocer comportamientos y distintas personalidades en una caricatura; incluso éstas nos permiten hacer comparaciones con seres que realmente existen y encontramos en ellas similitudes a personas que conocemos o a nuestras propias mascotas, por ejemplo. En ello estamos trabajando”.

El equipo viene trabajando junto a colaboradores externos desde hace tiempo. ¿En qué, específicamente?

“En este laboratorio hemos trabajado en simulación. La informática en general se basa en las simulaciones. En algunas se requiere el diseño de espacios que sean muy específicos y muy veraces, pero hay otras donde simplemente lo que se necesita es probar el concepto. Después, físicamente, se puede observar si hay alguna diferencia o alguna discordancia, pero en principio se simula. Desde la computación gráfica trabajamos mucho con estas herramientas de simulación que permiten, ente muchas cosas, acelerar procesos. En la industria se utiliza mucho, no solo para acelerar tiempos sino también para optimizar costos y recursos.

Hemos trabajado con investigadores de España. Ellos tienen un convenio con la Red Nacional de los Ferrocarriles Españoles (RENFE) que maneja también la red de trenes de alta velocidad. Este organismo, permanentemente está haciendo el rediseño de sus trenes para acelerar la velocidad, disminuir los tiempos, planificar los cambios de motores, de formas, entre otras. Nosotros tenemos una cava en la que simulamos y diseñamos el interior del tren. Pensar y simular cómo debería ser la forma del tren desde el interior, la disposición de los asientos para una mejor circulación y para evitar problemas, por ejemplo, ante un accidente y probar modos de acelerar la evacuación. Eso se programa, se simula y en la cava se prueba y se interpreta qué tan bueno o tan malo es el prototipo que se diseñó para recién después construirlo”, concluye.

Los agentes conversacionales están demostrando ser herramientas poderosas y funcionales para muchas aplicaciones de la vida actual. La investigación científica en estos temas se torna fundamental para abordar los desafíos que aún persisten, como la privacidad de los datos y la creación de experiencias verdaderamente personalizadas.

*El equipo del Proyecto de Investigación de la FCFMyN “La Realidad Extendida en la Comunicación de Información para el Metaverso” que dirige Roberto Guerrero está integrado por los/as investigadores/as María Fabiana Piccoli, Jacqueline Fernández, Graciela Rodríguez, Luis Pasinetti y los becarios Emiliano Novelli y Yoselie Alvarado. Francisco Serán Arbeloa de la Universidad de Zaragoza, España y Silvia Castro, de la Universidad Nacional del Sur, son parte de los asesores externos del Proyecto.  

Firma de acuerdos para favorecer la formación de grado y posgrado

Este 1 de agosto, la decana de la Facultad de Ciencias Físico, Matemáticas y Naturales, Dra. Marcela Printista, firmó actas complementarias con el Ing. Pablo Enrique Guerreiro, presidente de la Agencia de Ciencia, Tecnología y Sociedad San Luis (ACTySSL) y con el Dr. Luis Quintas, rector de la Universidad de La Punta, en el marco de un Convenio previo firmado con el Gobierno de la Provincia.

Los acuerdos específicos se centran en generar posibilidades de formación para estudiantes de grado y posgrado. Así, con la Agencia, se establecieron una serie de acciones tendientes a fomentar la formación universitaria de posgrado de su personal en la Especialización en Gestión y Vinculación Tecnológica (GTEC) que dicta la Facultad desde hace más de una década.

Durante el acto de firma, la decana resaltó la importancia de este paso institucional que permite contribuir a la consecución de objetivos comunes entre la facultad y la Agencia para una formación académica que contemple los desafíos y demandas actuales de la provincia y la región.

Asimismo, la rúbrica incluyó el compromiso de propiciar pasantías educativas, prácticas preprofesionales y técnicas supervisadas a implementarse en dependencias de la Agencia. Estas actividades destinadas a estudiantes de diversas carreras de grado de la Facultad, les permitirá profundizar el desarrollo de sus capacidades y habilidades para el manejo de diferentes tecnologías.

Por su parte, con el rector de la ULP, Dr. Luis Quintas, se suscribió un compromiso para que el personal de la Universidad Provincial se capacite en el GTEC. Esta Especialización apunta a brindar conocimientos orientados a vincular y gestionar el desarrollo entre las empresas, las universidades y otras instituciones I+D+i.  Esta especialización le permite a sus graduados desarrollar estrategias en la gestión de la ciencia, la tecnología, la innovación y el desarrollo.

Detección automática de sismos: la tomografía como herramienta para conocer la tierra

El viernes pasado se realizó la Jornada “Avances en el conocimiento de nuestro planeta a partir de la detección automática de sismos sin daños ambientales”, en la que tres especialistas invitados presentaron trabajos realizados a partir de tomografías. La actividad fue organizada por los docentes de la Facultad, Silvana Spagnotto del Departamento de Física y Augusto Morosini del Departamento de Geología.

Los especialistas extranjeros fueron la Dra. Diana Comte de la Universidad de Chile, el Dr. Steven Roecker, del Rensselaer Polytechnic Institute, Estados Unidos y el Dr.  Sergio León Ríos, investigador del Advanced Mining Technology Center (AMTC).  Además de la charla, los invitados participaron de un viaje de campo junto a estudiantes de la Facultad.

“El vínculo con la Dra. Comte surge de un intercambio que realicé en Chile en 2019, donde luego fue también un estudiante de Electrónica. (…) . Al Dr. Roecker tuve la oportunidad de conocerlo mientras se proyectaba el Proyecto Tango, un gran experimento que duró 2 años y que consistió en la instalación de una red de más de 300 estaciones sismológicas en Argentina y Chile para hacer tomografías. Ese proyecto generó la posibilidad de que vinieran a San Luis”, explica la Dra. Spagnotto.

Las exposiciones, que contaron con una entusiasta participación de estudiantes y docentes, se centró en un eje común: la tomografía sísmica y el empleo de sismos naturales para poder reconocer la corteza y la composición de la tierra. “Las tomografías permiten conocer lo que tenemos en el interior de la tierra, en este caso a través de ondas mecánicas; para ello se arman redes que detectan la sismicidad y a partir de al velocidad de propagación de cada una de las ondas, se pueden conocer sectores de mayor o menor velocidad”, explica Spagnotto.

El Dr. Roecker expuso los resultados de una tomografía a escala regional y presentó una serie de sismos localizados a través de un software que él mismo diseñó con el que se pueden detectar automáticamente los movimientos y  otro que permite ver las señales que genera la tomografía. “Esta detección automática de sismos demostró que la identificación de movimientos aumentó exponencialmente respecto de los sismos que se detectaban con observaciones visuales y mostró que en el caso de las latitudes de San Luis, Mendoza y San Juan, existe una vinculación entre los sismos superficiales con los de la Placa de Nasca subducida. Roecker presentó su hipótesis de que allí hay una sismicidad muy frecuente debido a lo que se llama fracturamiento hidráulico”, relató la docente.

Por su parte, la Dra. Comte mostró tomografías de escala local empleadas en minería para detectar cobre, por ejemplo. Explicó, en ese sentido, cómo la velocidad en esos sectores cambia. El Dr. León Ríos, por su parte, expuso un proyecto denominado “Patrimonio” en el que trabajó con sismos históricos y pudo observar cómo los registros del año ’73 en Chile detectaron durante el golpe de estado algunos bombardeos, así como la ausencia de movimientos en los momentos del toque de queda.  

“Las tres charlas fueron muy interesantes, los estudiantes quedaron muy entusiasmados. Pudieron ver videos de tomografías en 3D y comprender lo que se puede hacer sin usar explosiones y viendo sismos naturales”, cuenta Spagnotto.

El equipo organizador prevé continuar el trabajo colaborativo con los especialistas quienes participaron también de una salida de campo junto a estudiantes y dejaron datos y material de estudio de la red Tango además de dejar a  disposición un software específico para estas actividades.

Sobre los especialistas:

Dra. Diana Comte, Universidad de Chile. Sismóloga y doctora de la Universidad Nacional Autónoma de México, es profesora titular del Departamento de Geofísica y directora de I+D+i del Advanced Mining Technology Center (AMTC), ambas de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile. La Dra. Comte ha liderado numerosos proyectos científicos enfocados principalmente en sismotectónica, tomografía sísmica y peligro sísmico en diferentes regiones de Chile y Perú. Es autora de 62 artículos en revistas internacionales indexadas y tiene 2.300 citas en 1.600 artículos. También supervisa estudiantes de posdoctorado, doctorado, magíster y pregrado en la Universidad de Chile. Fue reconocida en la categoría de Innovación, como parte de la iniciativa a cargo de la organización Women in Mining Chile y fue seleccionada entre las 100 mujeres inspiradoras de la minería chilena.

Dr. Steven Roecker, Rensselaer Polytechnic Institute, Estados Unidos. A Neww look at the Pampean. Flat Slab with old data. Professor of Earth and Environmental Sciences; Ph.D. (Massachusetts Institute of Technology).Tiene más de 100 papers y de 5000 citas. Factor h que son 40 papers al menos con 40 citas. Y más de 110 papers citados al menos 10 veces. Roecker, un experto en geofísica, realizó softwares de detección automática de sismos que aumentaron ampliamente las detecciones de eventos conocidos. Además un software de tomografías. Dirigió proyectos para comprender los procesos de colisión en Taiwán, el Himalaya de Pakistán y el Tien Shan, a determinar el movimiento de la placa del Mar de Filipinas, a comprender la evolución de la Cuenca y la Cordillera, y los detalles de los procesos sísmicos en California.

Dr. Sergio León Ríos, investigador del Advanced Mining Technology Center (AMTC).  Licenciado en Ciencias Físicas de la Universidad Católica del Norte, Antogagasta, Chile; Magíster en Geofísica de la Universidad de Chile en Santigao de Chile, y Doctor en Ciencias Naturales del Karlsruher Institut für Technologie en Karlsruhe, Alemania. Estudia tomografía sísmica local para analizar las estructuras a lo largo del margen chileno. También interesado en tomografía sísmica aplicada a la exploración minera a mayores profundidades.

Visualización y análisis de datos

La Dra. Luján Ganuza, es investigadora asistente del CONICET y profesora del Departamento de Ingeniería y Ciencias de la Computación de la Universidad Nacional del Sur. Su trabajo se centra en la visualización de datos, computación gráfica y tecnologías inmersivas. Desde hace varios años colabora con docentes del Departamento de Informática de la Facultad.

Este año, dictó un curso de posgrado y brindó una charla abierta para interesados/as en la temática. Ganuza viene desarrollando desde hace tiempo, un vínculo de trabajo colaborativo con profesores locales. En diálogo con la Facultad, relató cómo surgió la relación institucional, qué actividades vienen desarrollando y también nos detalla qué tareas de investigación está llevando a cabo actualmente.

Mi vínculo con la Universidad Nacional de San Luis nació hace tiempo y viene por partida doble. Con mi grupo de investigación llevamos años en contacto y colaboración con Roberto Guerrero, director del Laboratorio de Investigación y Desarrollo en Computación Gráfica. Él es un experto en temáticas relacionadas con la computación gráfica y las tecnologías inmersivas, y siempre es un placer coincidir con su grupo en enriquecedoras colaboraciones y discusiones.

Por otra parte, en un curso de posgrado que dicté para la Especialización en Inteligencia de Datos Orientada a Big Data de la Facultad de Informática de la UNLP, tuve el gusto de conocer a la Esp. Mercedes Barrionuevo, docente de la UNSL. Tuve el honor de dirigir su excelente trabajo final de la especialización. En el marco de este trabajo, se estrechó una relación de colaboración muy amena con Mercedes, y luego de finalizar su destacado desempeño, logramos publicar un artículo en el Congreso Argentino de Ciencias de la Computación en 2023. A partir de esta primera colaboración, continuamos trabajando juntas, y con la Dra. Marcela Printista, me invitaron formalmente a dictar un curso de posgrado en la FCFMyN.

Durante mi estadía en la FCFMyN de la UNSL, dicté una charla para la comunidad académica referida a mis temáticas de investigación, impartí el curso de posgrado y pude reunirme con docentes de la universidad para conversar sobre las posibilidades de aplicación de técnicas de visualización en sus áreas de interés. El objetivo principal del curso de posgrado consistió en que los alumnos adquirieran los conocimientos teóricos, los detalles prácticos y las herramientas necesarias para construir visualizaciones que permitan el análisis visual de grandes volúmenes de datos. Para ello, nos enfocamos primero en una introducción al análisis visual de datos y a los procesos involucrados en la tarea de visualización, exploramos las componentes fundamentales involucradas en el proceso y, en cada etapa, presentamos los conceptos, las tecnologías básicas, las técnicas y los algoritmos en uso hoy en día. La experiencia del curso fue excelente y mi estadía, sumamente enriquecedora.

Cómo informática ¿cómo te interesaste en el análisis virtual de datos? ¿Hubo algún/a docente o referente que haya sido un estímulo para que escojas este camino dentro de la investigación?

Durante mi paso por la Universidad Nacional del Sur, cursé la asignatura de Computación Gráfica bajo la cátedra de la Dra. Silvia Castro. Ella era la directora del Laboratorio de Investigación y Desarrollo en Visualización y Computación Gráfica y en ese momento, la Dra. Castro nos invitó a los alumnos a considerar la posibilidad de solicitar becas de iniciación a la investigación para estudiantes avanzados.

Las temáticas relacionadas con la computación gráfica siempre despertaron un gran interés en mí, y cuando Silvia me habló sobre la Visualización de Datos, mi entusiasmo se acrecentó aún más. Fue entonces cuando decidí, a la primera oportunidad, aplicar para una de estas becas, la cual me fue adjudicada. A partir de ese momento, tuve el privilegio de formar parte del laboratorio, trabajando en fascinantes proyectos vinculados a la visualización de datos, computación gráfica y tecnologías inmersivas.

Centrándonos en este tema ¿qué implica el análisis visual de datos? ¿qué herramientas emplean desde la informática para facilitar esa lectura y análisis? ¿con qué tipo particular de datos trabajas y por qué?

El análisis visual de datos implica el uso de representaciones gráficas para explorar, analizar y comunicar información compleja de manera intuitiva y efectiva. Esta poderosa herramienta permite identificar patrones, tendencias y relaciones que podrían pasar desapercibidas en grandes conjuntos de datos. Desde el ámbito de la informática, existen diversas herramientas y técnicas que facilitan el análisis visual de datos. Desde el punto de vista de aplicación o generación de gráficos, podemos distinguir tres grandes grupos. En primer lugar, las herramientas configurables, como Tableau, Power BI, entre otras, permiten crear visualizaciones interactivas, paneles de visualización y visualizaciones personalizadas a partir de diferentes conjuntos de datos, brindando una gran versatilidad. En segundo lugar, las librerías de visualización, como Matplotlib, Plotly, Bokeh para Python, D2.js para javascript, ggplot2 para R, entre otras, ofrecen la posibilidad de programar una amplia variedad de gráficos y visualizaciones, proporcionando un alto grado de personalización. Finalmente, existen las soluciones diseñadas específicamente para resolver un problema en particular. En esta última categoría es donde nos especializamos con nuestro grupo de investigación. Trabajamos arduamente en el diseño y desarrollo de soluciones de análisis visual para datos multidimensionales en general, y provenientes de las ciencias geológicas y de dispositivos de seguimiento ocular en particular, intentando abordar desafíos complejos de manera innovadora.

¿Cuáles son las aplicaciones que tiene?

La visualización de datos es una disciplina transversal que permea prácticamente todos los dominios de aplicación. Se trata de una ciencia multidisciplinaria que estudia alternativas de resolución de problemas complejos a partir de representaciones visuales intuitivas y poderosas. Siempre que exista un desafío que pueda ser abordado mediante un conjunto de datos, la visualización de datos tiene el potencial de hacer una contribución significativa.

Las aplicaciones de la visualización de datos son verdaderamente vastas y abarcan una amplia gama de disciplinas, desde las ciencias naturales y la investigación académica hasta los negocios, la inteligencia empresarial y el periodismo de datos. Incluso en ámbitos aparentemente alejados, como las artes y las humanidades, la visualización de datos ha demostrado ser una herramienta invaluable para explorar y comunicar ideas complejas de manera accesible y atractiva.

En definitiva, la visualización de datos es una ciencia versátil y poderosa que, mediante la combinación de técnicas avanzadas y un enfoque centrado en el usuario, tiene el potencial de resolver problemas complejos en prácticamente cualquier dominio, siempre que existan datos subyacentes que puedan ser analizados y representados visualmente.

Trabajas también en el desarrollo de técnicas de visualización de datos de seguimiento ocular. ¿Podrías contarnos de qué se trata? ¿Cuáles son sus aplicaciones?

Desde hace algunos años nos enfocamos en el análisis visual de un tipo específico de datos espacio-temporales: los datos provenientes de un registrador de movimientos oculares, conocido como eye-tracker (ET). El ET registra y graba, durante un determinado tiempo y a una determinada frecuencia, tanto la posición ocular como otras variables adicionales, como la velocidad, la aceleración y el diámetro de la pupila, entre otras.

El seguimiento de los movimientos oculares permite analizar la información adquirida por una persona durante la realización de diversas actividades, tales como la lectura, la observación de una imagen, la conducción de un vehículo, etc. Sin importar si se utilizan métodos estadísticos o visuales para el análisis de los datos obtenidos mediante ET, durante los experimentos realizados se genera una gran cantidad de datos.

Si bien los métodos estadísticos proveen resultados cuantitativos, las técnicas de visualización permiten que los investigadores analicen y exploren diferentes niveles y aspectos de los datos generados en sus experimentos llevados a cabo con el ET. Las técnicas de visualización ayudan a analizar tanto los aspectos espacio-temporales de los datos generados por el ET como las complejas relaciones que puedan existir entre los diversos datos y tipos de datos obtenidos. Esta exploración de características más cualitativas también colabora en la construcción de hipótesis que podrían ser posteriormente investigadas con métodos estadísticos.

Debido a la creciente complejidad de las tareas y estímulos posibles en los experimentos de eye-tracking, consideramos que la visualización jugará un rol cada vez más relevante en el análisis de experimentos con ET. En particular, en lo que respecta a movimientos oculares, se está trabajando en el desarrollo de técnicas de visualización innovadoras para analizar la información adquirida por una persona durante la realización de actividades como: Lectura de oraciones, observación de una imagen con el objetivo de responder determinadas preguntas y conducción de un vehículo sujeta a determinadas restricciones.

Estas técnicas de vanguardia permitirán a los investigadores obtener una comprensión más profunda de los complejos procesos cognitivos involucrados en estas tareas, abriendo nuevas oportunidades para avanzar en el conocimiento y la práctica en diversos campos.

Los datos como herramientas para tomarle el pulso a los sistemas agrícolas

Este martes, Esteban Jobbágy, agrónomo e investigador del Grupo de Estudios Ambientales (IMASL-UNSL-Conicet), brindó una charla en la que expuso cómo diversas herramientas electrónicas, digitales y satelitales, permiten generar bases de datos de gran utilidad para el agro y la investigación científica.

La charla fue organizada en el marco de la Maestría en Diseño de Sistemas Electrónicos Aplicados a la Agronomía del Departamento de Electrónica de la FCFMyN. Ante un público variado, integrado por estudiantes, docentes, investigadores/as y profesionales, Jobbágy sostuvo que estamos en un continente en el que los cambios que genera la agricultura en la superficie son evidentes, no obstante, no todo lo que acontece en el suelo es fácilmente visible.

Partiendo de esta premisa, fue exponiendo evidencia de los distintos trabajos de investigación que lleva adelante el grupo que dirige, en el que se podían observar imágenes y gráficos obtenidos a través de diferentes bases de datos.

Estos aportes, significativos para la ciencia, han permitido comprender mejor qué pasa en los suelos cultivados y en los que están cubiertos por pasturas o bosques nativos. Las bases de datos, subrayó el experto, son insumos de enorme relevancia para la investigación científica pero también para los productores. Posibilitan generar nuevo conocimiento que contribuye a la toma de decisiones.

Jobbágy fue mostrando diversas aplicaciones y desarrollos generados en colaboración con ingenieros electrónicos locales y fue dando señales de las complejidades que el campo le imprime a los desarrollos tecnológicos. Las condiciones ambientales y los distintos usos que se requieren en el territorio, son condicionantes importantes de considerar al momento de pensar estos desarrollos. En ese sentido, enfatizó la necesidad de conocer a fondo el contexto en el que estas herramientas se emplearán.

La Argentina enfrenta diversos desafíos ambientales. La expansión de la agricultura y administración de recursos como el agua, los usos del suelo, el empleo de herbicidas y fertilizantes, requieren de información precisa que contribuya a la gestión de todo ello. El aporte de la tecnología para la obtención de datos, se torna crucial en este contexto.

El encuentro, culminó con un fluido intercambio entre los asistentes.

Muchos datos, muchos retos: la investigación aplicada al manejo de grandes volúmenes de datos

¿Cómo procesar y analizar grandes cantidades de datos? ¿Cómo gestionar datos masivos aplicados a la investigación científica? ¿En qué campos disciplinares pueden aplicarse estos conocimientos y herramientas?

Fabiana Piccoli es docente hace 35 años y desde hace 30 que se dedica a la investigación. Junto a Marcela Printista dirigen el proyecto “Tecnologías avanzadas aplicadas al procesamiento de datos masivos” del que participa un grupo numeroso de investigadores/as de la FCFMyN. Todas las acciones de investigación que llevan adelante emplean métodos avanzados y de alto rendimiento que favorecen el análisis y entendimiento de la complejidad asociada a diferentes problemas actuales.
La tarea que llevan a cabo en las distintas líneas de investigación están asociadas al estudio de la difusión de enfermedades y noticias, a la computación de alto desempeño, a la recuperación de datos e información, al empleo de sistemas de inteligencia computacional, al modelado y simulación de sistemas a gran escala, entre otras. Todas ellas, trabajan con bases de datos de gran magnitud que presentan desafíos heterogéneos.
“Cuando se habla de datos masivos, no necesariamente se hace referencia a un determinado tipo de datos, éstos pueden ser de distinta naturaleza, desde datos estructurados hasta no estructurados como textos, audio, imagen y video. Por ejemplo, una información puede tener distintas estructuras y significar lo mismo, como pueden ser dos imágenes de una misma cosa. Esta característica dificulta las tareas básicas de identificación, clasificación y administración de los datos. Es necesario en consecuencia contar con una representación robusta que permita realizar las actividades en forma automática y arribar así a la resolución de problemas complejos”, explica.
Fabiana trabaja particularmente en la línea vinculada a la llamada computación de alto desempeño, desde la cual y de forma paralela, se articulan múltiples procesadores para resolver un problema específico; una especie de red interconectada que facilita los procesos y reduce los tiempos de trabajo.
“Actualmente estamos desarrollando una simulación sobre el crecimiento de un hongo que afecta las plantaciones de arroz y que puede arruinar toda una cosecha. La idea es tratar de ver qué condiciones favorecen que se desarrolle ese hongo. Estamos haciendo simulaciones para analizarlo. La simulación se puede aplicar a fenómenos que son demasiados complejos para ser tratados con métodos analíticos o con experimentos que tienen limitantes temporales y económicas. Esta acción surge de vinculaciones con el INTA de Entre Ríos y pensamos luego, escalarlo a otro tipo de cultivos como el algodón”, adelanta.
“Otra gran área de investigación dentro del Proyecto está asociada a la recuperación masiva de datos, lo que tiene aplicaciones en múltiples problemas reales como la seguridad de ingreso a lugares, la lectura de patentes en las rutas, el reconocimiento facial, entre muchísimas otras”, relata. La búsqueda de datos multimedia tiene una enorme complejidad porque implica que quien busca debe hacerlo con indicaciones claras y precisas, pero también, eso que se busca debe estar bien catalogado de modo de favorecer ese rastreo.
“Las respuestas se ven afectadas por la representación y almacenamiento de los datos. Por lo tanto, al presentar una consulta a un sistema de recuperación de información, se busca aquella que podría ser útil o relevante desde la base de datos. Esta línea se dedica principalmente al diseño y desarrollo de índices que sirvan de apoyo a diversos sistemas de recuperación de datos no estructurados”, amplía.
El grupo de investigación tiene una proyección amplia en todas las líneas de trabajo, algunas de las cuales se articulan con investigadores locales y de países como España y México.
Al equipo lo integran los/as docentes Alicia Castro, Verónica Gil Costa, Fernando Kasian, Olga Lopresti, Verónica Ludueña, Natalia Miranda, Gabriela Molfino, Nora reyes, Mariela Rodríguez, Patricia Roggero, Ruben Apolloni, Mercedes Barrionuevo y Cristian Tissera. El Proyecto es también un espacio para la formación de recursos humanos, donde becarios, estudiantes de grado y posgrado están realizando sus tesis. Actualmente, unos 20 se encuentran en ese proceso y unos 16 ya presentaron y defendieron sus tesis de maestría y doctorado.

El aprendizaje activo como motor de cambio en el aula

Myriam Villegas es doctora en física. Como docente e investigadora está ocupada y preocupada por indagar el modo en que se desarrollan los mecanismos de enseñanza y aprendizaje en disciplinas como física, matemáticas o computación. ¿Qué pasa cuando nos corremos de la enseñanza tradicional y el estudiante es protagonista activo del proceso? ¿cuáles son las mejores estrategias para enseñar este tipo de ciencias? 

Estas preguntas son las que motivan a Myriam y su equipo de investigación para trabajar con estudiantes de profesorados universitarios que luego educarán a adolescentes en las escuelas de la provincia. La tarea no es sencilla porque los problemas asociados a la educación son múltiples y complejos, y por ello, involucra en esta labor a investigadores provenientes de las ciencias exactas y naturales, pero también a pedagogos y a especialistas en enseñanza de las ciencias. 

¿Cómo se puede definir el aprendizaje activo? “lo esencial es pensar un aula centrada en los estudiantes. El docente es una especie de director de una obra de teatro que trabaja mucho antes para que en el aula quienes trabajen, sean los alumnos”, explica. Tal cometido conlleva desafíos para las instituciones y para el cuerpo docente, al respecto Myriam enfatiza que “este tipo de enseñanza implica romper tradiciones, hacer consciente la enseñanza para pensarla y hacer cambios. Para que haya aprendizaje el docente debe tener un rol de guía, de apoyo, para que ese aprendizaje exista y tiene que estar atento todo el tiempo observando cuánto se aprende”. 

Ahora bien, ¿cuáles son las estrategias de las que se vale el aprendizaje activo? “No se trata de implementar cualquier actividad. Hay mucha investigación sobre cuáles son las estrategias que funcionan mejor que otras. El proyecto que llevamos a cabo también trata de llevar resultados de investigación al aula y de alguna manera observar cómo funciona esa estrategia”, señala. 

El aprendizaje activo se contrapone a la mayoría de métodos de enseñanza clásicos, como el receptivo (en el que los alumnos reciben información sin tener que hacer nada). También se diferencia de otros procesos como la memorización, o el aprendizaje significativo, aunque puede tener relación con este último. Mediante un proceso de aprendizaje activo, los estudiantes adquieren tanto conocimientos disciplinares como habilidades.  

El Aprendizaje Activo requiere que los estudiantes se involucren en su propio aprendizaje y reflexionen utilizando los nuevos conocimientos y habilidades a fin de desarrollar recuerdos a largo plazo y una comprensión más profunda. Esta última también les permitirá conectar distintas ideas entre sí y pensar de manera creativa. Entonces ¿qué estrategias específicas se pueden implementar en la enseñanza de ciencias como la física, la matemática y las ciencias de la computación? “Hay algunas que son comunes para todas las ciencias, incluyendo las matemáticas, y que tienen que ver por ejemplo con cómo se piensa la resolución de problemas y cómo se piensa la estructura de esa resolución de un problema para que haya mayor aprendizaje de la disciplina. En este proyecto la línea de matemática está en un estadio más inicial, nos estamos ocupando mucho en este momento de diagnosticar el aprendizaje de algunos temas. Queremos saber con qué ideas vienen los chicos y cómo es la formación del profesorado; esos son los aspectos que estamos indagando porque cuando miramos el aula son muchos aspectos los que nos generan preguntas. Nos interesa focalizarnos en las ideas previas que traen los estudiantes en ciencia. Nunca vienen como un papel en blanco, siempre traen ideas preconcebidas y el aprendizaje debe partir de ahí. Además, estamos recabando información para saber con qué nivel de razonamiento científico ingresan los estudiantes. Esta información nos da herramientas para planificar qué hacer como docentes”, resalta. 

En la línea de computación también nueva en el proyecto, se está avanzando en la mirada inclusiva de la docencia, una mirada necesaria donde hay mucho para hacer, pensar y preguntar.  Resulta clave para este proyecto en general, articular a nivel institucional para poder tener ese recurso informativo, pero también para que haya una retroalimentación que reditúe en el fortalecimiento de la enseñanza universitaria y secundaria. “Debo decir que nos ha ido bien. Siempre nos han permitido hacer algunas mediciones diagnósticas. Cuando uno habla de enseñanza y aprendizaje el campo es muy amplio; nos interesa ver qué pasa en el aula porque hay mucha investigación y sin embargo cuesta articular lo investigado con la realidad. Nuestro proyecto intenta construir ese puente, aunque no es sencillo transformar los modos en que se imparte la enseñanza, tendemos a repetir las prácticas docentes, a enseñar como nos enseñaron pese a tener estudiantes con otra conformación cultural y social de la que nosotros hemos tenido cuando éramos estudiantes. Han cambiado muchas características de nuestros estudiantes y de su entorno (por ejemplo, su relación con la tecnología), pero a veces el aula permanece igual”, subraya. 

El proyecto pone en evidencia y aporta a la investigación sobre el aprendizaje activo en enseñanza de las ciencias como la física, la matemática y la computación.  Las transformaciones institucionales suelen ser lentas. “Sí, aunque igual en la facultad algo se está progresando. Creo que estas miradas distintas del aula han obligado a más formación docente. Algunos cambios se ven, pero sí, es un proceso lento igual que cualquier intensión de cambio que quieras hacer en educación. Lo importante es hacer y no paralizarse”, remarca. 

“De alguna manera lo que hacemos es un círculo virtuoso de prácticas-reflexión- reformulación que se va mejorando año a año, haciéndonos nuevas preguntas en el proceso. El proyecto empezó hace tres años, este es el último, pero es continuación de proyectos previos dirigidos por el Dr. Benegas, con énfasis en la física, y hemos hecho muchos cambios en nuestras prácticas en estos años.  Hay que medir y observar mucho, no solamente cuánto aprenden los estudiantes de física o matemática, sino además cuánto aprenden de otras habilidades, cuánto aprenden sobre resolver problemas, cuánto aprenden de trabajo en grupo, cuánto a ser independientes”, concluye.

El equipo de investigación liderado por Myriam Villegas se denomina “Estrategias de enseñanza basada en aprendizaje activo para la física, matemática y ciencias de la computación” y está integrado por Julio Benegas (profesor emérito de la UNSL), Mara Verónica Dávila, Mario Rodríguez, Enrique Miranda, Guillermo Lehne, Mariela Zuñiga, Hugo Viano, María Verónica Rosas, María Fernanda Barroso, María Cecilia González, Adriana Arce y Aldo Daguerre. 

La Carrera de Geología de la FCFMyN de la UNSL celebró 50 años formando profesionales

La Licenciatura en Ciencias Geológicas de la Facultad de Ciencias Físico Matemáticas y Naturales, de la Universidad Nacional de San Luis, celebró sus 50 años de creación.

Para conmemorar este aniversario, el Departamento de Geología organizó un emotivo acto del que participaron el rector de la UNSL, CPN Victor Moriñigo, la Decana de la Facultad, Dra. Marcela Printista, secretarios de gestión, el Director del Departamento, Dr. Daniel Sales y antiguos docentes y estudiantes quienes compartieron anécdotas y recuerdos que han dado forma a una larga historia académica. Durante el evento se reconoció a los docentes Ernesto Perino y Pedro Criado Roque por sus enormes aportes a la carrera. Recibieron el reconocimiento Ernesto Perino hijo y Pedro Morlan, geólogo de la primera promoción de la carrera.

En los distintos discursos que se compartieron, se hizo mención a hitos fundamentales que a lo largo de estas cinco décadas han posibilitado la formación de cientos de profesionales que han contribuido al desarrollo de la geología en la región y el país.

La carrera se creó en 1974, al poquito tiempo que UNSL se separa de la UNCUYO. Desde sus inicios, se ha caracterizado por su fuerte enfoque en la investigación y la formación de profesionales con una sólida base científica y técnica. Los graduados de la Licenciatura en Ciencias Geológicas trabajan en una amplia variedad de sectores, incluyendo la industria minera y petrolera, la gestión ambiental, la docencia y la investigación.

Un pilar fundamental de la FCFMyN

La carrera en Ciencias Geológicas es de gran importancia para la FCFMyN; en estos 50 años ha brindado una multiplicidad de cursos de posgrado y su Doctorado ha sido acreditado por la CONEAU con la máxima categoría (A). Cuenta con un cuerpo docente altamente calificado y una infraestructura que permite a los estudiantes desarrollar sus habilidades prácticas en laboratorios y trabajos de campo. Durante el acto, se inauguró una nueva aula multimedia que permitirá a los/as estudiantes mejorar sus prácticas áulicas.