Bahía Blanca | Miércoles, 25 de junio

Bahía Blanca | Miércoles, 25 de junio

Bahía Blanca | Miércoles, 25 de junio

El curioso experimento de investigadores de la UNS con Inteligencia Artificial

Simularon un alumno ficticio en una evaluación parcial de Medicina que resolvió Chat GPT. La experiencia arrojó resultados llamativos.

Foto de archivo. - La Nueva.

Los cuestionamientos sobre la utilización de Inteligencia Artificial (IA) en entornos educativos suelen estar vinculados con los riesgos de plagio o de desinformación, por ejemplo a partir de herramientas todavía en desarrollo como Chat GPT, la más masiva.

Sin embargo, la apuesta de un grupo de investigadores de la Universidad Nacional del Sur (UNS) apunta a ir en la dirección contraria: a comienzos de este año publicaron un curioso experimento que analiza la capacidad de respuesta de Chat GPT en el ámbito universitario.

La metodología de los profesionales del Departamento de Salud, Matemática y Computación fue simular un alumno ficticio en un examen para que, quienes lo corrijan, no estén al tanto de cuál de todos sería realizado por la IA.

El parcial estaba destinado a estudiantes de la materia "Medicina familiar y comunitaria" del sexto año de la carrera de Medicina. No es un dato menor. Según uno de los investigadores y decano del Departamento de Salud, Pablo Badr, se trata de una asignatura que trabaja bajo el marco teórico de Clínica Ampliada, que hace foco en el contexto —local, histórico, social y familiar— del enfermo, un terreno que parecería limitado para las respuestas de Chat GPT, que tiende a la generalización. Sin embargo, se encontraron con una cierta capacidad de generar respuestas "pertinentes al contexto sociofamiliar".

"Nos interesaba saber si al hacerle una pregunta tendría el mismo comportamiento que los alumnos", aportó el Doctor en Ciencias de la Computación de la casa de altos estudios, Alejandro García.

Sus resultados verificaron algunas limitaciones y plantearon nuevos desafíos para la comunidad educativa, señalan los autores del trabajo. "ChatGPT presentó un desempeño menor a la media del grupo control en 6 de 10 problemas clínicos", se indica en la investigación publicada en febrero pasado.

Alejandro García y Pablo Badr.

De todos modos, en diálogo con La Nueva., ambos profesionales detallaron que si bien los resultados del parcial hecho con Chat GPT no fueron buenos, sí fueron los mejores entre los desaprobados.

"Cuando planteamos situaciones particulares relacionadas a elementos locales es donde más le erraba", coincidieron. "Por ejemplo, los alumnos venían de hacer prácticas en el barrio El Saladero y es donde menos errores tuvieron, todo lo contrario a Chat GPT".

Esto demostró una limitación fácil de distinguir entre los alumnos y la tecnología: a la IA le falta el contacto con cualquier experiencia fuera de la web.

"Hay una premisa de la medicina que dice No hay enfermedades, hay enfermos. Por el contrario, las currículas de medicina trabajan sobre enfermedades y cuando descontextualizan al paciente, lo transforman en un objeto. Pero cada paciente que uno ve en el consultorio tiene una complejidad específica, que el software de evaluación que desarrollamos intenta rescatar", explica Badr. 

García explica: "Chat GPT es un sistema pre-entrenado con toda la producción humana disponible en internet, no es el mismo aprendizaje que el del ser humano. Por el contrario, es más específico y está pensado para generar una respuesta concreta. Sin nuestra supervisión, hay riesgo de que se equivoque".

Sin embargo, algunos aspectos positivos que son rescatados por los especialistas son que "genera algo entendible, coherente y parecido a la respuesta que puede generar un humano".

"Varios estudios han comenzado a explorar la capacidad de tecnologías de IA para resolver evaluaciones médicas, tanto en instancias de formación de grado como en etapa de especialización", explica el documento.

García contó: "La IA que procesa texto lo hace de manera mecánica, diferente del ser humano que puede cansarse o distraerse. Está entrenado para encontrar el texto más importante de un tema determinado y, cuando no lo encuentra, le erra. Es brillante, pero a veces tiene errores en cosas obvias para una persona".

El desafío entre la comunidad docente

Lejos de prohibir estas herramientas, García y Badr destacan que se trata de un trabajo que "potencia a los docentes y su trabajo. La IA en la educación es disruptiva, son herramientas que hay que aprovechar".

En esa línea, García especificó que se está trabajando en una Diplomatura para que la comunidad educativa de primaria y secundaria pueda aprender cuáles son las técnicas de uso y cómo potenciar su trabajo y el de sus estudiantes a partir de la IA.

Los autores del trabajo publicado en la Revista Mexicana de Educación Médica son Pablo Badr, Silvina López y Federico Bugatti, del Departamento de Ciencias de la Salud, José Bavio, del Departamento de Matemáticas y Alejandro García, del Departamento de Ciencias e Ingeniería de la Computación.