
Editorial
eISSN 2007-5057
Investigación educ. médica Vol. 14, no. 53, México, enero-marzo 2025
https://doi.org/10.22201/fm.20075057e.2025.53.24670
¿Autonomía en riesgo? Ética y la dependencia de la inteligencia artificial generativa en la formación médica
Autonomy at risk? Ethics and the reliance on generative artificial intelligence in medical training
“Se necesita algo más que inteligencia para actuar inteligentemente”.
Fiódor Dostoyevski, Crimen y Castigo
Estamos en el año 2025, a poco más de dos años del debut en el escenario global de una de las herramientas más populares de inteligencia artificial generativa (IAGen), ChatGPT de la empresa OpenAI. La irrupción de esta poderosa plataforma, además de otras diseñadas por diversas organizaciones, ha generado una gran cantidad de especulaciones y reflexiones sobre sus implicaciones éticas en varios aspectos de la vida, incluyendo la educación1. Si bien la explosión de artículos, libros, preprints, conferencias, congresos y seminarios web sobre el tema ha producido un cierto nivel de hastío en la comunidad académica, no podemos eludir el hecho de que la IAGen llegó para quedarse y que se ha introducido en muchas facetas de nuestra cotidianidad. Por ello es necesario continuar la conversación sobre su uso e implicaciones para el proceso educativo en profesiones de la salud.
Pido al lector reflexione sobre las implicaciones éticas de las siguientes viñetas:
•Un sistema de IAGen es utilizado para diseñar exámenes sumativos de alto impacto en una escuela de medicina. Los resultados muestran tendencias a favor de ciertos grupos de estudiantes (hombres, mayor nivel socioeconómico), lo que plantea preguntas sobre equidad y justicia en la evaluación.
•Un grupo de estudiantes de medicina usa frecuentemente la IAGen para generar resúmenes y respuestas a las tareas que les son asignadas en los cursos del plan de estudios. Esto podría afectar el desarrollo de su pensamiento crítico, metacognición y autonomía profesional, generando dependencia cognitiva de la plataforma y promoviendo actitudes contrarias a la integridad académica.
•Profesores de una escuela de enfermería usan IAGen para crear escenarios clínicos con datos basados en historias clínicas reales, lo que plantea preocupaciones sobre la privacidad y la posible reidentificación de pacientes.
•Universidades con mayores recursos financieros proporcionan a sus estudiantes acceso a herramientas avanzadas de IAGen, creando una brecha entre estudiantes de diferentes contextos socioeconómicos con potenciales efectos diferenciados en el aprendizaje.
•Académicos de una escuela de medicina usan IAGen para desarrollar contenido académico y propuestas de investigación, lo que genera dilemas sobre la autoría de los trabajos, la originalidad de los mismos y la posibilidad de transgresiones a la integridad académica cuando no se revela su uso.
•Una universidad utiliza herramientas de IAGen para desarrollar “trayectorias personalizadas” para sus estudiantes, con el riesgo de que, si se usan en exceso y de forma no reflexiva, pueden inhibir la iniciativa del alumnado para elegir diferentes rutas y asignaturas optativas, de acuerdo a su voluntad personal.
Estos escenarios están ocurriendo el día de hoy en muchas escuelas de profesiones de la salud en diferentes partes del mundo, y parte importante de la comunidad docente, autoridades y estudiantes, no tienen claro cómo enfrentar la infinidad de vericuetos éticos que implica el uso de IAGen en los procesos de enseñanza, aprendizaje y evaluación. El uso de este abanico de plataformas digitales en el ámbito educativo presenta situaciones que merecen un análisis ético cuidadoso.
Algunos de los dilemas éticos más relevantes en este contexto son los siguientes:
•Plagio y autenticidad en las evaluaciones. Uno de los problemas éticos más complejos es el uso excesivo de IAGen por parte de los estudiantes para generar trabajos, ensayos, proyectos o incluso respuestas a exámenes. La capacidad de estas herramientas para producir contenido que parece original plantea serios desafíos para la autenticidad de la evaluación académica. Los educadores enfrentamos dificultades para distinguir entre el trabajo genuino de un estudiante y el contenido generado por IAGen, lo que podría socavar la integridad académica y dar lugar a un aumento del plagio.
•Desigualdad en acceso y uso. El acceso a herramientas de IAGen puede estar limitado por factores económicos o tecnológicos, lo que genera una brecha entre aquellos estudiantes que pueden aprovechar estas herramientas y aquellos que no. Esta desigualdad en el acceso puede exacerbar las diferencias en el rendimiento académico y en las oportunidades educativas, ya que los estudiantes con acceso a tecnología avanzada pueden tener una ventaja injusta sobre sus compañeros. Este problema también se extiende a los docentes, quienes podrían no tener las mismas oportunidades para aprender y utilizar estas herramientas de manera efectiva.
•Reducción del desarrollo de habilidades críticas. El uso inadecuado de IAGen para tareas como la redacción de ensayos, la resolución de problemas clínicos o la generación de ideas creativas puede impedir que los estudiantes desarrollen habilidades críticas fundamentales. La dependencia de la IAGen para realizar estas tareas puede llevar a una reducción en la capacidad de pensamiento crítico, la resolución de problemas y la creatividad, que son habilidades esenciales. Esto plantea un dilema ético sobre el equilibrio entre el uso de tecnología avanzada y el desarrollo de competencias cognitivas.
•Privacidad y uso de datos. El uso de IAGen a menudo implica la recolección y análisis de grandes cantidades de datos sobre los estudiantes. Estos datos pueden incluir información personal, hábitos de estudio, interacciones en línea y rendimiento académico. El manejo de estos datos plantea cuestiones éticas sobre la privacidad y la protección de la información de los estudiantes. Además, existe el riesgo de que los datos se utilicen para perfilar a los estudiantes, lo que podría llevar a decisiones automatizadas que afecten sus oportunidades educativas sin transparencia ni supervisión adecuada.
•Sesgos y discriminación algorítmica. Los modelos de IAGen están entrenados en grandes conjuntos de datos que pueden reflejar sesgos culturales, sociales y de género. Cuando estas herramientas se utilizan en educación, existe el riesgo de que perpetúen o incluso amplifiquen estos sesgos. Por ejemplo, un sistema de IAGen utilizado para evaluar trabajos o para recomendar recursos educativos podría favorecer ciertos estilos de escritura o ciertos tipos de contenido que reflejan sesgos implícitos. Esto puede llevar a discriminación inadvertida de estudiantes que no se ajustan a estos patrones, lo que afecta los principios de equidad e inclusión.
•Despersonalización de la enseñanza. El uso de IAGen en la creación de contenido educativo, en la interacción con estudiantes o en la evaluación puede llevar a una despersonalización de la experiencia educativa. La relación entre el profesorado y el estudiantado es un componente crucial en el proceso de enseñanza-aprendizaje. El uso excesivo de IAGen podría reducir la interacción humana, lo que potencialmente impactaría en la empatía, la motivación y el apoyo emocional que los docentes brindan a sus estudiantes. Esto plantea el dilema de hasta qué punto es apropiado delegar funciones pedagógicas clave a la tecnología.
•Transparencia y responsabilidad. Otro problema ético es la falta de transparencia en cómo se desarrollan y operan los sistemas de IAGen utilizados en la educación. Los estudiantes y educadores a menudo no entienden cómo funcionan estas herramientas, qué datos se utilizan para entrenarlas, o cómo se toman las decisiones automatizadas. Esta opacidad dificulta la asignación de responsabilidad en caso de errores o sesgos, lo que plantea preguntas sobre la responsabilidad y la rendición de cuentas en el uso de la IAGen en contextos educativos y clínicos.
La integración de la inteligencia artificial generativa en la educación en profesiones de la salud trae consigo un conjunto complejo de problemas éticos que deben ser abordados con mente abierta y actitud reflexiva. Es esencial que los educadores, administradores y legisladores consideren estas cuestiones y trabajemos para desarrollar políticas y prácticas que maximicen los beneficios de la IAGen mientras se minimizan sus riesgos. Esto incluye la implementación de marcos de regulación, la formación adecuada de docentes y estudiantes en el uso ético de la tecnología, y la promoción de una cultura de transparencia, equidad y respeto por la privacidad en el entorno educativo2.
En este número de la revista tenemos artículos originales sobre los siguientes temas: instrumento de aptitud clínica en lactancia materna, actividades académicas en estudiantes de medicina durante la pandemia, trayectorias académicas en una licenciatura en medicina durante la pandemia, examen virtual con monitoreo remoto, inteligencia emocional y estrés en médicos residentes, alfabetismo científico en estudiantes de medicina, uso de inteligencia artificial en estudiantes universitarios, pacientes estandarizados y habilidades de comunicación en estudiantes de medicina, y el método socrático como estrategia de aprendizaje. Además, tenemos un artículo sobre el modelo estructural en validación de instrumentos clínicos, y un ensayo crítico sobre educación para la salud y pedagogía crítica.
Todos los trabajos de investigación publicados en este número tienen implicaciones éticas, imagine el lector lo complejo que se ve el futuro al añadir a nuestras tareas educativas y médicas las plataformas de IAGen. No es tarea fácil enfrentar estos retos y resolverlos, por lo que es de fundamental importancia que exploremos diferentes estrategias para ello y profundicemos en el tema3. 
•
Melchor Sánchez Mendiola
Editor
Facultad de Medicina, UNAM
REFERENCIAS
1.Sharples M. Towards social generative AI for education: theory, practices and ethics. Learning: Research and Practice. 2023; 9(2):159-167. https://doi.org/10.1080/23735082.2023.2261131
2.Floridi L, Cowls J, Beltrametti M, et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds & Machines. 2018; 28:689-707. https://doi.org/10.1007/s11023-018-9482-5
3.Masters K. Ethical use of Artificial Intelligence in Health Professions Education: AMEE Guide No. 158. Med Teach. 2023; 45(6):574-584. https://doi.org/10.1080/0142159X.2023.2186203