eISSN 2007-5057

Investigación educ. médica Vol. 13, no. 49, México, enero-marzo 2024

Cartas

Letters

Riesgos en el uso de Grandes Modelos de Lenguaje para la revisión bibliográfica en Medicina

Risks in the use of Large Language Models for literature review in Medicine

Sr. Editor:

Hemos leído con atención el interesante artículo publicado recientemente por el equipo del Dr. Carbajal-Degante1 en el que se analiza el potencial de herramientas basadas en Procesamiento de Lenguaje Natural (NLP) tradicional y la nueva generación Grandes Modelos de Lenguaje (LLMs) para asistir en la revisión bibliográfica a los investigadores.

Las capacidades asombrosas de redacción de los LLMs pueden llegar a confundirse con el halo de ilusión de una falsa capacidad de razonamiento. Hemos de ser cautos pues, en el momento actual, esta tecnología está lejos de tener la capacidad cognitiva y el razonamiento crítico similares a los de un ser humano2. Ni siquiera para tareas sistemáticas y bien definidas como la selección y el resumen de literatura de interés.

El texto generado en sus respuestas es muy dependiente de los artículos científicos incluidos en su conjunto de datos de entrenamiento, que solo suponen un pequeño subconjunto del acervo existente. Por un lado, favorecerá la aparición de esos documentos en las revisiones. Dada la problemática de la propiedad intelectual, cabe esperar que buena parte de estos sean accesibles libremente, como los artículos publicados en esta revista bajo la licencia CC BY-NC-ND; dando menor relevancia a los que quedan escondidos tras los paywalls de revistas que no tienen acceso abierto.Por otro lado, los LLMs se han alimentado de todo tipo de información que se recopila en internet, lo que incluye fake news y páginas web con contenido negacionista, lejos del método científico y los criterios de la comunidad médica, lo que puede dar lugar a respuestas equívocas, debido a la contaminación con este tipo de fuentes de datos.

Finalmente, cabe destacar el riesgo de las llamadas “alucinaciones”, pues la falta de mecanismos de verificación hace que estos sistemas no puedan distinguir los límites de su conocimiento, por lo que se inventan la respuesta1,2 cuando no han sido suficientemente entrenados en el subcampo de interés. Esto es, se inventan las citas2,3 y el contenido de las revisiones bibliográficas sin advertir al usuario, lo que resulta especialmente grave en campos como el médico, donde los LLMs accesibles al público general no han sido entrenados específicamente, y puede llevar a médicos y pacientes a tomar decisiones erróneas.

Recomendamos que estas herramientas, con un futuro muy prometedor2, sean utilizadas como un complemento y siempre se verifiquen sus respuestas a partir de fuentes fiables, el sentido crítico y la experiencia de cada médico.

CONTRIBUCIÓN INDIVIDUAL

RTC: Concepción, redacción, edición y revisión final del documento.
DMA: Concepción, redacción, edición y revisión final del documento.

AGRADECIMIENTOS

Ninguno.

PRESENTACIONES PREVIAS

Ninguna.

FINANCIAMIENTO

Los autores no han recibido apoyo financiero para la investigación, autoría y/o publicación de este artículo.

CONFLICTO DE INTERESES

Los autores no tienen ningún tipo de conflicto de interés en la investigación realizada.

REFERENCIAS

1. Carbajal-Degante E, Hernández Gutiérrez M, Sánchez-Mendiola M. Hacia revisiones de la literatura más eficientes potenciadas por inteligencia artificial. Revista en Investigación en Educación Médica. 2023 [citado 20 Sep. 2023]; 12(47):111-9. Disponible en: http://riem.facmed.unam.mx/index.php/riem/article/view/1142

2.Sánchez Mendiola M. ChatGPT y educación médica: ¿estrella fugaz tecnológica o cambio disruptivo? Revista en Investigación en Educación Médica. 2023 [citado 20 Sep. 2023];12(46):5-0. Disponible en: http://riem.facmed.unam.mx/index.php/riem/article/view/1069

3.Gravel J, D’Amours-Gravel M, Osmanlliu E. Learning to Fake It: Limited Responses and Fabricated References Provided by ChatGPT for Medical Questions. Mayo Clinic Proceedings: Digital Health. 2023;1: 226–234. doi:10.1016/j.mcpdig.2023.05.004

Rebeca Tenajas-Coboa,‡, David Miraut-Andrésb,§,*

a Departamento de Medicina de Familia, Centro de Salud de Arroyomolinos, Arroyomolinos, España.

b Advanced Healthcare Technologies Department, GMV Innovating Solutions, Tres Cantos, España.

ORCID ID:

https://orcid.org/0000-0001-8815-7341

§ https://orcid.org/0000-0003-1648-5308

Recibido: 22-septiembre-2023. Aceptado: 16-octubre-2023.

* Autor para correspondencia: David Miraut-Andrés. GMV Innovating Solutions. Calle Grisolia 4, CP 28760, Tres Cantos, España.

Correo electrónico: dmiraut@gmv.com

Este es un artículo Open Access bajo la licencia CC BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/).

https://doi.org/10.22201/fm.20075057e.2024.49.23560