Magnitud de las diferencias: reanálisis de efectos de un tratamiento.


Magnitude of differences: Reanalysis of effects of treatment
César Merino-Sotoaa, Marisol Angulo-Ramosb

a Instituto de Investigación de Psicología, Facultad de Ciencias de la Comunicación, Turismo y Psicología, Universidad de San Martín de Porres, Lima, Perú
b Escuela de Enfermería, Facultad de Ciencias de la Salud, Universidad Privada San Juan Bautista, Lima, Perú

Dr. Melchor Sánchez-Mendiola:

En una reciente evaluación del aprendizaje en entornos de simulación1, mediante un diseño pretest-postest, sus resultados respaldan el efecto adaptativo de la exposición a escenarios de simulación clínica. Sin embargo, su diseño analítico únicamente enfatizó la significación estadística como evidencia de sus conclusiones, y esta puede ponerse en cuestionamiento. Efectivamente, en diseños pretest-postest, la prueba t de Student para muestras dependientes es la opción más habitual2, pero su resultado solo se centra en la prueba de significación respecto a la hipótesis nula. Este resultado no es suficiente para comprender y describir apropiadamente el cambio de los puntajes, pues es más importante obtener una medida de la magnitud de la diferencia3–5. Esta es una medida directa del parámetro que se investiga (en este caso, la diferencia entre puntajes), mientras que la significación estadística (p<0.05) se relaciona con la fortaleza de rechazar de la hipótesis nula3,5.

Para reanalizar los resultados de Fernández-Ayus1, se usaron dos indicadores: la diferencia estandarizada dav6, definida como la diferencia entre las medias en el pretest y postest (Mpre y Mpost, respectivamente), y dividido sobre el promedio de la desviación estándar de cada grupo (DEpre y DEpost); y la respuesta media estandarizada (standardized mean response –SRM7–)2,7–9. La información para calcular este indicador se halla en la tabla 2 del artículo de Fernández-Ayus. Otros enfoques requieren la correlación entre los puntajes pretest y postest2,7–9 y pueden dar información más precisa; pero los resultados correlacionales no se reportan en Fernández-Ayus, y por lo tanto no pueden calcularse. Los resultados de este reanálisis aparecen en nuestra tabla 1.

Tabla 1. Magnitud del efecto en las diferencias pretest-postest

Tabla 1.

Se calcularon dos métodos (dav y SRM) pues sus estimaciones pueden discrepar de acuerdo a su formulación estadística2. Se observa que, en las diferencias identificadas como estadísticamente significativas (antes-después, caso 1 de su tabla 1 y 2; Fernández-Ayus), la magnitud de la diferencia entre ambos puede considerarse moderada10,11. Este grado de diferencia entre las dos condiciones no parecen impresionantes, si se compara con la idea que puede transmitir la afirmación que las diferencias son «significativas», y con la eficacia ideal de un tratamiento. En el contexto del estudio realizado, no obstante, la magnitud de las diferencias debe ser evaluada por la magnitud modal de estas diferencias que se reportan en similares diseños, objetivos y participantes de investigación. Es posible que esta diferencia hallada sea grande en este específico contexto, pero en cualquier situación, esta será mejor evaluada con la magnitud práctica de las diferencias y no con la significación estadística.

Responsabilidades éticas
Protección de personas y animales
Los autores declaran que para esta investigación no se han realizado experimentos en seres humanos ni en animales.

Confidencialidad de los datos
Los autores declaran que han seguido los protocolos de su centro de trabajo sobre la publicación de datos de pacientes.

Derecho a la privacidad y consentimiento informado
Los autores declaran que en este artículo no aparecen datos de pacientes.


La revisión por pares es responsabilidad de la Universidad Nacional Autónoma de México.

Correspondencia:
Av. Tomás Marsano 242 (5to piso), Lima 34–Perú.


Bibliografía

  1. D. Fernández-Ayuso,C. Campo-Cazallas,R. Fernández-Ayuso
    Aprendizaje en entornos de simulación de alta fidelidad: evaluación del estrés en estudiantes de enfermería
    Ed Med., 17 (2016), pp. 25-28
  2. J.A. Seidel,S.D. Miller,D.L. Chow
    Effect size calculations for the clinician: Methods and comparability
    Psychot Res., 24 (2013), pp. 470-484
  3. J.A. Gliner,N.L. Leech,G.A. Morgan
    Significance testing (NHST): what do the textbooks say?
    J Exp Edu, 71 (2002), pp. 83-92
  4. C. Merino
    Carta editorial
    Avances en Psic Latin., 29 (2011), pp. 7-10
    2011. Disponible en: http://www.scielo.org.co/scielo.php?script=sci_arttextπd=S1794-47242011000200001
  5. J.A.C. Sterne,G.D. Smith
    Sifting the evidence—what's wrong with significance test
    BMJ., 322 (2001), pp. 226-231
  6. G. Cumming
    Understanding the new statistics: effect sizes, confidence intervals, and meta-analysis
    Routledge, (2012)
  7. G. Guyatt,S. Walter,G. Norman
    Measuring change over time: Assessing the usefulness of evaluative instruments
    J Chron Dis., 40 (1987), pp. 171-178
  8. J. Katz,M. Larson,C.H. Phillips,A. Fossel,M. Liang
    Comparative measurement sensitivity of short and longer health status instruments
    Med Care., 30 (1992), pp. 917-925
  9. M.H. Liang,A.H. Fossel,M.G. Larson
    Comparisons of five health status instruments for orthopedic evaluation
    Med Care., 28 (1990), pp. 632-642
  10. J. Cohen
    Statistical power analysis for the behavioral sciences
    2.nd ed., Lawrence Erlbaum Associates, (1988)
  11. J. Cohen
    A power primer
    Psychological bulletin., 112 (1992), pp. 155-159

Ir al inicio del artículo