Potenciar la utilidad de los métodos estadísticos

algunas sugerencias a partir de un estudio de caso

  • Michael Wood, D.Phil. University of Portsmouth Business School
Palabras clave: Confianza, Prueba de hipótesis, prueba de significancia de hipótesis nula, filosofía de la estadística, métodos estadísticos

Resumen

En este texto se presenta una crítica a los métodos utilizados por los artículos científicos convencionales. Esto lleva a tres conclusiones generales sobre el uso convencional de los métodos estadísticos: en primer lugar, los resultados suelen presentarse de una manera innecesariamente confusa; en segundo lugar, el paradigma empleado para probar las hipótesis nulas tiene profundas fallas (por lo general, es preferible la estimación de la magnitud de los efectos y citar los intervalos o los niveles de confianza); y, en tercer lugar, hay varios problemas, independientemente de los conceptos estadísticos particulares empleados, los cuales limitan el valor de cualquier enfoque estadístico. Los dos primeros problemas se pueden remediar fácilmente, mientras que el tercero significa que, en algunos contextos, emplear ciertos enfoques estadísticos puede que no valga la pena. El estudio de caso que se emplea es un artículo sobre administración, pero problemas similares también surgen en otras ciencias sociales.

Originalmente publicado en SAGE Open (2013, enero-marzo), 1-11. doi:10.1177/2158244013476873. Copyright 2013: Michael Wood. Traducido al español con permiso de los titulares de los derechos de autor.

Biografía del autor/a

Michael Wood, D.Phil., University of Portsmouth Business School

Michael Wood es profesor visitante en la Escuela de Negocios de Portsmouth en el Reino Unido. Sus intereses abarcan la estadística, los métodos de investigación, el análisis de decisiones, así como la facilidad de uso y de comprensión de los conocimientos académicos. Correspondencia al autor: Michael Wood, University of Portsmouth Business School, SBS Department, Richmond Building, Portland Street, Portsmouth, PO1 3DE, UK.

Citas

Ayres, I. (2007). Super crunchers: How anything can be predicted. Londres: John Murray.
Bayarri, M. J., & Berger, J. O. (2004). The interplay of Bayesian and frequentist analysis. Statistical Science, 19, 58-80.
Becker, T. E. (2005). Potential problems in the statistical/control of variables in organizational research: A qualitative analysis with recommendations. Organizational Research Methods, 8, 274-289.
British Medical Journal. (2011). Research. Recuperado de http://resources.bmj.com/bmj/authors/types-of-article/research
Bolstad, W. M. (2004). Introduction to Bayesian statistics (2a ed.). Hoboken, NJ: Wiley.
Cashen, L. H., & Geiger, S. W. (2004). Statistical power and the testing of null hypotheses: A review of contemporary management research and recommendations for future studies. Organizational Research Methods, 7, 151-167.
Christy, R., & Wood, M. (1999). Researching possibilities in marketing. Qualitative Market Research, 2, 189-196.
Cohen, J. (1994). The earth is round (p < .05). American Psychologist, 49, 997-1003.
Cortina, J. M., & Folger, R. G. (1998). When is it acceptable to accept a null hypothesis: No way Jose? Organizational Research Methods, 1, 334-350.
Coulson, M., Healey, M., Fidler, F., & Cumming, G. (2010). Confidence intervals permit, but do not guarantee, better inference than statistical significance testing. Frontiers in Psychology, 1, 1-9.
Diaconis, P., & Efron, B. (1983, Mayo). Computer intensive methods in statistics. Scientific American, 248, 96-108.
Gardner, M., & Altman, D. G. (1986). Confidence intervals rather than P values: Estimation rather than hypothesis testing. British Medical Journal, 292, 746-750.
Gephart, R. P. J. (2004). Editor’s note: Qualitative research and the academy of management journal. Academy of Management Journal, 47, 454-462.
Glebbeek, A. C., & Bax, E. H. (2004). Is high employee turnover really harmful? An empirical test using company records. Academy of Management Journal, 47, 277-286.
International Conference on Harmonisation of Technical Requirements for Registration of Pharmaceuticals for Human Use. (1998). ICH harmonized tripartite guideline: Statistical principles for clinical trials (E9). Recuperado desde http://www.ich.org
King, G. (1986). How not to lie with statistics: Avoiding common mistakes in quantitative political science. American Journal of Political Science, 30, 666-687.
Kirk, R. E. (1996). Practical significance: A concept whose time has come. Educational and Psychological Measurement, 56, 746-759.
Lindsay, R. M. (1995). Reconsidering the status of tests of significance: An alternative criterion of adequacy. Accounting, Organizations and Society, 20, 35-53.
Mingers, J. (2006). A critique of statistical modelling in management science from a critical realist perspective: Its role within multimethodology. Journal of the Operational Research Society, 57, 202-219.
Morrison, D. E., & Henkel, R. E. (1970). The significance test controversy. Londres: Butterworths.
Nickerson, R. S. (2000). Null hypothesis significance testing: A review of an old and continuing controversy. Psychological Methods, 5, 241-301.
Shaw, J. D., Gupta, N., & Delery, J. E. (2005). Alternative conceptualizations of the relationship between voluntary turnover and organizational performance. Academy of Management Journal, 48, 50-68.
Siebert, W. S., & Zubanov, N. (2009). Searching for the optimal level of employee turnover: A study of a large UK retail organization. Academy of Management Journal, 52, 294-313.
Simon, H. A. (1996). The sciences of the artificial. Cambridge, MA: MIT Press.
Simon, J. L. (1992). Resampling: The new statistics. Arlington, VA: Resampling Stats.
Taleb, N. N. (2008). The black swan: The impact of the highly improbable. Londres: Penguin.
Vandenberg, R. J. (2002). Toward a further understanding of and improvement in measurement invariance methods and procedures. Organizational Research Methods, 5, 139-158.
Wood, M. (2002). Maths should not be hard: The case for making academic knowledge more palatable. Higher Education Review, 34, 3-19.
Wood, M. (2005). Bootstrapped confidence intervals as an approach to statistical inference. Organizational Research Methods, 8, 454-470.
Wood, M. (2012a). Bootstrapping confidence levels for hypotheses about regression models. Recuperado de http://arxiv.org/abs/0912.3880v4
Wood, M. (2012b). P values, confidence intervals, or confidence levels for hypotheses? Recuperado de http://arxiv.org/abs/0912.3878v4
Wood, M., Capon, N., & Kaye, M. (1998). User-friendly statistical concepts for process monitoring. Journal of the Operational Research Society, 49, 976-985.
Wood, M., Kaye, M., & Capon, N. (1999). The use of resampling for estimating control chart limits. Journal of the Operational Research Society, 50, 651-659.
Wood, M., & Christy, R. (1999). Sampling for possibilities. Quality & Quantity, 33, 185-202.
Yin, R. K. (2003). Case study research: Design and methods (3a ed.). Thousand Oaks, CA: SAGE.
Publicado
2014-01-20
Cómo citar
Wood, M. (2014). Potenciar la utilidad de los métodos estadísticos. Paradigmas, 6(1), 37-73. Recuperado a partir de https://publicaciones.unitec.edu.co/index.php/paradigmas/article/view/46
Sección
Artículos