Vol 4. Núm 10. 2016
DE LA ESTADÍSTICA Y OTROS DEMONIOS: REFLEXIONES PERSONALES Y SUGERENCIAS PRÁCTICAS
Yunier Broche-Pérez Universidad Central “Marta Abreu” de Las Villas, Facultad de Ciencias Sociales, Departamento de Psicología
Resumen
El presente material presenta un grupo de reflexiones personales relacionadas con la enseñanza y el estudio de la estadística dentro del campo de la ciencia psicológica. De igual forma se relacionan un grupo de interpretaciones inadecuadas relacionadas con la materia, sus causas probables y algunas alternativas de solución de este fenómeno. Se enfatiza en el papel instrumental de la estadística y se aboga por su tratamiento justo por parte de investigadores y estudiantes. De igual forma se presentan un grupo de sugerencias prácticas que pretenden estimular el empleo adecuado de las pruebas estadísticas y la manera en la que se reportan sus resultados en las investigaciones psicológicas. En el trabajo se exponen además un grupo de exigencias solicitadas por las principales revistas internacionales de psicología indexadas en la Web of Science (WoS) y Scopus así como las maneras en las que se les pueden dar respuesta. En sentido general el artículo defiende el empleo justo de la estadística por parte de los psicólogos y los científicos sociales en general, alejándose de las prácticas “numerológicas” y acríticas.
Abstract
This material has a group of personal reflections related to the teaching and study of statistics in the field of psychological science. Likewise, a group of misinterpretations related to the subject, their probable causes and some possible solutions for this phenomenon is related. Emphasis is placed on the instrumental role of statistics and calls for fair treatment by researchers and students. Likewise, a group of practical suggestions aimed at stimulating the proper use of statistical tests and the way in which the results are reported in psychological research are presented. At work they are also exposed a group of requirements requested by leading international psychology journals indexed in the Web of Science (WoS) and Scopus as well as ways in which they can be given response. In general the article defends the right use of statistics by psychologists and social scientists in general, away from the "numerological" and uncritical practice.
Palabras claves
Estadística, investigación psicológica, metodología cuantitativa, Statistics, psychological research, cuantitative approach

Delimitación del contexto


Hace apenas una semana participé como testigo en un juicio desarrollado en la Facultad de Ciencias Sociales de la Universidad Central “Marta Abreu” de las Villas. Fui llamado como testigo de la defensa en un caso en la que la acusada resultaba muy cercana a mi persona: la metodología cuantitativa. En efecto, era un juicio ficticio pero excelente desde el punto de vista pedagógico para que los estudiantes del tercer año de la carrera de psicología, divididos en tres bandos, aportaran elementos a favor y en contra de este paradigma de la investigación. Por una parte se encontraban los fiscales, rígidos acusadores; en el extremo opuesto los abogados de la defensa, artimañosos y condecendientes con la acusada y por último, un jurado al que le correspondía la difícil misión de declarar culpable o inocente.
Los estudiantes me habían solicitado (con toda clase de argumentos) que me presentara como testigo de la defensa y yo gustosamente accedí. La actividad terminó desarrollándose en un clima de abierto debate, todos defendieron elegantemente sus posiciones y sin dudas creo que el objetivo de aquella clase se cumplió con creces. Sin embargo, la actividad no terminó en mi caso con el final de aquellos 180 minutos, pasaron varios días en los que constantemente venían a mi mente los argumentos de los abogados y los fiscales a favor y en contra del enfoque cuantitativo. Luego de mucho meditar al respecto, me percaté que la mayoría de las razones esgrimidas aquella mañana para condenar la metodología cuantitativa no estaban basadas en un cuestionamiento del paradigma positivista, sino que tenían su origen en un fenómeno casi omnipresente en los estudiantes de psicología: la aversión a la estadística.
Algunos autores han denominado a esta condición sufrida por los investigadores como “calculofobia” (Martin, 2008) considerando quizás que una parte importante del rechazo a la estadística proviene de la creencia que considera a esta disciplina como equivalente de las matemáticas. En este trabajo queremos presentar algunas cuestiones que consideramos necesarias para comprender las razones que han llevado a que un número importante de nuestros estudiantes (y colegas) marquen distancia con la disciplina de las probabilidades, los análisis multivariados y las regresiones y también algunas formas de contarrestar este fenómeno. En un segundo momento se hace referencia a algunas cuestiones prácticas (relacionadas con los análisis estadísticos) a tomar en consideración cuando se pretende insertar artículos en revistas de la corriente principal de la ciencia. El autor ha desarrollado el trabajo pensando no solo en los profesionales “psi” que ya han egresado, sino también en los cientos de estudiantes que permanecen hoy en nuestras aulas y que tienen avidez por la investigación psicológica.


El origen: Psicología vs. Numerología
Al iniciar el primer año de la educación superior los profesores realizan un diagnóstico que les permite familiarizarse con los jóvenes que recién comienzan su vida universitaria. En nuestro caso particular la pregunta de por qué eligieron la carrera de psicología genera habitualmente tres respuestas principales (el orden puede variar). En un grupo responden como primer argumento su interés por ayudar a otras personas en su vida cotidiana, en un segundo grupo manifiestan que quieren ser como Calviño1 , y en el tercero plantean con inquebrantable firmeza que escogieron la carrera porque “no hay que dar matemáticas”. Debo admitir que esos fueron los mismos argumentos que vinieron a mi mente cuando en el 2003 realicé la prueba de aptitud para ingresar a la Facultad de Psicología de la UCLV.2 Que golpe en la cabeza recibimos cuando en segundo año aquel docente se presentó como el “profe de estadísticas” y escribió en la pizarra, dos clases después, la fórmula para el cálculo de la varianza.
Hoy muchos alumnos (y profesionales ya graduados) se sienten abrumados con esta materia, lo cual ha causado un rechazo natural por todo lo relacionado con esta disciplina (SPSS incluido). Esta situación conlleva en ocasiones a que la metodología cualitativa se convierta en un refugio de quienes, por falsas creencias, se alejan del análisis cuantitativo. Como resultado, la adopción de lo cualitativo no surge de un análisis científico del problema de investigación y sus demandas, sino como la única alternativa que queda disponible.
Partiendo de lo anteriormente expuesto, consideramos que un determinante fundamental en la falsa representación que muchos psicólogos (profesionales y estudiantes) tienen de la estadística en la actualidad radica en el sesgo cognitivo que considera a esta disciplina como un “fin” y no como un “medio”. Como parte de un departamento de psicología adscrito a una universidad, tengo el privilegio de asistir a numerosas defensas de investigaciones (tesis de grado, maestrías y doctorados). En muchas de ellas, al llegar al análisis de los resultados, el ponente comienza a presentar una gran cantidad de tablas abarrotadas de números y los conceptos psicológicos parecen disolverse en frases que siempre comienzan o terminan con el parlamento “…se encontraron diferencias estadísticamente significativas (p<.05)…”. ¿Es esto un resultado psicológico?, no creo. La herramienta estadística no puede suplantar a la teoría psicológica.
El análisis de los valores numéricos obtenidos no tiene ningún sentido si no está respaldado por los conceptos de la ciencia y sus relaciones. Para el psicólogo, los resultados en símbolos numéricos necesitan ser decodificados en nociones conceptuales y sobre esa base plantear una argumentación científica. Pobre del psicólogo que haga de la numerología un altar para la ciencia psicológica. Este elemento no debe ser malinterpretado. Mucho del conocimiento psicológico del que hoy hacemos uso ha surgido del análisis estadístico justo, de la interpretación adecuada del dato numérico. Muestre su tabla al auditorio pero no deje de traducir al idioma “psicología” el número.


¿Estadístico o adivino?
Para lograr hacer de la estadística el medio para la obtención de un resultado científico el primer paso es la delimitación clara del problema a resolver, en segundo lugar el planteamiento adecuado de las hipótesis a responder y en tercer lugar la selección adecuada de las herramientas para la obtención de la información (con la correcta forma de medición de las variables). Para ilustrar los elementos anteriores me remitiré a una experiencia personal que me ocurriera hace ya algún tiempo. Mientras trabajaba en una investigación durante mi etapa de estudiante, recolecté un volumen importante de información sobre un grupo de personas con el objetivo de adentrarme en el fenómeno de la resiliencia psicológica. Apliqué una gran cantidad de cuestionarios y realicé varias entrevistas estructuradas.
Me sentía muy entusiasmado y estaba seguro que tendría resultados interesantes que mostrar. Con todo lo que había logrado acumular me presenté frente a un profesor de estadística y le pedí que me ayudara con el análisis de los datos. El profesor accedió y para comenzar me pidió que le comentara mis hipótesis de investigación para seleccionar el tipo de análisis que llevaría a cabo. Yo en realidad no tenía ninguna hipótesis, sí mucho entusiasmo en conocer el resultado, pero nada de hipótesis (en el sentido estadístico de la palabra). Luego de explicarle durante un tiempo considerable lo que pretendía, el paciente profesor alcanzó a imaginar lo que debía ser mi objetivo con la investigación. Inmediatamente se propuso iniciar el análisis de los datos cuando se percató de otro problema, la forma en la que yo había medido las variables no permitía hacer mucho más que un análisis descriptivo de la información.
Muchos psicólogos que han decidido no familiarizarse con la estadística imaginan que la persona que realizará el procedimiento debe conocer la intención del investigador con solo ver los datos. Este problema no es poco frecuente, lo cual hace que muchas veces (como me ocurrió en el ejemplo) se desperdicie tiempo y recursos. La persona que domina la estadística conoce su disciplina y los principios fundamentales sobre los que opera su ciencia, pero no tiene por qué tener ningún conocimiento de la psicología y mucho menos tiene el poder de la adivinación.
La simple recopilación de información en forma de números y la existencia de una muestra grande no garantiza ni la calidad de la investigación, ni la realización de un procesamiento estadístico serio. El proceso de investigación requerirá siempre el establecimiento de un grupo de condiciones a priori, sin las cuales no se llegará nunca a responder ni la pregunta más sencilla.


Docencia, estadística y otros temas
El rechazo hacia la estadística de los profesionales de la psicología ha provocado que en varias instituciones docentes la asignatura no sea impartida por psicólogos, sino por matemáticos. Esta situación ha conllevado a que didácticamente resulte complejo para el docente relacionar las categorías y principios de la estadística con la ciencia psicológica. Como consecuencia los estudiantes comienzan a percibir una desconexión entre la utilidad práctica de la asignatura y su vínculo con la carrera que estudian y el modo de actuación relacionado con la investigación.
Los objetivos docentes en la impartición de la estadística deben variar en función del área del conocimiento a la que pertenece el estudiante que la recibe. Las necesidades estadísticas de un matemático, un físico o un ingeniero difieren de las que presenta un psicólogo, un sociólogo o un biólogo. Los primeros estarán más interesados en las particularidades matemáticas de cada procedimiento y en el desarrollo de métodos más eficaces, etc. Los segundos, se concentrarán más en el objetivo de cada prueba, las condiciones para su empleo y la lectura correcta de los resultados para su traducción en principios psicológicos.
Desde nuestro punto de vista, una parte importante del rechazo que causa la estadísticas en los psicólogos es la creencia incorrecta de que para utilizarla se necesita dominar las exquisiteces matemáticas de cada procedimiento; elemento que consideramos erróneo. El profesional de la psicología necesita, en lo fundamental, relacionar adecuadamente el objetivo de la investigación que pretende realizar con el tipo de procesamiento que mejor se ajusta para dar respuesta a su problema. Planificar con anterioridad la manera en la que será medido determinado constructo de forma que permita, posteriormente, realizar el análisis adecuado.
Por otra parte, será siempre de utilidad hacerse acompañar durante todo el proceso de un profesional especializado, elemento para los cual debe poseerse un nivel elevado de claridad en cuanto al diseño metodológico de la investigación que se espera desarrollar. Es mi experiencia personal que la mayoría de los especialistas en estadística son personas accesibles y colaborativas que se benefician mucho del trabajo con los psicólogos. El acompañamiento durante toda la investigación facilita mucho el análisis final de los datos. Quien ha sido ajeno al proceso le resulta luego complejo la necesaria visión holística que la investigación requiere.
Existe otra forma de adquirir familiaridad con la estadística en la investigación psicológica: revisar lo que otros han hecho. Esta recomendación es la que usualmente suelo ofrecer a los estudiantes y colegas que más prejuicios muestran con los análisis estadísticos, al punto que en ocasiones son capaces de abandonar una buena idea de investigación cuando se percatan que deberán realizar ciertos cálculos. La multiplicidad de revistas existentes en la actualidad sobre psicología y el alto grado de especialización de estas, hacen posible que con la selección de las palabras claves correctas se pueda acceder a un volumen de información prácticamente infinito. 
Quizás no encuentre un artículo que se ajuste completamente a sus categorías y objetivos (si eso ocurriera su idea no es tan original como pensaba), pero las hipótesis planteadas y la manera en las que el autor las responde pudieran orientarlo en su estudio. Para ello es importante revisar los objetivos declarados por el investigador al final de la justificación (casi siempre al concluir la introducción) y después revisar detalladamente el apartado dedicado al análisis estadístico que aparece en el espacio titulado materiales y métodos. En este segmento el autor expondrá el tipo de procesamiento seleccionado en función de la investigación que condujo. Este ejercicio le permitirá una rápida familiarización con los distintos procedimientos estadísticos existentes, las condiciones necesarias para su empleo y la traducción del dato en resultados psicológicos.
Lo más importante es nunca abandonar una buena idea por miedo a los números, sería un error que usted no podría perdonarse y tampoco la ciencia psicológica. No olvide que por sí solo un gran procesamiento estadístico no representa absolutamente nada sin la adecuada traducción del valor numérico a los conceptos y constructos de la psicología.


Algunas recomendaciones prácticas
Como planteamos al inicio, los objetivos de este material son dos fundamentalmente. El primero es desconstruir un poco la idea de que para trabajar con la metodología cuantitativa hay que ser un genio de las estadísticas (tratado en el apartado anterior); el segundo (que consideramos complementa al primero) es ofrecer un grupo de sugerencias sobre algunos procedimientos que pueden incrementar el valor de los resultados de una investigación y facilitar su publicación en revistas de elevado prestigio internacional.
En la actualidad se ha incrementado el número de investigadores que envían sus publicaciones a revistas de alto impacto. Este fenómeno no está condicionado solamente por el interés personal del autor (o autores) sino además es una exigencia de la mayoría de los departamentos de las universidades y centros de investigación. En este sentido, el término “alto impacto” surge de un trabajo publicado por Garfield (1972) titulado Citation Analysis as a Tool in Journal Evaluation en el cual se presentó por primera vez el indicador Impact Factor (Factor de Impacto). De acuerdo con este autor las publicaciones científicas podían ser ordenadas de acuerdo con la frecuencia en que eran citadas, lo cual ofrecía un parámetro referente al valor de la información de esa publicación para la comunidad científica.
Los beneficios de publicar en estas revistas favorecen tanto al autor como a la institución de procedencia de los investigadores. En primer lugar se encuentra el reconocimiento internacional que recibe el autor en el campo de la ciencia con la que guarda relación su trabajo (aumento en las citas, incremento de la solicitud para realizar revisiones a artículos, subscripciones gratuitas a revistas, descuentos para publicar, invitaciones a congresos etc.). Por otra parte se encuentras los beneficios para la institución de donde proviene el investigador (mejor ranking institucional, fortalecimiento de variables acreditables nacional e internacionalmente, financiamiento de proyectos, etc.).
No obstante, para algunos profesionales de nuestro gremio continúa siendo una barrera infranqueable la publicación de artículos en las revistas indexadas en la Web of Science (WoS) y Scopus. Al respecto, una gran catidad de rechazos se deben a dos aspectos fundamentales que deben ser cuidadosamente manejados: el estilo y el manejo de los datos. Sobre el primero no nos detendremos, aunque recomendamos revisar el trabajo de Torres-Salinas and Cabezas-Clavijo (2013) que aparece en la lista de referencias. De igual forma, recomendamos la lectura de un trabajo publicado por Miguel A. Roca publicado en este misma revista (Roca, 2015).*
En relación con el segundo aspecto, ofreceremos un pequeño grupo de recomendaciones exigidas por la mayoría de las revistas de más alto índice de impacto dentro del campo de la psicología. De igual forma recomendaremos la lectura de trabajos que profundizan en cada punto tratado con el fin de que los lectores puedan profundizar en el tema (los trabajos recomendados aparecen marcados con asterisco*). Específicamente se hará referencia al valor p, el tamaño de efecto y el tamaño muestral.

El valor p
Construir la ciencia rechazando hipótesis nulas es un terrible error, un procedimiento básicamente inadecuado, una pobre estrategia científica y una de las peores cosas que han sucedido en la historia de la psicología.
P.E. Meehl3
La mayoría de las conclusiones en la investigación psicológica actual se basa en los resultados de las pruebas de significación de la hipótesis nula (Cumming et al., 2007). Por esta razón es muy importante que este tipo de análisis se realice adecuadamente, lo cual redundará en que se reporten de manera confiable los resultados que se obtienen.
Recién se publicó un estudio conducido por Nuijten, Hartgerink, van Assen, Epskamp, and Wicherts (2015)* en el cual se revisaron 250 mil reportes de valores p en las principales 8 revistas de psicología en el período comprendido entre 1985 y 2013. Los resultados reflejaron que la mitad de todos los artículos presentaban al menos un error en el análisis de los valores p y uno de cada ocho presentaba dificultades que comprometían el resultado final del trabajo.
Además el artículo “descubre” un fenómeno que resulta ser muy cotidiano: la clara preferencia de los investigadores por reportar los valores significativos frente a los no significativos. Al parecer un gran número de científicos solo consideran como “resultado” comprobar la existencia de diferencia cuando en realidad no es así. Tanto la confirmación como el rechazo de una hipótesis es un resultado científico que requiere ser divulgado. Este fenómeno (bastante extendido) fue una de las razones que impulsó a que en 2002 se lanzara el primero número de la revista Journal of Articles in Support of the Null Hypothesis dedicada exclusivamente a divulgar resultados que aceptan la hipótesis nula (para más información visitar www.jasnh.com).
El error más frecuente a la hora de reportar correctamente un resultado en el que se emplea el valor p se encuentra en la inconsistencia entre significación y los grados de libertad que se declaran. Para contrarrestar este fenómeno (en sentido general) se recomienda entre otros aspectos incrementar el tamaño de la muestra y también reportar los tamaños de efecto. Para profundizar en el tema recomendamos además revisar el trabajo de Nuzzo (2014)* publicado por la revista Nature.
Desde un punto de vista práctico existen algunas recomendaciones que podemos realizar a los investigadores que emplean un contraste de medias y reporten como resultados valores p. En primero lugar, es oportuno emplear los intervalos de confianza(tanto de cada media como de la diferencia entre dos medias) (APA, 2001); estos intervalos constituyen límites probables entre los que se encuentra la verdadera media o la verdadera diferencia entre dos medias y son más informativos que una simple diferencia. Por otra parte es preferible ofrecer los valores exactos de p (en lugar del habitual p<.05). No base sus conclusiones únicamente en un análisis de contraste medias, informe además los tamaños de efecto los cuales ofrecerán información sobre el tamaño en las diferencias sin limitarse a su mera existencia o no. Sobre este último aspecto nos detendremos a continuación.

El tamaño de efecto
El resultado primario de una pregunta de investigación es la medida (o más de una) de los tamaños de efecto,
no de los valores de p.
Jacob Cohen 4
El tamaño de efecto (Effect Size) es el principal resultado de un estudio cuantitativo (Sullivan & Feinn, 2012)*. Mientras el valor p informa al lector cuándo existen diferencias (o no), el tamaño de efecto muestra qué magnitud tienen esas diferencias. Por esta razón siempre debe evitarse reportar los valores de p si estos no vienen acompañados de los tamaños de efecto correspondientes.
Una recomendación de muchas revistas es que no solo se reporten en la sección de los resultados, sino además en el resumen de la investigación. De hecho se recomienda que los tamaños de efecto deben ser estimados a priori para de esta forma poder calcular el número de participantes necesarios para evitar incurrir en el error Tipo II (la probabilidad de concluir que no existen efectos cuando realmente sí los hay) (APA, 2001).
En otras palabras, se debe determinar qué cantidad de personas son suficientes para asegurar que la investigación tiene una potencia (Power) aceptable para sostener la hipótesis nula (asegurar que si no encontramos diferencias entre los grupos es porque no existen realmente). Hoy por hoy existen varios programas que ayudan a calcular adecuadamente la potencia. Recomendamos en este caso el G*Power 3 (Faul, Erdfelder, Lang, & Buchner, 2007; Mayr, Erdfelder, Buchner, & Faul, 2007)* software gratuito que permite hacer los cálculos a priori y  también análisis post hoc con ajuste al tipo de procesamiento que se empleará.
La denominación de tamaño de efecto se refiere en primera instancia a los resultados obtenidos luego de un experimento, en el cual se puede comprobar cuánto de los cambios ocurridos en la variable dependiente se pueden explicar por la variable independiente. No obstante cuando se emplean en pruebas de hipótesis no puede informar el grado en el que la hipótesis nula es falsa (Simonsohn, Nelson, & Simmons, 2014)*.
De esta forma cuando agregamos el cálculo del tamaño de efecto a un contraste de medias estamos interpretando de mejor forma las diferencias estadísticamente significativas (y las no significativas también) que puedan encontrarse. Además podremos comparar las diferencias entre pares de grupos con tamaños muestrales distintos y sintetizar resultados de estudios de múltiples procedencias (Morales-Vallejo, 2013). Este análisis se puede realizar además empleando el G*Power 3, mencionado anteriormente.

 

El tamaño de la muestra
Incrementar el tamaño de la muestra es la mejor solución prescrita para garantizar la potencia en una investigación.
Jacob Cohen 5
Le invito a que luego de leer este material (si resiste hasta el final) revise el apartado dedicado a materiales y métodos de cualquier revista de psicología que tenga a su alcance. Notará que la selección de la muestra y la descripción de cómo se llevó a cabo este proceso no excede las dos oraciones como promedio. Esta no es una observación nuestra, hace mucho tiempo la Asociación Americana de Psicología lo viene notando, al punto que tomó como decisión constituir el Grupo de Trabajo de la APA para la Inferencia Estadística (The American Psychological Association (APA) Task Force on Sta­tistical Inference) en el año 1996 (Marszalek, Barber, Koholhart, & Hoolmes, 2011).*
La decisión se realizó en respuesta al incremento considerable de artículos científicos que presentaban dificultades metodológicas serias que laceraban la credibilidad de la ciencia psicológica. Como  razón principal se consideró la existencia abrumadora de investigaciones con muestras muy pequeñas seleccionadas de forma dramáticamente inadecuada y que fueron publicados por las revistas más importantes de la APA (Journal of Abnormal Psychology, Journal of Applied Psychology, Journal of Experimental Psychology: Human Perception and Per­formance, y  Developmental Psychology) (Holmes, 1983).
Este elemento en particular (el tamaño muestral) guarda mucha relación con el cálculo de los tamaños de efecto y la potencia, aspectos que ya hemos revisado en este material. En este apartado no pretendemos hacer una disertación de las distintas formas posibles de selección de una muestra (aspecto muy bien tratado en varios libros de metodología), sino prevenir de algunas dificultades que dañan en sentido general el resultado concreto de una investigación y la valoración general que se tiene de nuestra ciencia.
Al inicio de cualquier investigación se definen los objetivos del estudio y el tipo de procedimiento que será llevado a cabo. Este paso es esencial pues definirá todo el curso de la investigación. La palabra clave en esta fase es “planificación”. Si nos tomamos el tiempo suficiente para elaborar nuestro protocolo podremos establecer a priori un grupo de parámetros fundamentales que harán más sólido nuestro diseño.
Por otra parte definir lo que es una muestra “grande” varía mucho entre una disciplina psicológica y otra. Por ejemplo, se ha demostrado que en campos de la psicología aplicada (como el desarrollo) los valores muestrales exigidos son mayores por muchas de las revistas científicas (en comparación con la investigación experimental), teniendo en consideración que en sus objetivos se incluyen comparaciones realizadas en ambientes naturales y ofrecen conclusiones de elevado valor ecológico (Marszalek et al., 2011).
Otro aspecto a considerar antes de iniciar el estudio es el tipo de análisis que el autor pretende realizar. No requiere la misma cantidad de participantes un estudio ex post facto (que algunos libros limitadamente denominan “correlacional”; para más información revisar (León & Montero, 2011; Montero & León, 2007)* que una investigación que se orienta hacia el establecimiento de predictores. En el caso particular de este tipo de análisis se recomienda que por cada predictor incluido en la ecuación de regresión se cuente como mínimo con 5 sujetos (Tabachnick & Fidell, 2001).
Ninguno de estos elementos es infranqueable. Son simplemente exigencias (a nuestro juicio necesarias) para garantizar que cada resultado incorporado al cuerpo de la ciencia psicológica esté sustentado en el rigor investigativo. Cada requisito planteado hasta el momento requiere de un adecuado proceso de planificación de la investigación, alejado de cualquier atisbo de improvisación (esta última palabra es quizás el mejor antónimo de la palabra “ciencia”).

 

A modo de conclusión
Una buena idea de investigación siempre encontrará espacio dentro de cualquier ciencia. Pero es imprescindible que cada idea novedosa se haga acompañar de un procedimiento serio que genere nuevos conocimientos y también nuevas interrogantes. Una buena idea, mal orientada metodológicamente, no se diferencia de una idea mala. Incluso algunas ideas que han surgido de procedimientos torcidos han encontrado excelentes concreciones cuando se han replanteado a la luz de procedimientos metodológicos bien planificados. Lo que siempre debemos evitar es abandonar ideas fértiles por temor a los procedimientos.
El análisis cuantitativo de los datos debe ser para los psicólogos un medio para la obtención de resultados, nunca una barrera. Quizás nunca comprendamos la matemática detrás de un análisis multivariado, pero podemos llegar a comprender cómo se representa un constructo psicológico a través de un resultado estadístico. Si bien es cierto que no debe hacérsele un altar a la estadística dentro de la psicología, tampoco debe menospreciársele por incomprensión. Gracias a su empleo hoy nuestra ciencia puede predecir, anticipar, generalizar…
Cuando solicitemos ayuda de un matemático (si finalmente usted no se anima a hacer sus propios análisis de datos) recuerde que no solo está aprendiendo estadística, también está enseñando psicología. En última instancia, quienes estudiaron matemáticas, lo hicieron también por “huir de las letras”.
Por cierto, al concluir el juicio comentado al inicio, el jurado por decisión unánime dictó sentencia contra la acusada: absuelta.

Notas
1 Hacemos referencia al Dr. Manuel Ángel Calviño Valdés-Fauly, destacado profesor e investigador que ha orientado vocacionalmente (a veces sin proponérselo) a no pocos psicólogos y psicólogas en Cuba, y que además se ha ganado el cariño de los cubanos y las cubanas gracias a su programa televisivo Vale la pena.

2 Universidad Central “Marta Abreu” de Las Villas.

3 P.E. Meehl (1978). Theoretical Risks and Tabular Asterisks. Sir Karl, Sir Ronald, and the Slow Progress of Soft-Psychology. Journal of Consulting and Clinical Psychology, 46, 806-874.

4 J. Cohen (1990). Things I have learned (so far). American Psychologist, 45:1304-1312.

5 J. Cohen (1962). The statistical power of abnormal-social psychological research: a review. Journal of Abnormal and Social Psychology, 65, 145-153.

 

Bibliografía
(Las referencias que aparecen marcada con* son aquellas de las cuales recomendamos su lectura).
APA. (2001). Publication manual of the American Psychological Association (5 ed.). Washington D.C.: Author.
Cumming, G., Fidler, F., Leonard, M., Kalinowski, P., Christiansen, A., Kleinig, A., & Wilson, S. (2007). Statistical reform in psychology: Is anything changing? Psychological Science, 18(3), 230-232.
*Faul, F., Erdfelder, E., Lang, A., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39 (2), 175-191.
Garfield, E. (1972). Citation analysis as a tool in journal evaluation. Science, 178 (4060), 471-479.
Holmes, C. B. (1983). Sample size in four areas of psychological research. Transactions of the Kansas Academy of Science, 86 (2-3), 76-80.
León, O. G., & Montero, I. (2011). Métodos de Investigación en Psicología y Educación (3 ed.). Madrid: McGraw-Hill.
*Marszalek, J. M., Barber, C., Koholhart, J., & Hoolmes, C. B. (2011). Sample Size in Psychological Research Over the Past 30 Years. Perceptual and Motor Skills, 112(2), 331-348. doi: 10.2466/03.11.PMS.112.2.331-348
Martin, D. W. (2008). Psicología Experimental: Cómo hacer experimentos en psicología. México D.F.: CENAGE Learning.
*Mayr, S., Erdfelder, E., Buchner, A., & Faul, F. (2007). A short tutorial of GPower Tutorials in Quantitative Methods for Psychology, 3(2), 51-59.
*Montero, I., & León, O. G. (2007). A guide for naming research studies in Psychology. International Journal of Clinical and Health Psychology, 7 (3), 847-862.
Morales-Vallejo, P. (2013).El tamaño del efecto (effect size): análisis complementarios al contraste de medias. http://www.upcomillas.es/personal/peter/investigacion/Tama%F1oDelEfecto.pdf.
*Nuijten, M. B., Hartgerink, C. H. J., van Assen, M. A. L. M., Epskamp, S., & Wicherts, J. M. (2015). The prevalence of statistical reporting errors in psychology (1985–2013). Behavioral  Research. doi: 10.3758/s13428-015-0664-2
*Nuzzo, R. (2014). P values, the ‘gold standard’ of statistical validity, are not as reliable as many scientists assume. Nature, 506 (150).
*Roca, M. A. (2015). Lo convencional y lo insolente en la investigación científica social. Alternativas cubanas en Psicología, 3 (9), 6-14.
*Simonsohn, U., Nelson, L. D., & Simmons, J. P. (2014). p-Curve and Effect Size: Correcting for Publication Bias Using Only Significant Results. Perspectives on Psychological Science, 9 (666). doi: 10.1177/1745691614553988
*Sullivan, G. M., & Feinn, R. (2012). Using Effect Size-or Why the P Value Is Not Enough. Journal of Graduate Medical Education, September. doi: http://dx.doi.org/10.4300/JGME-D-12-00156.1
Tabachnick, B. G., & Fidell, L. S. (2001). Using multivariate statistics (4ta ed.). New York: Harper Collins.
*Torres-Salinas, D., & Cabezas-Clavijo, A. (2013). Cómo publicar en revistas científicas de impacto: consejos y reglas sobre publicación científica. EC3 Working Papers(13).

Power by: Moises Soft