Fundamentos de Investigación en Psicología PDF
Document Details

Uploaded by LeadingLead1018
Tags
Summary
This document summarizes experimental methods in psychology, focusing on the identification of causes and effects. It explains the three necessary conditions for inferring causal relationships (temporal contingency, correlation, and non-spuriousness) and details how researchers create controlled experimental situations to study behaviour. It also describes the importance of replication and pilot studies in supporting research integrity.
Full Transcript
Fundamentos de investigación en Psicología 4.2 OBJETIVO Y CARACTERÍSTICAS DEL MÉTODO EXPERIMENTAL El método experimental es el método científico por excelencia. Su objetivo es la identificación de causas y la evaluación de sus efectos (Ato, 1991). Para que en un estudio se puedan inferir relaciones...
Fundamentos de investigación en Psicología 4.2 OBJETIVO Y CARACTERÍSTICAS DEL MÉTODO EXPERIMENTAL El método experimental es el método científico por excelencia. Su objetivo es la identificación de causas y la evaluación de sus efectos (Ato, 1991). Para que en un estudio se puedan inferir relaciones de causalidad, es necesario que se den tres condiciones (Kenny, 1979): contingencia temporal entre las variables, correlación o covariación entre ellas y no espuriedad. La variable causa (variable independiente) debe preceder temporalmente a la variable efecto (variable dependiente); debe darse una covariación entre ellas, de manera que un cambio en los valores de la primera conlleve un cambio proporcional directo o inverso en los valores de la segunda y, finalmente, la responsabilidad de esta covariación no puede ser atribuida a otras variables (no espuriedad). Para que en una investigación puedan darse estas tres condiciones es necesario que el investigador produzca una situación artificial, denominada experimento. Arnau (1978) considera el experimento «como un modelo de una situación real que el investigador reproduce artificialmente a fin de estudiar el comportamiento de las variables y su interfuncionalidad» (p. 107). Esta situación artificial puede darse en un laboratorio (experimento de laboratorio) o en el entorno natural del participante (experimento de campo). En ambos casos, se manipula un aspecto determinado de la realidad para estudiar su efecto sobre la conducta del participante, con el objetivo de establecer la relación de causalidad entre ese aspecto determinado de la realidad (variable independiente) y la conducta del participante (variable dependiente), controlando el resto de los factores que no son objetivo de la investigación (variables extrañas) y que podrían influir en la conducta distorsionando los resultados. Al ser el experimento una situación que el investigador crea intencionadamente y de la que debe informar, se puede repetir en las mismas condiciones para su comprobación, es decir, se puede replicar el experimento. La replicación es uno de los pilares del método científico. La replicación puede ser exacta o se pueden variar al- No espuriedad Covariación Contingencia temporal Relación de causalidad entre variables Métodos y diseños experimentales gunas condiciones para ver las diferencias que se producen en los resultados. Antes de llevar a la práctica el experimento se aconseja realizar un ensayo, llamado experimento piloto, con la finalidad de estudiar algunos aspectos del mismo como pueden ser: la influencia de alguna variable extraña, el número y valor de los estímulos, el tiempo empleado en realizarlo, cómo funcionan los aparatos, etc., pudiendo así evitarse, incluso subsanarse, posibles errores de forma previa a la implementación del experimento propiamente dicho. Algunos autores, como Campbell y Stanley (1966) y Kerlinger (1984), consideran que en una estrategia experimental tiene que haber manipulación de al menos una variable independiente, control de las variables extrañas, los participantes se deben asignar aleatoriamente a los grupos, y se ha de utilizar al menos dos grupos (uno para cada condición) o un grupo al que se le apliquen como mínimo dos condiciones experimentales. Estos aspectos se pueden sintetizar en dos: control experimental y utilización como mínimo de dos condiciones experimentales. 1. El término control experimental se refiere a la capacidad del experimentador para determinar la conducta que se va a estudiar, conocer las variables relevantes que pueden afectar a esa conducta, elegir una o varias de ellas como variables independientes, seleccionando intencionalmente sus niveles, y crear las condiciones necesarias para la presentación artificial de esos valores, tratando el resto de factores como variables extrañas (eliminándolas o manteniéndolas constantes). El control engloba un conjunto de técnicas utilizadas para poder concluir que los cambios observados en la variable dependiente son causados, única y exclusivamente, por los cambios introducidos en la independiente; es decir, que las únicas fuentes de variación son las establecidas en la hipótesis. Entre las diferentes técnicas de control destaca por su importancia la aleatorización. La utilización de esta técnica en la asignación de los participantes a los grupos constituye una de las características diferenciadoras más importantes de la estrategia experimental. 2. Utilización como mínimo de dos condiciones experimentales: el estudio del efecto de la variable independiente sobre la dependiente requiere una comparación (contraste) entre dos o más condiciones experimentales. Es decir, la variable independiente debe tener al menos dos valores o niveles (aunque solo sean presencia vs ausencia). Además, en la investigación experimental pueden darse dos situaciones: a) una en la que tenemos distintos grupos, uno para cada una de las condiciones experimentales, por lo que, como mínimo, dispondremos de dos grupos que se compararan entre sí (esta situación es la que da origen a los diseños intergrupos o de comparación de grupos) o, b) otra en la que únicamente tendremos un solo grupo de participantes, al cual se le aplicarán todas y cada una de las condiciones experimentales (este es la base de los diseños intragrupo o de medidas repetidas). Tanto en la situación inter como en la intragrupo necesitamos que, al menos, se den dos valores, categorías o niveles de la variable independiente para comparar sus efectos en los resultados o medidas de la variable dependiente. La creación de las condiciones experimentales se produce al decidir cuántos valores tiene la variable independiente (Figura 4.1). Por ejemplo, un grupo de investigadores se preguntó si la oxitocina1 podría tener efectos sobre la disposición a donar dinero. Para comprobarlo se seleccionó una muestra de 57 estudiantes y se asignaron aleatoriamente a dos grupos. A continuación crearon dos condiciones, una con oxitocina (grupo experimental o grupo tratado) y otra sin ella (grupo control o grupo no tratado), con la finalidad de ver en qué condición las personas tenían más disposición para donar dinero. Encontraron que las personas que esnifaron oxitocina tenían el deseo de donar más dinero que las del grupo control. Esto es, los investigadores crearon dos condiciones diferentes, utilizaron dos valores de la variable independiente y dos grupos para estudiarlo; uno experimental con oxcitocina, y otro control, al que no se le aplicó el tratamiento sino que recibió una sustancia inocua (Van Ljzendoorn et al., 2011). Métodos y diseños experimentales 4.3 VARIABILIDAD DE LOS DATOS Y TÉCNICAS DE CONTROL El control experimental engloba un conjunto de técnicas que utiliza el investigador para poder manejar y dominar toda la situación experimental, tomando decisiones sobre el número de variables independientes necesarias y sus valores con el fin de probar su hipótesis. También se asegura, aplicando estas técnicas de control, que las fuentes de variación en los datos son las que él ha establecido para poder concluir que los cambios observados en la variable dependiente son causados, única y exclusivamente, por los cambios introducidos en la independiente, sin que actúen posibles variables extrañas que puedan influir o provocar esta variación. Dichas técnicas suponen la actuación del investigador sobre: ——la variable independiente: eligiendo el número y niveles que él decide y aplicándola cuando él decide (manipulación); ——las variables extrañas: eliminándolas o intentando que su efecto sea el mismo en todos los grupos; y ——los factores aleatorios: intentando que su influencia sea mínima sobre la variable dependiente. Antes de profundizar en las técnicas de control es necesario tener muy claro a qué nos referimos cuando hablamos de varianza o variabilidad de los datos, ya que ambas cuestiones están muy relacionadas. 4.3.1 Variabilidad de los datos El concepto de variabilidad de los datos se apoya en la evidencia empírica que se constata en una investigación. En un experimento, los participantes presentan medidas diversas en la variable dependiente: pueden ser diferentes las puntuaciones del grupo experimental respecto a las del grupo control; pero además, ni siquiera todos los participantes que han recibido el mismo tratamiento tienen el mismo resultado o la misma puntuación en la variable dependiente, sino que existe una variabilidad o dispersión en la puntuación de cada uno respecto a la media del grupo. A esta variabilidad de la medida de la variable dependiente se le denomina varianza total y se debe a la influencia tanto de la variable independiente como a la influencia de variables extrañas y de factores aleatorios relacionados con los participantes, con el ambiente y con el procedimiento experimental. Podemos considerar que la varianza total tiene dos componentes o partes, una relacionada de forma sistemática con las variables de la investigación, llamada varianza sistemática, y otra no relacionada con dichas variables sino con factores aleatorios, llamada varianza error. En la Figura 4.2 vemos una representación gráfica de la variabilidad de los datos. A la izquierda de la figura representamos toda la variabilidad en un círculo, y este se divide en dos, la varianza error y la varianza sistemática. Esta última, a su vez se descompone en dos varianzas sistemáticas: la primaria y la secundaria, representadas en el círculo de la derecha. Veamos cada una de ellas más detenidamente. La varianza sistemática es «la parte de la variabilidad total de la conducta de los participantes medida en la variable de endiente que se relaciona de forma predecible a las variables que estudia el investigador» (Martínez Arias et al., 2014, p.140). Es debida a la influencia de la variable independiente (varianza sistemática primaria) y a la influencia de variables extrañas predecibles (varianza sistemática secundaria). La varianza sistemática primaria es la variabilidad de la medida de la respuesta del participante debida a la influencia de la manipulación de la variable independiente. Es la que pretende o busca el experimentador y cuanto mayor sea la efectividad del tratamiento, mayor será la proporción de esta varianza. Por su parte, la varianza sistemática secundaria es la variabilidad de la medida de la variable dependiente debida a la influencia de variables extrañas conocidas y predecibles, que tienen lugar antes o durante la realización del experimento, y pueden proceder del sujeto, del ambiente y del procedimiento experimental. Consideremos estas variables cuyo control tiene la finalidad única de lograr la equivalencia de las condiciones: Métodos y diseños experimentales a) Las variables de sujeto son las diferencias individuales entre los participantes del experimento, como pueden ser: género, edad, aptitud, el que los participantes sean voluntarios o no, la información previa que tengan acerca del experimento, etc. Su posible influencia se hace más relevante, y por tanto la necesidad de su control más exigente, cuando se utilizan grupos con diferentes participantes (situaciones intergrupos), ya que si estos grupos asignados a las condiciones no son equivalentes en las variables de sujeto antes de aplicar el tratamiento, las diferencias halladas en la variable dependiente pueden deberse al efecto de estas diferencias individuales más que al efecto del tratamiento. b) Los aspectos ambientales son las condiciones físicas en las que se realiza el experimento, como pueden ser: ruido, luz, temperatura, humedad, etc., y que deben ser controladas para garantizar su constancia en las aplicación de las distintas condiciones experimentales. c) Por último, dentro de la fuente de variables extrañas que llamamos de procedimiento experimental se encuentran aspectos relacionados con los instrumentos de medida, las instrucciones, los estímulos, el material, el investigador, etc. La influencia del investigador sobre los resultados del estudio se puede deber a diversos factores como la edad, el atractivo físico, el género, la personalidad, la experiencia, la emisión inconsciente de señales a los participantes a través de posturas, gestos o verbalizaciones, errores en sus registros o de interpretación de los resultados, etc. Los efectos de las variables extrañas procedentes del sujeto, del ambiente y del procedimiento experimental suelen ser predecibles y, por tanto, generalmente se pueden controlar mediante las técnicas de control que veremos más adelante. Si no se controlan adecuadamente, sus efectos pasaran a formar parte de la varianza sistemática secundaria y afectaran negativamente a la validez interna de los resultados del estudio. Llamamos varianza error a la parte de la variabilidad de la variable dependiente que no es sistemática y en muchas ocasiones inevitable. Es decir,...después de que un investigador ha determinado la parte de la variación total que está relacionada con la variable de interés, una parte de la variación permanece sin explicar. La varianza no explicada se denomina varianza error y es la parte de la variación total no relacionada a variables bajo investigación en el estudio (Martínez Arias et al., 2014, p. 142). Fundamentos de investigación en Psicología Dicha varianza error se produce por los posibles efectos de variables extrañas, normalmente aleatorias y/o desconocidas, que al no haber sido correctamente controladas pasan sus efectos a formar parte de esta varianza error (por ejemplo, errores de medida o fluctuaciones de atención de los participantes al realizar las tareas pueden provocar variaciones aleatorias), y afectarán negativamente a la validez de conclusión estadística. 4.3.2 Técnicas de control El experimentador tiene que poder producir fenómenos bajo condiciones reguladas para conseguir, en la medida que le permita su estrategia de investigación, maximizar la varianza sistemática primaria, minimizar la varianza error y controlar la varianza sistemática secundaria. A estos tres aspectos, Kerlinger (1984) los denomina Principio MAX-MIN-CON y su cumplimiento...redunda en un aumento de la sensibilidad de la investigación que se deriva fundamentalmente de la maximización de la varianza sistemática primaria. A su vez, el control de la varianza sistemática secundaria y la minimización de la varianza error garantiza que el experimento posea una adecuada validez (Balluerka y Vergara, 2002, p. 19). Vamos a detenernos en los procedimientos y técnicas que se utilizan para cumplir los tres objetivos que configuran el Principio MAX-MIN-CON: 1. La maximización de la varianza sistemática primaria se consigue eligiendo los valores de la variable independiente más adecuados para producir cambios en la dependiente. ¿Y qué valores son los más adecuados? Ello dependerá de los objetivos de la investigación y de si el tipo de relación que existe entre la variable independiente y la dependiente es lineal o curvilínea. Unas veces lo ideal será utilizar valores extremos, y otras valores intermedios; algunas veces será mejor utilizar pocos niveles o tratamientos, y otras el mayor número posible de niveles. Intuitivamente podríamos pensar que el mejor medio para maximizar la visibilidad del efecto de la variable independiente sería elegir los valores extremos de esa variable, pero esto dependerá de los objetivos del estudio. Por ejemplo, si deseamos conocer si el ruido ambiental influye en el tiempo de reacción (tiempo que media entre la presentación de un estímulo y el inicio de la respuesta) podemos seleccionar una muestra de 80 personas y aleatoriamente asignarlos a dos grupos: uno de ellos realizará la tarea en una cabina insonorizada y el otro en una cabina donde se oye música alta (79 decibelios). Cuanto mayor sea la influencia de la variable independiente (ruido ambiental) en la dependiente (tiempo de reacción) la diferencia entre los grupos (varianza sistemática primaria) será mayor. Pero, si queremos identificar a partir de qué nivel de ruido comienza a producir un efecto negativo significativo en el tiempo de reacción necesitaremos considerar varios niveles o valores de ruido en lugar de solo dos valores. Por otra parte, los valores extremos solo se deben utilizar cuando entre las variables hay una relación claramente lineal o monotónica; es decir, cuando a medida que aumentan o disminuyen los valores de la variable independiente aumentan o disminuyen los valores en las medidas de la variable dependiente (Figura 4.3). Por el contrario, cuando hay una relación curvilínea entre las variables no se deben seleccionar valores extremos, ya que podríamos concluir erróneamente que la variable independiente no tiene ningún efecto en la respuesta del participante. En este caso habría que considerar varios valores que incluyeran los valores intermedios. Así, por ejemplo, si queremos estudiar cómo influye la ansiedad en el rendimiento académico, al ser una relación curvilínea con forma de U invertida (ley de Yerkes y Dodson, 1908) deberíamos incluir valores intermedios (Figura 4.3). Si trabajamos con variables poco estudiadas y no sabemos qué tipo de relación existe entre ellas podemos optar por utilizar varios valores de la variable independiente o por hacer un estudio piloto para seleccionar los valores más adecuados. 2. Para minimizar la varianza error hay que ser muy rigurosos a la hora de planificar y llevar a cabo una investigación, ya que esta varianza suele estar relacionada con: ——Los factores asociados a los errores de medida procedentes de los métodos utilizados para registrar y cuantificar los resultados (por ejemplo, la utilización de instrumentos poco precisos). ——Las diferencias individuales de los participantes dentro de cada grupo cuando estas diferencias son imposibles de identificar y controlar (por ejemplo, el cansancio, los lapsus de memoria o las distracciones a la hora de realizar la tarea). ——El procedimiento experimental (por ejemplo, la utilización de instrucciones poco claras puede hacer que, dentro del mismo grupo, un participante las entienda de forma diferente a otro). Por tanto, para poder minimizar estos efectos perniciosos para la investigación es necesario que: ——Los instrumentos utilizados en la medición de la variable dependiente tienen que: medir aquello que pretenden medir (validez); poder discriminar entre las diferentes ejecuciones de los sujetos (sensibilidad); y producir mediciones precisas con poca variabilidad entre las puntuaciones del mismo participante en diferentes ocasiones (fiabilidad). Por último, los instrumentos utilizados en la presentación de los estímulos tienen que ser los adecuados y funcionar correctamente (por ejemplo, el monitor del ordenador, en un experimento de percepción visual, no puede parpadear ocasionalmente). ——Aumentar el número de participantes. Cuanto mayor sea el tamaño de los grupos mayor será la probabilidad de que los errores aleatorios relacionados con las diferencias individuales se compensen entre sí. También se disminuye la varianza error utilizando una estrategia intragrupo, en la cual se aplican todas las condiciones a todos los participantes. ——Se deben evitar riesgos de variaciones aleatorias, por ejemplo, las instrucciones deben ser claras y preferentemente por escrito para que se transmitan por igual a todos los participantes. 3. Para controlar la varianza sistemática secundaria se utilizan las denominadas técnicas de control. La elección de una técnica u otra depende de la naturaleza de la variable extraña y, a veces, del tipo de diseño. Así, por ejemplo, las técnicas de balanceo o equilibrado (aleatorización, bloques y equiparación) son más propias de los diseños intergrupos (diferentes participantes en cada grupo), mientras que las técnicas de sujeto como control de sí mismo y la técnica de contrabalanceo se utilizan en los diseños intragrupo (los mismos participantes en todas las condiciones experimentales). Por último, las técnicas de eliminación, constancia, ciego y doble ciego, sistematización de variables extrañas y las técnicas estadísticas de control se pueden utilizar en cualquier situación. Empecemos por aquellas técnicas comunes a las estrategias intergrupos e intragrupo: 1. La técnica de eliminación consiste, como su nombre indica, en eliminar las variables extrañas del estudio, es decir, utilizar el valor cero de la variable extraña eliminando todos los demás valores. Resulta bastante útil para controlar variables que provienen del medio ambiente. Ejemplo: eliminamos el ruido ambiental insonorizando el laboratorio. 2. La técnica de constancia se suele utilizar cuando no es posible eliminar la variable extraña. Supone elegir un valor diferente de cero de esa variable, potencialmente contaminadora, y aplicarlo de forma constante a todos los participantes de todos los grupos. Por ejemplo, si nos preocupa la temperatura ambiente en la que realizan la tarea experimental, podemos elegir 21 grados como la temperatura deseable y asegurar, mediante el termostato del laboratorio, esta temperatura durante todas y cada una de las sesiones del experimento. Esta técnica de control es adecuada para variables físicas y de sujeto. También se puede pensar que al mantener constante el valor de una variable, por ejemplo, la temperatura, estamos eliminando otros valores de la temperatura que consideramos inadecuados. Ambas técnicas en ocasiones son complementarias. Con esta técnica y la anterior estamos aumentando la validez interna de las conclusiones de la investigación. Fundamentos de investigación en Psicología 3. Las técnicas de ciego y doble ciego se utilizan para neutralizar los efectos en algunos factores relacionados con el procedimiento experimental que pueden provocar que el participante distorsione sus respuestas, como puede ser la reactividad (el simple hecho de estar participando en una investigación puede llevar a los participantes a comportarse de forma diferente a como lo harían en la realidad natural, de tal forma que sus respuestas no dependería solo de la influencia del tratamiento, sino de su propia percepción de la situación de investigación). La técnica de ciego consiste en que los participantes desconocen los objetivos y las condiciones de la investigación. Así, por ejemplo, si estamos probando un nuevo fármaco antidepresivo en dos grupos, y damos al grupo experimental el nuevo fármaco y al grupo control un placebo, es mejor que los participantes no sepan en qué grupo se encuentran ya que el mero hecho de saberlo podría afectar a los resultados. Por ejemplo, se podría reducir el grado de depresión en los participantes del grupo experimental por el simple hecho de saber que se encuentran en ese grupo y no por el efecto del nuevo fármaco en sí. Sin embargo, al no saber si su condición experimental es fármaco o placebo se eliminan los efectos de la reactividad, ya que los participantes ignoran qué tipo de cambio se espera de ellos. En la técnica de doble ciego el experimentador que aplica el tratamiento desconoce los objetivos y la condición experimental del participante. Siguiendo con el ejemplo anterior, si además de los participantes el experimentador (para ello es necesario que el experimentador que aplica el tratamiento sea diferente al que diseña la investigación) también ignora cuál es el grupo experimental y cuál es el grupo control estamos evitando que pueda, consciente o inconscientemente, transmitir al participante su condición experimental y, por tanto, afectar al resultado del estudio. Es decir, con la técnica de doble ciego se evita, por una parte que el experimentador de manera inconsciente desvíe la respuesta del participante, y por otra, que el participante ignore qué tipo de respuesta se espera de ellos. Al aplicar estas técnicas estamos favoreciendo la validez de constructo y la validez interna del estudio. 4. La técnica de sistematización de las variables extrañas consiste en que el experimentador convierte una variable potencialmente extraña en variable independiente y la incorpora a la investigación, de tal forma que en lugar de una sola variable independiente tendríamos al menos dos, por lo que estaríamos ante un diseño factorial. Por ejemplo, si un psicólogo quiere averiguar cómo influye la publicidad visual en la conducta de los niños a la hora de elegir un juguete, y cree que la variable género es una variable im Métodos y diseños experimentales portante en la elección de juguetes, puede decidir controlarla en la formación de los grupos seleccionando, por ejemplo, solo niños o niñas (técnica de constancia), o introducir la variable extraña género en el estudio como si fuera otra variable independiente. En este último caso tendría dos variables independientes: una sería la variable género con dos valores: niños y niñas, y la otra sería el número de anuncios de juguetes que se proyecta durante una película de dibujos animados, que podría tener también dos valores: uno y tres anuncios. 5. Las técnicas estadísticas. En este caso la intervención del experimentador no se hace directamente sobre las variables extrañas en la planificación y realización del estudio, sino que se hace aplicando ciertos procedimientos estadísticos a los datos. Estos procedimientos nos permiten separar el influjo que tiene la variable independiente sobre la variable dependiente del influjo que pueda tener alguna variable extraña sobre la dependiente. Estas técnicas son especialmente útiles en situaciones en las que la conducta es muy compleja y es difícil aislar sus variables determinantes. Una de las técnicas estadísticas de control más utilizada es el análisis de covarianza (ANCOVA) que se estudiará en la asignatura de Diseños de Investigación y Análisis de datos. A continuación, veremos las técnicas más características de las situaciones de comparación de grupos o intergrupos. 1. Las técnicas de equilibrado o balanceo están asociadas a los diseños intergrupos. Tienen el objetivo de obtener grupos equivalentes de modo que sea solo el tratamiento o variable independiente lo que cause las diferencias entre ellos. Supone repartir de forma equilibrada los posibles valores de la variable extraña entre todas las condiciones experimentales. Con esta técnica se pueden utilizar varios valores de la variable extraña diferentes de cero, siempre que su proporción sea equivalente en todos los grupos. Ello se consigue mediante la técnica de aleatorización, la técnica de bloques y la técnica de equiparación. Vamos a ver cada una de ellas: a. La técnica de aleatorización es la que caracteriza a los diseños experimentales y está asociada principalmente a los diseños de grupos aleatorios y de bloques al azar. Es uno de los procedimientos de control de las variables extrañas más utilizados e importantes debido a que permite el control de la mayoría de las variables extrañas conocidas y desconocidas. Es la técnica que se suele utilizar cuando no sabemos exactamente cómo pueden Fundamentos de investigación en Psicología influir estas variables en el estudio. Por ejemplo, si en un experimento sobre la influencia del alcohol al realizar una tarea de tiempos de reacción consideramos que los diferentes grados de habituación al alcohol por hábitos de consumo pueden ser una variable extraña contaminante, debemos tratar de que su influencia se reparta de forma equilibrada entre los grupos. Esto se puede lograr asignando los participantes al azar a los grupos, si el tamaño de la muestra es suficientemente grande. Mediante esta técnica, cada participante tiene la misma probabilidad de ser asignado a los diferentes grupos experimentales o tratamientos, lo que garantiza que las posibles diferencias entre los grupos, antes de la presentación del tratamiento, se distribuyan al azar entre los diferentes grupos. Por tanto, como los grupos son inicialmente iguales entre sí, la diferencia encontrada en la variable dependiente después de la introducción del tratamiento o variable independiente será atribuible a dicho tratamiento. La importancia de esta diferencia y su valor para poder extraer conclusiones sobre el efecto del tratamiento se comprueba mediante unas pruebas de significación estadística o contraste de hipótesis. En el caso de considerar un solo grupo de participantes, es decir, en los diseños intragrupo o de medidas repetidas, también se da la aleatorización pero, evidentemente, no en cuanto a la asignación de los participantes a las condiciones experimentales, ya que todos ellos pasarán por todos los tratamientos, sino en cuanto al orden de presentación de dichos tratamientos a los participantes (es lo que se conoce como contrabalanceo y que veremos en el apartado 4.5.2.1 de este tema). La aleatorización se utiliza en dos momentos del experimento: 1) cuando se asignan los participantes a los grupos; 2) cuando se asignan los grupos a las condiciones experimentales o tratamientos, esto último aumenta la confianza de que no existe ninguna razón previa por la que un participante puede recibir un tratamiento u otro. En el estudio de la oxitocina y la conducta prosocial de donación visto anteriormente se formaron dos grupos de participantes, de forma aleatoria, y una vez formados, se decidió al azar qué grupo recibiría la oxitocina y cuál recibiría una sustancia inocua. No debemos confundir la selección aleatoria de la muestra de participantes de la población con la asignación aleatoria de los participantes de la muestra a los diferentes grupos. La selección aleatoria de la muestra es una estrategia aplicable y deseable en cualquier investigación, pero qué no caracteriza especialmente la experimentación. Se puede utilizar en la mayoría de las estrategias de investigación, tanto manipulativas (experimental, cuasiexperimental) como no manipulativas (ex post facto, encuestas…) y está relacionada con la validez externa; puesto que con ella nos aseguramos la representatividad de la muestra y, por ello, que los resultados del experimento puedan generalizarse a la población. Pero la selección aleatoria de la muestra no garantiza la validez interna del experimento ni la equivalencia de los grupos. En la Figura 4.4, en la parte de la izquierda se representa la selección aleatoria y en la parte de la derecha se refleja la asignación aleatoria. La asignación aleatoria de los participantes de la muestra a los diferentes grupos sí es una característica de la experimentación, de la que carecen otras estrategias (p. ej., la cuasiexperimental). La asignación aleatoria consiste en que una vez seleccionada la muestra de la población (haya sido de forma aleatoria o por muestreo no probabilístico) asignamos (distribuimos) aleatoriamente los participantes de esa muestra a los diferentes grupos. Con este procedimiento conseguimos que los grupos sean equivalentes (iguales) antes de aplicar el tratamiento y, por tanto, esta técnica está relacionada con la validez interna. b. La técnica de bloques está asociada a los diseños de bloques. Mediante esta técnica se forman subgrupos de participantes, llamados bloques, con puntuaciones similares en una variable extraña muy relacionada con la variable dependiente (a esta variable se le denomina variable de bloqueo) y después se asignan aleatoriamente (preferentemente el mismo número de participantes de cada bloque) a cada condición experimental o control. Por ejemplo, siguiendo con el estudio de la oxitocina y la conducta de donación, si sabemos que el tipo de vínculo de apego de los participantes puede interferir en la influencia de la oxitocina en la conducta prosocial de donación, podemos establecer grupos diferentes en función del tipo de vínculo de la relación de apego: personas que establecen vínculos seguros y personas que establecen vínculos poco seguros. Una vez identificados los participantes que forman los subgrupos o bloques de cada tipo de vínculo, los miembros de cada uno de los subgrupos se asignan aleatoriamente a las condiciones control y experimental, tal como se puede ver en la Figura 4.5. De esta forma, tendríamos en todos los grupos la misma proporción de presencia de los dos valores de la variable extraña vínculo de apego (seguro e inseguro). c. La técnica de equiparación o emparejamiento es muy similar a la anterior y está asociada a los diseños de grupos equiparados. Consiste en asignar participantes que posean la misma magnitud o puntuación en una o en varias variables extrañas muy relacionadas con la variable dependiente o incluso en la misma variable dependiente a cada uno de los grupos. A esta variable muy relacionada con la dependiente se le llama variable de equiparación o de emparejamiento. La efectividad de esta técnica, igual que en la técnica de bloques, depende del grado de relación existente entre la variable de equiparación y la variable dependiente, y es especialmente útil cuando la muestra es pequeña y solo tenemos dos valores de la variable independiente. Por ejemplo, si sabemos que la actitud prosocial está muy relacionada con nuestra variable dependiente y sólo disponemos de una muestra de 20 sujetos, podemos controlarla mediante la técnica de equiparación. Para ello, mediríamos mediante un cuestionario la actitud prosocial de esos 20 participantes. Supongamos que las medidas obtenidas fueran: 6, 5, 5, 4, 3, 9, 3, 2, 1, 2, 8, 7, 4, 7, 6, 8, 1, 9, 5 y 10. Para hacer dos grupos, haríamos pares de puntuaciones iguales, asignando aleatoriamente a cada uno de los grupos un participante de cada par, eliminando a los participantes que no tienen una pareja con la misma puntuación. El resultado serían dos grupos formados por 9 participantes con las siguientes puntuaciones, quedando fuera del experimento dos participantes sin pareja cuyas puntuaciones son 5 y 10 respectivamente. Grupo A: 9, 8, 7, 6, 5, 4, 3, 2, 1 Grupo B: 9, 8, 7, 6, 5, 4, 3, 2, 1 Finalmente, las técnicas del sujeto como control de sí mismo y la técnica de contrabalanceo, equiponderación o reequilibrado, son típicas de las situaciones intragrupo. 1. La técnica del sujeto como control de sí mismo se halla inevitablemente asociada al diseño intragrupo y sirve para controlar las variables extrañas procedentes de los participantes. Al aplicar a los mismos participantes todos los tratamientos, las variables extrañas de sujeto se mantienen constantes en todas las condiciones. Es decir, la mejor estrategia para controlar la variabilidad de los datos relacionados con las diferencias individuales es hacer que todos los participantes reciban los mismos tratamientos; de esta forma, si alguna variable de sujeto puede influir en los resultados, su efecto será el mismo en todas las condiciones. Esta técnica se basa en la idea de que no hay nadie más parecido a una persona que él mismo, por lo que al pasar esa misma persona por las distintas condiciones experimentales, las potenciales variables extrañas estarían controladas en todas las condiciones. 2. La técnica de contrabalanceo, equiponderación o reequilibrado controla el efecto del orden de aplicación de las diferentes condiciones experimentales o error progresivo, como veremos con detalle más adelante, cuando tratemos los diseños intragrupo. 4.4 CLASIFICACIÓN DE LOS DISEÑOS EXPERIMENTALES En todo diseño experimental están implicados los supuestos básicos del método experimental, pero su estructura concreta varía en función de los procedimientos específicos que haya escogido el investigador para adecuarla a sus objetivos. La estructura interna de los diseños experimentales surge por las decisiones tomadas en torno a tres dimensiones básicas, que se combinan entre sí (ver Figura 4.6): a) estrategia univariable vs multivariable, b) estrategia unifactorial vs factorial, c) estrategia intergrupos vs intragrupo. El criterio de la dicotomía univariado-multivariado está vinculado a la variable dependiente, es decir a la variable en la que se constata, a través de su medida, el efecto de la variable independiente. Si la variable dependiente es una, se trata de un diseño univariado. Si el estudio del efecto de la variable independiente se realiza a través de la medida de distintas variables dependientes, entonces hablamos de un diseño multivariado. Los estudios multivariados se ajustan más eficazmente, Métodos y diseños experimentales en muchos casos, a la complejidad de los fenómenos de estudio de la Psicología. Aunque en algunos ejemplos y ejercicios del texto se ilustrará esta posibilidad de tener en cuenta varias variables dependientes, la mayoría de las explicaciones y ejemplos se harán sobre el formato de diseño univariado, por razones de simplicidad y claridad. Otro elemento crítico para la diferenciación entre los diseños experimentales está marcado por el número de variables manipuladas (variables independientes o factores), distinguiéndose básicamente entre diseños simples o unifactoriales y diseños factoriales. El diseño unifactorial se caracteriza porque en la situación experimental sólo se manipula una variable independiente. Esta variable se operativizará en un número determinado de valores o niveles, que a su vez generan el mismo número de condiciones experimentales o tratamientos a aplicar a los participantes en el estudio. Sin embargo, cuando la complejidad del problema investigado o el grado de desarrollo de los conocimientos sobre el tema lo hace conveniente, se puede plantear una situación experimental en la que se manejan simultáneamente dos o más variables independientes. Estaríamos entonces ante un diseño factorial. Los diseños factoriales proporcionan información no sólo sobre los efectos específicos de cada una de las variables manipuladas, sino también de su posible efecto combinado o de interacción. De nuevo, en virtud ahora del número de variables independientes, la complejidad del diseño se aproxima más a la complejidad real de los fenómenos psicológicos en los que es frecuente la acción conjunta de varias variables. El tercer criterio tiene en cuenta la estrategia concreta para aplicar los tratamientos o condiciones experimentales que se generan a partir de los valores de la variable independiente. Si sometemos grupos diferentes de participantes a las distintas condiciones experimentales, para poder comparar sus medidas en la variable dependiente, estamos utilizando la estrategia intergrupos o intersujetos. Esta estrategia se basa en el supuesto de que estos grupos son inicialmente equivalentes (antes de aplicar las condiciones experimentales), de forma que sus diferencias después de los tratamientos se puedan atribuir inequívocamente a la variable independiente. En la estrategia intragrupo o intrasujetos, todos y cada uno de los participantes del estudio reciben de forma sucesiva la aplicación de todas las condiciones experimentales. Esto es, cada participante actúa como control o referencia de sí mismo, de forma que el mismo grupo de personas nos proporciona una serie de medidas en la variable dependiente cuyas diferencias podrán ser atribuidas al efecto de los distintos niveles de la variable independiente. 4.5 DISEÑOS UNIFACTORIALES Son propios de aquellas situaciones en las que solo se manipula una variable independiente. Puede haber tantos grupos como condiciones (diseños intergrupos) o un solo grupo al que se le aplican todos los tratamientos (diseños intragrupo). 4.5.1 Diseños unifactoriales intergrupos También denominados diseños de comparación de grupos y diseños intersujetos, se caracterizan porque los grupos están formados por diferentes participantes y estudian la magnitud de la influencia de un factor o variable independiente sobre una, o más de una, variable dependiente a través de las diferencias entre los grupos. Al menos debemos tener dos grupos, coincidiendo con el número mínimo de condiciones experimentales que se deben dar (aunque sea presencia y ausencia de la VI), y dichos grupos debes ser equivalentes. En esta situación, el investigador tiene que preocuparse por conocer y controlar las variables extrañas relacionadas con los participantes, siendo uno de sus objetivos prioritarios asegurarse de que los distintos grupos de la investigación sean equivalentes en los posibles factores que pudieran afectar a los resultados. Lo único que tiene que diferenciar a los grupos es el tratamiento o condición experimental. En función de la técnica de control que se utilice en la formación de los grupos (aleatorización, bloqueo) estos diseños se clasifican 4.5.1.1 Diseños de grupos aleatorios En estos estudios, como ya hemos comentado, se comprueba el influjo de una variable independiente con dos (diseño de dos grupos aleatorios) o más niveles (diseño multigrupo), sobre una o más de una variable dependiente. La variable dependiente se puede medir solo después de la aplicación del tratamiento, o una vez antes del tratamiento y otra después. 4.5.1.1.1 Diseño de dos grupos aleatorios solo con medida postratamiento Este diseño es el más básico; puede constar de un grupo experimental (o grupo tratado) al que se le aplica el tratamiento y uno de control (o grupo no tratado) al que no se le aplica el tratamiento o se le aplica un placebo. También se pueden comparar dos valores de la variable independiente diferentes de cero. En este último caso, el diseño tendría dos grupos experimentales en lugar de un grupo experimental y otro control. La representación simbólica de este diseño se muestra en la Tabla 4.1, donde: ——A y B corresponden a la denominación que se le da a cada grupo; ——X es el tratamiento, cuando existen varios tratamientos se indican con subíndices (cada subíndice coincide con la denominación del grupo); y ——O es la medida de la variable dependiente, y también se indica con un subíndice que coincide con el grupo donde se ha tomado dicha medida. El procedimiento que tenemos que seguir para llevarlo a cabo es el siguiente: ——Seleccionamos de la población de interés una muestra de participantes lo suficientemente grande para que pueda actuar el azar. Si la selección de la muestra de la población se realiza aleatoriamente mejoran las condiciones para el análisis estadístico de los datos y se aumenta la validez externa del estudio. Fundamentos de investigación en Psicología ——Una vez que tenemos la muestra, aleatoriamente se asignan los participantes de la muestra a los dos grupos y también aleatoriamente asignamos un valor de la variable independiente o tratamiento a cada uno de los grupos. Aplicamos el tratamiento y tomamos la medida de la variable dependiente o respuesta de los participantes en los dos grupos. ——Comparamos los resultados de los dos grupos mediante la técnica de análisis de datos más adecuada. ——Por último, extraemos las conclusiones pertinentes, generalizamos los resultados y redactamos el informe de investigación, según las normas vigentes. Cuadro 4.1 Ejemplo de diseño de dos grupos aleatorios con medida postratamiento En una investigación sobre la colaboración, inspirada en los trabajos de Rand et al. (2012), los investigadores se plantean como objetivo estudiar si los seres humanos somos propensos a colaborar o la colaboración es fruto de la reflexión. Parten del supuesto de que si una decisión de colaboración se realiza de forma rápida esta es intuitiva y reflejará el primer impulso; mientras que si es lenta, la colaboración se basará en un proceso reflexivo. Para realizar el estudio, plantean una situación de juego en la que los participantes tienen que decidir con qué cantidad de dinero de su cuenta contribuyen para su equipo. Los participantes fueron 60 estudiantes voluntarios de la Facultad de Psicología y se asignaron aleatoriamente a dos grupos. Un grupo tenía que tomar la decisión sobre su contribución en menos de 10 segundos y el otro grupo no tenía límite de tiempo para tomar esa decisión. Los resultados mostraron, en media, que las contribuciones del grupo que tenía que tomar la decisión de forma rápida fueron significativamente superiores a las del grupo que no tuvo limitaciones de tiempo para tomarla. Para los autores estos resultados informan de que el primer impulso, el comportamiento intuitivo del ser humano, es de colaboración, aunque esto no significa que necesariamente sea un comportamiento innato ya que la socialización, la cultura y la experiencia diaria podrían explicar este comportamiento intuitivo. Vamos a ver detenidamente este estudio para identificar los elementos metodológicos que hemos visto hasta ahora. El objetivo es ver la influencia del tiempo disponible (variable independiente) para decidir colaborar (variable dependiente). Se puede ver que la variable independiente tiene dos valores o niveles: tiempo limitado a 10 segundos y tiempo no limitado sobre la decisión de colaborar. La variable dependiente ha sido medida (operativizada) por la cantidad de dinero aportada como contribución de cada grupo a su equipo. El diseño utilizado en el estudio es: unifactorial porque solo se estudia el efecto de una variable independiente; intergrupos, porque los dos grupos están formados por diferentes participantes; univariado, porque solo mide una variable dependiente. Métodos y diseños experimentales Es de dos grupos aleatorios porque en la formación de los grupos se ha utilizado la técnica de control de aleatorización: se han asignado aleatoriamente los participantes de la muestra a cada grupo; y es solo con medida postratamiento porque la variable dependiente se ha medido únicamente después de la aplicación del tratamiento (una vez a cada grupo). No obstante, la característica de la muestra formada con estudiantes voluntarios limita la validez externa poblacional del estudio ya que se puede dar la amenaza de la interacción entre selección y tratamiento (al ser los participantes voluntarios puede ocurrir que se hayan apuntado al estudio los más colaborativos) pero no limita la validez interna ya que los grupos son equivalentes, al haberse formado por asignación aleatoria. A la hora de elegir la prueba estadística más adecuada para analizar los datos tenemos que tener en cuenta, además del tipo de diseño y del nivel de medida de la variable dependiente, los requisitos y restricciones de las pruebas paramétricas. En el caso del diseño de dos grupos aleatorios se podría utilizar una diferencia de medidas de grupos independientes como, por ejemplo, la t de Student para medidas independientes, ya que hacemos una comparación intergrupos con participantes diferentes en cada grupo. Todo lo relacionado con el análisis de los datos se verá en la asignatura de Diseños de Investigación y Análisis de Datos. 4.5.1.1.2 Diseño de dos grupos aleatorios con medidas pre y postratamiento Este diseño se diferencia del anterior en que se toman dos medidas en cada uno de los grupos, una antes y otra después de la aplicación del tratamiento. En un estudio, cuando la muestra es muy heterogénea y/o muy pequeña, aunque hayamos formado los grupos por asignación aleatoria nos puede quedar la duda de si estos son inicialmente equivalentes; cuando esto sucede o simplemente cuando nos interesa comprobar que los grupos son homogéneos en la variable de interés es conveniente, una vez formados los grupos, tomar una medida de la variable dependiente o de una variable muy relacionada con ella antes de aplicarles el tratamiento. A esta medida se le denomina medida pretratamiento. Además de comprobar la equivalencia de los grupos, esta medida también puede servir, cuando se evalúa la misma variable dependiente, para comparar dentro de cada grupo si hay diferencias en los valores de la variable dependiente antes y después del tratamiento. No obstante, a la hora de elegir este diseño es necesario tener en cuenta la amenaza a la validez de repetición de pruebas y sopesar los beneficios de la medida pre, con los riesgos de esa posible Fundamentos de investigación en Psicología contaminación de los resultados. En la Tabla 4.2 vemos la representación simbólica de este diseño cuando se utilizan dos niveles diferentes de la variable independiente distintos de cero y por lo tanto consta de dos grupos experimentales en lugar de un grupo experimental y otro control. Igual que en el caso anterior, también puede darse un grupo experimental y otro control. Tabla 4.2 Representación simbólica del diseño de dos grupos aleatorios con medidas pre y postratamiento y dos grupos experimentales En este diseño, cuando los grupos ya están formados, tomamos una medida de la variable dependiente (o de otra variable muy relacionada con ella) a los dos grupos y comprobamos, mediante la prueba estadística apropiada, si existen diferencias en las medidas pretratamiento de los dos grupos. En el caso de que no haya diferencias se continúa con el estudio y si las hay, podríamos utilizar la técnica de bloqueo utilizando la variable que hemos medido, antes del tratamiento, como variable de bloqueo y volver a formar los grupos en función de las puntuaciones obtenidas en ella, siempre que lo permita el estudio. También podemos aplicar posteriormente determinadas técnicas estadísticas como el análisis de covarianza (ANCOVA) para controlar el efecto de esa variable extraña (García Jiménez, 1995). La estructura de este diseño nos permite explotar los datos haciendo diferentes comparaciones que, a su vez, cumplen funciones diversas: 1) para comprobar la equivalencia de los grupos comparamos las dos medidas pretratamiento OA1 con OB1; 2) para ver el cambio que se ha producido por la influencia del tratamiento dentro de cada grupo (si se ha utilizado la variable dependiente para tomar la medida pre) comparamos sus respectivas medidas pre con sus medidas post: OA1 con OA2 y OB1 con OB2; y 3) para contrastar la hipótesis hay que comparar las medidas postratamiento OA2 con OB2 de los dos grupos. De cara a la elección del estadístico de contraste, para el análisis de datos, es importante tener en cuenta que según qué comparación hagamos, estamos utilizando medidas independientes o medidas dependientes o relacionadas. En la Tabla 4.3 pueden verse las comparaciones a realizar, donde las flechas verticales (flechas azules) indican contrastes entre grupos (medidas independientes). Métodos y diseños experimentales y las flechas horizontales (flechas negras) indican contrastes intragrupos (pre y post de cada grupo, y por tanto, medidas dependientes o relacionadas, porque proceden de los mismos participantes). Tabla 4.3 Comparaciones inter e intragrupo en diseños con medidas pre y post con medidas pre y postratamiento Numerosos estudios consideran que el sueño ejerce, de alguna manera, una función reguladora sobre el peso corporal. Para comprobarlo se analizó la duración del sueño, la ingesta de alimentos, el peso y los niveles de leptina (una hormona relacionada con el apetito y la obesidad) en una muestra de niños. En el estudio participaron 38 niños, de entre 8 y 11 años, de los que el 27% tenían sobrepeso u obesidad. Para controlar la posible influencia del género en los resultados solo se utilizaron varones. Aleatoriamente se formaron dos grupos. Durante la primera semana, todos los niños durmieron el tiempo habitual en ellos y se anotó el número de horas de sueño de cada niño. También se registraron, en ambos grupos, el promedio diario de calorías consumidas, el peso corporal y los niveles de leptina en ayunas. Durante la siguiente semana, cada niño de un grupo durmió una hora y media más, y cada niño del otro grupo una hora y media menos de lo habitual. Al finalizar esa semana, se volvió a registrar, en ambos grupos, las medidas anteriores. Los resultados fueron concluyentes: el grupo que aumentó el número de horas de sueño, informó haber consumido un promedio de 134 kcal menos al día, pesaban 0,22 kg menos y tenían niveles de leptina en ayunas más bajos, en comparación con el grupo de niños que durmieron menos horas. Para los investigadores, estos hallazgos sugieren que una mejoría en el sueño de los niños en edad escolar podría tener implicaciones importantes para la prevención y el tratamiento de la obesidad (basado en Escobar et al., 2013). En el Cuadro 4.2 hemos descrito un ejemplo del diseño que estamos presentando. La variable independiente es la duración del sueño (1 hora y ½ más o menos de lo habitual) y hay tres variables dependientes: peso corporal, número de calorías consumidas y niveles de leptina en ayunas. Se utiliza la técnica de asignación aleatoria para controlar las diferencias individuales asociadas al sobrepeso u obesidad de los niños. Para comprobar la equivalencia inicial de los grupos se tomó una medida pre de los niveles de las tres variables dependientes antes de la aplicación del tratamiento. Se utilizó la técnica de constancia para controlar la posible influencia del género (solo participaron niños varones). Este diseño es unifactorial intergrupo multivariado de dos grupos aleatorios con medida pre y postratamiento. Es multivariado porque utiliza tres variables dependientes: peso corporal, número de calorías consumidas, y niveles de leptina en ayunas. Es de medida pre y postratamiento porque se miden las variables dependientes antes y después de aplicar el tratamiento. En este estudio concreto, el hecho de que se haya medido antes del tratamiento el peso corporal y el número de calorías consumidas ha podido provocar que los niños consuman aún menos calorías por el efecto de la amenaza a la validez de la reactividad. 4.5.1.1.3 Diseño multigrupo El diseño multigrupo es una extensión del diseño de dos grupos, en el que se utilizan tres o más tratamientos y nos da información, además de la magnitud del efecto, sobre el tipo de relación funcional (lineal, curvilínea, etc.) entre las variables objeto del estudio. Los diferentes grupos que utiliza este diseño pueden ser todos experimentales o se designa uno, de forma aleatoria, como grupo control (a este grupo no se le administrará tratamiento o se le dará un placebo). Este tipo de diseño puede tener medidas solo postratamiento o medidas pre y postratamiento. Puede verse en la Tabla 4.4 la representación simbólica del diseño multigrupo solo con medida postratamiento y con un grupo control con placebo, donde ZD significa que se aplica un placebo al grupo D. En el análisis de datos del diseño multigrupo sólo con medidas postratamiento podemos utilizar, entre otras pruebas, un análisis de varianza (ANOVA) unifactorial de medidas independientes. En el caso del diseño multigrupo con medidas pre y postratamiento, para hacer la comparación de las medidas postratamiento se puede utilizar también un análisis de covarianza (ANCOVA) usando la medida pretratamiento como variable covariada (o covariante). Además se puede realizar un análisis de varianza (ANOVA) unifactorial de medidas relacionadas para ver si hay diferencias intragrupo (entre la medida pre y postratamiento en cada uno de los grupos), siempre que el nivel de medida de los datos y el objetivo del estudio lo permita. En el ejemplo anterior (Cuadro 4.3) se quiere estudiar, además de la influencia de la variable independiente (ingesta de nicotina) sobre la variable dependiente (rendimiento en tareas de atención mantenida), el tipo de relación que existe entre ambas. Por ello se utilizan cuatro condiciones experimentales (0 mg, 1 mg, 2 mg y 4 mg) sobre una sola variable dependiente. Los resultados muestran que existe una relación curvilínea entre ambas variables: la nicotina es más eficaz en dosis pequeñas. En este diseño, además de la técnica de asignación aleatoria para controlar las diferencias individuales, se ha utilizado la técnica de ciego, ya que a los participantes no se les informó de la cantidad de nicotina que ingerían hasta finalizar el experimento, también se utilizó la técnica de constancia: se seleccionó una muestra de participantes no fumadores con visión normal o visión corregida normal, la tarea experimental se llevó a cabo de forma individual en una cámara insonorizada donde todos los participantes recibían las mismas instrucciones por escrito. 4.5.1.2 Diseños de bloques aleatorios En algunas situaciones la asignación aleatoria es un procedimiento de control insuficiente para garantizarnos la equivalencia inicial de los grupos. Esto puede ocurrir cuando la población es muy heterogénea, la muestra de la que disponemos es pequeña o sospechamos de la existencia de una variable extraña que pueda influir en la variable dependiente. En estas ocasiones, es preferible usar la técnica de bloques homogéneos o técnica de bloqueo en lugar de la técnica de asignación aleatoria, en la formación de los grupos. La técnica de bloqueo consiste en agrupar a los participantes en subgrupos o bloques, en función de sus valores en una variable, denominada variable de bloqueo, Métodos y diseños experimentales que será una posible variable potencialmente contaminadora (extraña) muy relacionada con la variable dependiente o incluso la misma variable dependiente. Con este procedimiento, los participantes de un subgrupo o bloque son todos similares entre sí y diferentes a los participantes de otro bloque en una determinada característica (variable de bloqueo). Cada bloque o subgrupo debe tener preferiblemente una cantidad de participantes igual o múltiplo del número de condiciones experimentales o tratamientos, con el fin de que su presencia sea la misma en cada condición experimental. Una vez formados los subgrupos o bloques se asigna aleatoriamente el mismo número de participantes de cada bloque a los diferentes grupos o condiciones. Así, por ejemplo, si el diseño tiene dos grupos, se asigna aleatoriamente el 50% de participantes de cada bloque a cada uno de los grupos; si el diseño consta de cuatro grupos, asignamos el 25% de participantes de cada bloque a cada grupo. Al asignarlos aleatoriamente, el influjo de otras posibles variables extrañas de sujeto, distintas de la que se han tenido en cuenta en la formación de los bloques, se repartirá de forma equilibrada en todas las condiciones experimentales y por lo tanto no contaminará los resultados. Con esta técnica se controla la varianza sistemática secundaria (proveniente de sujeto) y se reduce la varianza error. Es decir, no solo eliminamos los efectos sistemáticos de una posible variable extraña muy relacionada con la variable dependiente al homogeneizar los grupos respecto a esa variable que puede afectar a los resultados, sino que también se asignan aleatoriamente los participantes de cada bloque a los diferentes grupos y reducimos los errores aleatorios al homogeneizar los participantes. La elección de la variable de bloqueo se puede basar en la información proporcionada por investigaciones previas que muestren la relación entre esta y la variable dependiente de nuestro estudio o realizando un estudio piloto en el que se tomen medidas de las dos variables y se calcule la correlación entre ellas (McGuigan, 1996). A la hora de formar los subgrupos o bloques en función de esa variable de bloqueo podemos utilizar información disponible sobre las puntuaciones de los participantes en esa variable o tomar medidas de la variable de bloqueo antes de formar los bloques. Los diseños de bloques aleatorios pueden ser completos o incompletos. En el primer caso, cada bloque constituye una réplica exacta del experimento, ya que dentro de cada bloque se aplican todas las condiciones experimentales. En el segundo caso, es decir, en el diseño de bloques incompletos, se aplican solo algunas condiciones dentro de cada bloque. Esto puede ser un recurso útil si contamos con un número elevado de tratamientos y un número reducido de participantes dentro de cada bloque. En el Cuadro 4.4 se muestra un estudio donde se utiliza el diseño de bloques y en la Tabla 4.5 vemos que de los 22 participantes solo se han seleccionado 18 (el resto no encajaba en ningún bloque por tener puntuaciones demasiado altas o bajas). A tres participantes de cada bloque se le administra el mismo tratamiento, de tal forma que a los participantes de cada subgrupo se le aplican los dos tratamientos, siendo cada subgrupo o bloque una réplica del experimento (diseño de bloques aleatorios completo). Cada tratamiento se aplicó a nueve participantes, de los cuales tres tenían un nivel alto de conocimientos previos de alemán, tres un nivel medio y tres un nivel bajo. Fundamentos de investigación en Psicología Vemos que en las dos condiciones hay tres participantes con puntuaciones similares de cada uno de los bloques: tres participantes del bloque de nivel alto, tres del medio y tres del bajo. Con ello hemos conseguido que los grupos sean equivalentes en la variable extraña nivel de conocimientos previos. El resto de las variables extrañas se controlan asignando aleatoriamente los participantes de cada bloque a los grupos. En cuanto a los análisis de datos de estos diseños, se nos plantean dos posibilidades: en primer lugar, podemos considerar el diseño de bloques sencillamente como un diseño de grupos independientes, en los que la aleatorización se aplica de acuerdo con ciertas restricciones (la organización de bloques) con el fin de aumentar las garantías de equivalencia inicial de los grupos. Podemos estimar, por tanto, la aplicación de la estrategia de bloqueo como una técnica de control previo y proceder al análisis de los datos de estos diseños, con las mismas técnicas que para los grupos aleatorios independientes. En segundo lugar, tenemos también la opción de incorporar la variable de bloqueo al análisis de los datos como variable de estudio, utilizando técnicas de dos variables, por ejemplo un ANOVA de dos factores en un planteamiento similar al que trataremos en el estudio del diseño factorial. Un caso especial del diseño de bloques aleatorios es el diseño de grupos equiparados o emparejados. Este tipo de diseño se caracteriza porque los participantes tienen que ser idénticos dentro de cada subgrupo o bloque, en la variable de bloqueo que se llamaría, en este caso, variable de equiparación o variable de emparejamiento. Un ejemplo extremo de un diseño perfecto de grupos equiparados es cuando utilizamos pares de gemelos que se han criado juntos y asignamos un gemelo a cada condición experimental. Siguiendo con el ejemplo anterior, si utilizamos un diseño de grupos equiparados tendríamos que formar bloques con puntuaciones idénticas en la variable de equiparación. Normalmente este tipo de diseños suelen tener tantos bloques como parejas de puntuaciones iguales en la variable de equiparación haya en la muestra (suponiendo que la variable independiente tenga dos valores). Los participantes que no tengan pareja con una puntuación igual en la variable de equiparación se eliminan del estudio (Tabla 4.7). En el diseño de bloques aleatorios los participantes tienen que ser similares en la variable de bloqueo. En el diseño de grupos equiparados o emparejados los participantes tienen que ser idénticos en la variable de equiparación. El efecto de la variable potencialmente extraña, ahora variable controlada por equiparación, conocimientos previos en alemán quedaría distribuido, utilizando la técnica de equiparación, de la siguiente forma: Vemos que por cada participante de la condición A hay otro participante con una puntuación idéntica en la condición B. Sin embargo, en los diseños de bloques aleatorios por cada participante de la condición A había otro participante en la condición B con una puntuación similar. En este tipo de diseño podríamos utilizar para analizar los datos, una prueba de muestras independientes de dos o más grupos (paramétrica o no paramétrica), pero Fundamentos de investigación en Psicología también se puede utilizar una prueba para muestras relacionadas si se entiende que la equiparación ha logrado hacer a los grupos iguales en una variable muy relacionada con la variable dependiente o en la misma variable dependiente. La ventaja principal de la técnica de bloqueo respecto a la técnica de aleatorización es que los grupos experimentales son inicialmente más homogéneos entre sí que si se hubieran formado al azar. Entre los inconvenientes de estos diseños están, además del enorme esfuerzo y coste que supone su utilización, la posible sensibilización de los participantes a la medida previa de la variable dependiente cuando se toma como variable de bloqueo, y la posible pérdida de participantes, si son muchos los que hay que eliminar, por no encajar dentro de ningún bloque, lo que puede llevar a la pérdida de representatividad de la muestra final, y por lo tanto, a una disminución de la validez externa del estudio. 4.5.2 Diseños unifactoriales intragrupo Los diseños intragrupo, también llamados diseños intrasujetos o diseños de medidas repetidas, se caracterizan porque al mismo grupo de participantes se le aplican todos los niveles de la variable independiente de forma secuencial (uno detrás de otro) y cada participante proporciona más de una medida de la variable dependiente (al menos tantas medidas como condiciones experimentales tenga el estudio). La efectividad del tratamiento se estudia comparando entre sí las respuestas de los participantes en los distintos tratamientos. Este tipo de diseños, al igual que los diseños intergrupos, deben tener como mínimo dos condiciones experimentales. Cuando al mismo grupo de participantes se le aplican todos los tratamientos de forma secuencial, el orden o lugar que ocupa cada tratamiento dentro de una secuencia experimental puede alterar los resultados, ya que, una vez aplicado el primer tratamiento, los tratamientos siguientes pueden quedar afectados por los tratamientos previos. A estos efectos se les denominan efectos de orden y efectos residuales. Los efectos de orden, también llamados error progresivo pueden provocar aprendizaje y aumentar el efecto de la variable independiente Secuencia experimental: conjunto ordenado de tratamientos que se aplica a cada participante o grupo de participantes. Secuencia total: conjunto de todas las secuencias experimentales u órdenes posibles de tratamientos. Por ejemplo, si tenemos dos tratamientos y aplicamos la técnica de contrabalanceo intrasujeto, el número de secuencias experimentales será dos (AB y BA) y la secuencia total será ABBA. Métodos y diseños experimentales favoreciendo los resultados del estudio (efecto de práctica) o pueden provocar cansancio, falta de motivación, monotonía, etc. y perjudicar los resultados del estudio (efecto de fatiga). Estos efectos se pueden controlar con la técnica de contrabalanceo, que trataremos en el apartado siguiente. Los efectos residuales, también denominados de persistencia o de arrastre se producen por la aplicación secuencial de los tratamientos: una vez aplicado un tratamiento, puede ocurrir que este tenga efectos temporales o permanentes que se solapen con los tratamientos siguientes. Es decir, cuando se le aplica al participante un tratamiento aún no se le ha pasado el efecto del anterior. Este efecto se puede controlar espaciando el tiempo entre los tratamientos. Así, en el ejemplo del Cuadro 4.5, vemos que para evitar que la administración de una concentración del aroma tenga efectos sobre la siguiente administración del aroma, se deja un intervalo de tiempo entre ellas y para evitar los efectos de orden se aplican las seis concentraciones ordenadas de forma aleatoria a cada participante. El diseño utilizado en el estudio del Cuadro 4.5 es unifactorial intragrupo multivariado ya que está constituido por un solo grupo donde todos los participantes pasan por todas las condiciones o niveles de la variable independiente (seis concentraciones de olor a pino) para ver su efecto en dos variables dependientes (el grado de agrado percibido y la tasa cardiaca). Al ser un diseño intragrupo, la variabilidad debida a las diferencias individuales se ha controlado por la técnica de sujeto como control de sí mismo; esta técnica es inherente a este tipo de diseños, ya que al aplicarle a todos los participantes todos los tratamientos (las seis concentraciones de olor), las variables extrañas de sujeto se mantienen constantes en todas las condiciones. También se ha controlado el efecto residual espaciando las concentraciones de olor a pino y el efecto del error progresivo mediante la técnica de contrabalanceo intragrupo incompleto aleatorio. Esta técnica la trataremos en el siguiente apartado. Entre las ventajas que presenta la estrategia intragrupo respecto a la estrategia intergrupos se encuentran la utilización de muestras más pequeñas y el que se controlan las variables extrañas relacionadas con las diferencias individuales, ya que, al actuar el sujeto como control de sí mismo, en el supuesto de que alguna variable de sujeto pudiera influir en los resultados esta influencia sería igual en todas las condiciones. Por ello, en estos diseños se controla mejor la varianza sistemática secundaria y se disminuye la varianza error. El mayor inconveniente de estos diseños es que los posibles efectos de la repetición de pruebas, y en concreto, los efectos del orden de aplicación de los tratamientos pueden disminuir su validez interna si no se controlan adecuadamente. Para analizar los datos se puede utilizar, entre otras pruebas, la t de Student para medidas relacionadas (compararemos dos medias) o un ANOVA de un factor de medidas repetidas, dependiendo de que la variable independiente tenga dos o más valores, o sus equivalentes no paramétricos si no se cumplen los supuestos de las pruebas paramétricas. 4.5.2.1 Técnica de contrabalanceo La técnica de contrabalanceo, equiponderación o reequilibrado aglutina un conjunto de estrategias que tienen como objetivo mantener constante el grado de error progresivo en todas las condiciones experimentales. Está técnica es muy parecida a la técnica de constancia: trata de mantener constante el error progresivo en todos los tratamientos. La lógica de cómo mediante esta técnica se mantiene constante el error progresivo se basa en el supuesto de la existencia de una relación lineal entre el grado de error progresivo y la posición que ocupa cada tratamiento dentro de la secuencia total (a medida que aumenta el orden del tratamiento dentro de la secuencia, aumenta el error progresivo). Existen tantos grados o niveles de error progresivo como tratamientos y cada tratamiento tendrá tantas unidades de error progresivo como la suma de sus respectivos niveles. Con esta técnica los tratamientos se ordenan de tal modo que el error progresivo se distribuye equitativamente entre todas las condiciones. Vamos a verlo con un ejemplo: supongamos que tenemos tres tratamientos ABC, para que todos los tratamientos tengan el mismo grado de error progresivo tenemos que contrabalancear el orden en el que se aplican los tratamientos (primero se aplican en un orden determinado y después en el orden inverso), en nuestro caso sería ABCCBA; de esta forma, el grado de error progresivo acumulado en los distintos puntos (tratamientos) de la secuencia total de aplicación de los tratamientos es el mismo: Si sumamos las unidades de todos los grados de error progresivo de cada tratamiento vemos que todos los tratamientos tienen el mismo grado de error progresivo: Suma del grado de error progresivo de cada tratamiento A=0+5=5 B=1+4=5 C = 2 + 3= 5 Por lo cual, aplicando la técnica de contrabalanceo, se ha mantenido constante el grado de error progresivo en todas las condiciones experimentales. Es decir, se ha distribuido por igual el grado de error progresivo a lo largo de la secuencia total. Para aplicar esta técnica, suponiendo que tenemos dos tratamientos A y B, el investigador asigna dos secuencias de orden seguidas (una y su inversa) al mismo participante o bien asigna un orden diferente a cada subgrupo de la muestra (grupo) de participantes. En las Figuras 4.8 y 4.9 se muestran estas dos estrategias. Estas dos posibilidades constituyen las formas básicas de contrabalanceo: contrabalanceo intrasujeto (Figura 4.8) y contrabalanceo intragrupo (Figura 4.9). A su vez el contrabalanceo intragrupo se puede aplicar de diferentes formas (Cuadro 4.6). Vamos a detenernos en cada una de ellas. 4.5.2.1.1 Contrabalanceo intrasujeto o de simetría Controla el efecto de error progresivo de forma individual (en cada sujeto), haciendo que cada participante reciba en primer lugar las condiciones o tratamientos en un determinado orden, y a continuación en orden inverso. Si tenemos tres condiciones ABC, se ordenarán de la siguiente forma: ABCCBA. Es decir, se aplicará a cada participante primero el orden ABC y, a continuación, el orden CBA (Cuadro 4.7). Es útil cuando la variable independiente tiene pocos niveles, pero no cuando tenemos muchos tratamientos debido a que al recibir cada participante más de una vez cada tratamiento aumenta mucho el tiempo de la tarea experimental. Para salvar este inconveniente se puede utilizar la técnica de contrabalanceo intragrupo. 4.5.2.1.2 Contrabalanceo intragrupo Con esta técnica se controla el efecto de error progresivo en el grupo y no en el ámbito individual como en el contrabalanceo intrasujeto. En el contrabalanceo intragrupo se divide el grupo en varios subgrupos y se aplica a cada uno de ellos una secuencia diferente. En función de que se utilicen todas las secuencias posibles de órdenes de los tratamientos o solamente algunas, tendremos el contrabalanceo intragrupo completo o el contrabalanceo intragrupo incompleto. 4.5.2.1.2.1 Contrabalanceo intragrupo completo En este caso hay que utilizar todas las permutaciones posibles de las posiciones u órdenes de los tratamientos. Por tanto, el número de secuencias posibles será el factorial del número de condiciones. Una vez que tenemos establecidas las secuencias, dividimos la muestra de participantes en subgrupos, y asignamos aleatoriamente una secuencia diferente a cada subgrupo. Si en el ejemplo de la investigación anterior (Cuadro 4.7) utilizamos la técnica de contrabalanceo intragrupo completo, en lugar de la intrasujeto empleada, tendríamos que seguir el siguiente procedimiento: Métodos y diseños experimentales 1. Establecer el número de permutaciones posibles o secuencias de tratamientos. Como tenemos tres tratamientos: 3! = 3 x 2 x 1 = 6. Estas secuencias serían: ABC, BCA, CAB, ACB, BAC, CBA. 2. Dividir la muestra en tantos subgrupos como número de secuencias posibles haya, y aplicar una secuencia diferente a cada subgrupo. Como cada subgrupo tiene que tener como mínimo un participante y todos los subgrupos tienen que tener preferiblemente el mismo número de participantes: en nuestro caso tendríamos 30 : 6 = 5 participantes en cada subgrupo. Aleatoriamente asignamos una secuencia diferente a cada subgrupo de cinco participantes cada uno: Subgrupo 1---------- Secuencia ACB Subgrupo 2---------- Secuencia BCA Subgrupo 3---------- Secuencia ABC Subgrupo 4---------- Secuencia CBA Subgrupo 5---------- Secuencia CAB Subgrupo 6---------- Secuencia BAC Este tipo de contrabalanceo no resulta adecuado cuando el número de tratamientos es grande, ya que el número de secuencias posibles va aumentando sensiblemente a medida que aumenta el número de tratamientos. Cuando el número de secuencias posibles supera el número de participantes disponibles ya no es viable la aplicación del contrabalanceo completo, por lo que entonces tendríamos que utilizar alguna forma de contrabalanceo incompleto. 4.5.2.1.2.2 Contrabalanceo intragrupo incompleto Se caracteriza porque solo se aplican a los participantes algunas secuencias de tratamientos, en lugar de todas las secuencias posibles como sucedía en el contrabalanceo intragrupo completo. Existen dos estrategias diferentes para elegir las secuencias concretas a aplicar: contrabalanceo con estructura de cuadrado latino y contrabalanceo aleatorio. El contrabalanceo con estructura de cuadrado latino consiste en utilizar sólo tantas secuencias como tratamientos haya en el experimento, seleccionando aquellas que garanticen que cada tratamiento ocupe cada una de las posiciones de orden Fundamentos de investigación en Psicología posibles y solo una vez. Cada secuencia se administra a un subgrupo diferente de participantes. El conjunto de estas secuencias da lugar a una estructura de cuadrado latino con tantas filas y columnas como número de tratamientos se utilicen en el experimento. Su estructura se basa en que cada condición tiene que aparecer una sola vez en cada fila y en cada columna, de forma que cada condición aparezca una sola vez en cada posición ordinal. Si en el ejemplo de investigación del Cuadro 4.7 en lugar de tres tratamientos tuviéramos cinco tratamientos ABCDE, tendríamos 120 secuencias posibles. Claramente necesitamos acudir a un contrabalanceo incompleto. Si quisiéramos aplicar la técnica de cuadrado latino tendríamos que hacer lo siguiente: 1. Establecer tantas secuencias como números de tratamientos. Cada secuencia se forma rotando la condición inicial de la primera secuencia hasta el final y así sucesivamente hasta obtener el número de secuencias deseadas. En nuestro caso tendríamos cinco secuencias: ABCDE BCDEA CDEAB DEABC EABCD El tratamiento A aparece primero en la secuencia ABCDE, en quinto lugar en la BCDEA, en cuarto lugar en la CDEAB, en tercer en la DEABC, y en segundo lugar en la EABCD. Es decir, cada secuencia tiene todos los tratamientos, y en el conjunto de secuencias este tratamiento solo ocupa una misma posición una vez; y esto es también así para el resto de tratamientos. 2. Como tenemos cinco tratamientos dividimos la muestra en cinco subgrupos, obteniendo 30 : 5 = 6 participantes por subgrupo y asignamos una secuencia diferente a cada subgrupo. Métodos y diseños experimentales La técnica de contrabalanceo aleatorio consiste en seleccionar al azar de todas las secuencias posibles tantas como número de participantes haya en la muestra y asignar aleatoriamente una de estas secuencias seleccionadas a cada participante. Por ejemplo, supongamos que en la investigación del Cuadro 4.7, tenemos cinco tratamientos ABCDE. Como el número total de secuencias sería 120 (5! = 5 x 4 x 3 x 2 x 1 = 120) y solo tenemos 30 participantes, elegimos aleatoriamente 30 secuencias y asignamos al azar una diferente a cada participante. Otra forma de aplicar el contrabalanceo aleatorio es asignar aleatoriamente el orden de los tratamientos a cada participante, sin necesidad de formar previamente las secuencias. Esta fue la técnica aplicada en el ejemplo del Cuadro 4.5, en el que a cada participante se le suministraban directamente las seis concentraciones de olor a pino de forma aleatoria saltándose el paso intermedio de formar las secuencias. Este tipo de contrabalanceo aleatorio requiere un número alto de participantes para que pueda actuar correctamente el azar, por lo que en el estudio del Cuadro 4.7 no sería correcto utilizarlo y habría que aplicar el contrabalanceo de cuadrado latino. 4.6 DISEÑO FACTORIALES Con frecuencia nos encontramos en una investigación en la que pueden coexistir varios factores explicativos en la ocurrencia de un fenómeno psicológico, los cuales no se podrían estudiar individualmente en un diseño unifactorial; ya que se necesitaría someter a contrastación empírica hipótesis sobre la influencia de dos o más factores sobre una o más de una variable dependiente. Los diseños que estudian este tipo de hipótesis se denominan diseños factoriales. A las variables independientes se les suele denominar factores, de ahí el nombre del diseño: factorial. Este tipo de diseño se forma combinando los diferentes niveles de las variables independientes o factores, como veremos más adelante. Cada factor puede tener dos o más valores y cada tratamiento o condición experimental consiste en la combinación de los respectivos niveles de un factor con los niveles del otro factor (u otros factores). Al analizar simultáneamente dos o más factores en un solo experimento se puede estudiar el efecto de cada uno por separado, como si se tratase de un diseño unifactorial, pero también se puede estudiar el efecto de la combinación (interacción) de los niveles de los diferentes factores sobre la respuesta del participante. El experimento factorial más sencillo consta de dos factores con dos niveles cada uno, siendo al menos uno de los factores de manipulación intencional. En función de la estrategia que se utilice en la formación de los grupos estos diseños pueden ser intergrupos, intragrupos y mixtos. Los diseños factoriales se codifican en función del número de factores y del número de niveles de cada factor: así, si el diseño tiene dos factores se le denomina diseño factorial A x B, donde A reflejará el número de niveles de un factor y B el número de niveles del otro factor. Por ejemplo, el diseño factorial 2x3 tendría dos factores: el primero tendría dos niveles y el segundo tres. Si, por ejemplo, en un estudio queremos ver cómo influye el tipo de escenario y la ansiedad de los participantes al impartir una conferencia tendremos dos factores, escenario y ansiedad. El factor escenario puede tener dos valores, conferencia virtual y conferencia con oyentes presenciales. El factor ansiedad puede tener tres valores, alta, media y baja. El número de condiciones sería igual al producto de los niveles de los factores, en nuestro caso serían seis condiciones. Si el diseño tuviera tres factores se denominaría diseño factorial A x B x C. Así, un diseño factorial 3 x 4 x 2 tendría tres factores: el primero tendría 3 niveles, el segundo 4 y el tercero 2. El número de condiciones sería 24. Como se deduce de estos ejemplos, a medida que aumenta el número de factores y el número de niveles de cada factor aumenta el número de condiciones y la dificultad para realizar, controlar, analizar e interpretar el experimento. En función de que se utilicen o no todas las combinaciones posibles de todos los niveles de todos los factores los diseños factoriales se denominan completos o incompletos. En el Tabla 4.9 representamos un diseño factorial A x B (2 x 3), donde A tiene dos valores (a1 y a2) y B tiene tres valores (b1, b2 y b3). Este diseño se suele representar en una tabla de doble entrada donde todos los niveles del factor de las filas se combinan con todos los niveles del factor de las columnas. Cada celda representa una condición experimental o tratamiento. Para saber el número de celdas que tenemos hay que multiplicar los niveles de las variables independientes. Estos diseños son más eficientes en cuanto al uso de los recursos, ya que se utiliza una sola muestra de participantes para evaluar simultáneamente los efectos de dos o más factores y los efectos de cada uno de ellos con la misma precisión que en los diseños unifactoriales. Por ejemplo, supongamos que se quiere comprobar cómo influye las horas de sueño y el lugar por donde se conduce en la habilidad para conducir en una muestra de 180 participantes. Para ello tenemos como variable dependiente el número de errores al conducir en una cabina de simulación y como variables independientes o factores las horas de sueño (3 y 8 horas) y tres escenarios diferentes para conducir (ciudad, carretera y autopista). Podríamos hacer dos estudios unifactoriales: en uno estudiaríamos la influencia de las horas de sueño sobre la habilidad de conducir; y en otro, veríamos cómo influye el lugar por donde se conduce en la habilidad para conducir. Pero todos sabemos que no se conduce igual, cuando tenemos sueño, por una autopista que por una ciudad. Es decir, es muy probable que en la habilidad de conducir influyan de forma conjunta los dos factores, Por lo cual deberíamos utilizar un diseño factorial para comprobarlo. En concreto, utilizaríamos un diseño factorial 2 x 3, con seis condiciones o tratamientos y seis grupos con 30 participantes cada uno. La representación simbólica de este diseño se muestra en la Tabla 4.10 donde observamos que las seis condiciones del estudio representan las seis combinaciones posibles de los dos factores. A la influencia por separado de cada una de las variables independientes sobre la variable dependiente se le denomina efecto principal, y al efecto combinado de las variables independientes sobre la dependiente se le denomina efecto de interacción. El efecto principal es el efecto que nos revelaría un diseño unifactorial, el cual compara entre sí los diferentes niveles de la variable independiente. En un estuFundamentos de investigación en Psicología dio existen tantos posibles efectos principales como variables independientes incluya la investigación. Así, en un diseño factorial A x B, habría dos posibles efectos principales: efecto principal de A y efecto principal de B. Siguiendo con el ejemplo anterior, tendríamos el efecto principal de las horas de sueño y el efecto principal del lugar de conducción. La hipótesis del efecto principal de cada una de las variables independientes sería: ——Los participantes que duermen 3 horas cometerán más errores conduciendo que los participantes que duermen 8 horas. ——Los diferentes entornos de conducción (ciudad, carretera o autopista) pueden provocar diferencias en el número de errores en la conducción. Una vez que un efecto principal es significativo conviene hacer comparaciones en las medidas de la variable dependiente bajo los diferentes niveles de la variable independiente (si son más de dos) para ver entre qué niveles concretos se dan las diferencias que ha reflejado el resultado significativo del efecto principal. Cuando la variable independiente solo tiene dos niveles no procede buscar diferencias entre los dos niveles, ya que, si existen efectos principales, la diferencia solo puede ser entre ellos dos. El efecto de interacción consiste en que el efecto de una variable independiente sobre la conducta cambia en función de los valores que toma la otra u otras variables independientes. Se representa mediante la expresión efecto de interacción seguida de la representación multiplicativa de las variables que intervienen en la investigación. Por ejemplo, en un diseño A x B sólo podríamos tener el efecto de interacción A x B. Sin embargo, en un diseño A x B x C tendríamos los siguientes posibles efectos de interacción: A x B, A x C, B x C y A x B x C. A medida que aumenta el número de factores aumenta el número de posibles interacciones, dado que estas surgen de la combinación de cada factor con todos los demás. Tendríamos tantas hipótesis del efecto de interacción como posibles interacciones nos permita el diseño: ——El efecto de las horas de sueño sobre la habilidad de conducir dependerá del entorno de conducción. El efecto de interacción se detecta con el análisis estadístico de los datos. No obstante, en general siempre que nos encontremos que la representación gráfica de los resultados del estudio muestra líneas paralelas podemos afirmar que no existe interacción entre las variables, mientras que si las líneas no son paralelas se refleja En ambos gráficos, cada línea representa los valores de una variable independiente: azul (8 horas de descanso), roja (3 horas de descanso). En el gráfico de la izquierda las líneas roja y azul son paralelas. Esto indica, que la influencia de una variable independiente (horas de descanso) sobre la variable dependiente (número de errores) no está en función de los valores de la otra variable independiente. Es decir, en este gráfico se indica que el número de errores cuando se descansa tres horas es siempre mayor que cuando se descansa 8 horas y en ambos casos el número de errores es mayor en la ciudad que en los otros dos escenarios, no hay interacción con el entorno de la conducción. En el gráfico de la derecha las líneas no son paralelas, el orden de las líneas cambia y se encuentran. Este gráfico indica que hay interacción porque cuando se duerme 8 horas, el número de errores en la conducción (variable dependiente) en ciudad y carretera es menor que cuando se duerme tres horas, sin embargo, el número de errores en autopista es similar que cuando se duerme 3 horas. Es decir, la influencia del número de horas de descanso sobre los errores de conducción varía en función de los valores de la otra variable independiente (entorno de conducción). A pesar de que se pueden utilizar, dependiendo del nivel de medida de la variable dependiente, más de una técnica para el análisis de este tipo de diseños, la más habitual es el análisis de varianza (ANOVA) de dos o más factores dependiendo del número de variables independientes que utilicemos. En función de que el diseño factorial sea intergrupos, intragrupo o mixto el ANOVA será de muestras independientes, relacionadas o mixto. Fundamentos de investigación en Psicología Antes de terminar este apartado y centrarnos en las características de los tres tipos de diseños anteriores, vamos a destacar tres ventajas de los diseños factoriales respecto a los diseños unifactoriales: ——La primera está relacionada con lo que se pretende estudiar: el comportamiento. Este es muy complejo, en él intervienen múltiples variables que normalmente interactúan entre sí. El diseño factorial nos permite evaluar conjuntamente los efectos de varias variables y su interacción sobre la conducta y los efectos de cada variable independiente de forma aislada. ——La segunda es que se utiliza la misma muestra de participantes para evaluar simultáneamente los efectos de dos o más variables independientes. Por esto, los diseños factoriales son más eficientes en cuanto al uso de los recursos, ya que permiten obtener más información con menos participantes. ——La tercera ventaja está relacionada con la varianza error. Al estudiar varias variables independientes, los efectos asociados a la influencia de esas variables se sustraen del término de error. En consecuencia, se reduce la varianza error y se incrementa la potencia de la prueba estadística. 4.6.1 Diseños factoriales intergrupos Se caracterizan porque todos los factores o variables independientes son intergrupos (cada condición experimental se aplicará a un grupo diferente de participantes). La formación de los grupos se hace por asignación aleatoria o utilizando la técnica de bloqueo. Cuando se utiliza esta última, en cada bloque tiene que haber como mínimo tantos participantes como tratamientos o condiciones experimentales. El diseño se denomina equilibrado si todas las condiciones tienen el mismo número de participantes, y se denomina no equilibrado cuando el número de participantes es diferente en cada condición. En el Cuadro 4.8 mostramos un ejemplo ficticio de una investigación. En ella se ha utilizado un diseño factorial intergupo univariado 2 x 3 con dos variables independientes, seis condiciones y una variable dependiente (conductas agresivas). Uno de los factores es de selección de valores (raza de las ratas) y el otro es de manipulación intencional (cantidad de tiempo de privación de agua). Se ha utilizado la técnica de control de constancia para controlar la variable extraña sexo de las ratas. Los resultados muestran que se dan dos efectos principales y no se da efecto de interacción: cada una de las variables independientes influye por separado en la agresividad de la rata; pero el efecto de la variable tipo de raza no influye en la agresividad de la rata dependiendo de la cantidad de tiempo de privación de agua o, dicho de otra forma, el efecto de la privación de agua sobre la agresividad no depende de si la rata es de raza Sprague Dawele o si es de raza Long Evans. 4.6.2 Diseños factoriales intragrupo En estos diseños todas las condiciones se aplican sucesivamente al mismo grupo ya que todos los factores o variables independientes son intragrupo. Igual que en la estrategia unifactorial intragrupo, en estos hay que controlar los efectos residuales, espaciando la aplicación de las condiciones; y los efectos de error progresivo, utilizando la técnica de contrabalanceo. Métodos y diseños experimentales El diseño es factorial 2 x 3 intragrupo univariado porque estudia la influencia de dos factores con dos niveles el primero y tres el segundo (nivel de somnolencia y grado de dificultad de la tarea) sobre una variable dependiente (rendimiento, operativizado por la proporción de aciertos en la tarea de vigilancia). Es intragrupo porque al mismo grupo de participantes se le aplican todas las condiciones experimentales. La privación parcial de sueño no tuvo la repercusión esperada sobre el rendimiento. Si nos fijamos en la representación gráfica vemos que en la proporción de aciertos apenas influye el nivel de somnolencia cuando el nivel de dificultad de la tarea es mínimo y medio. Sin embargo, cuando el nivel de dificultad es máximo la proporción de aciertos de los participantes que duermen 4 horas es muy superior a la de los que duermen 8 horas. Ello indica que se da un efecto de interacción entre ambos factores. El efecto de una variable, la privación del sueño, varía según el nivel de dificultad de la tarea, ya que se produce un aumento de la capacidad de vigilancia en la condición que combina un alto grado de dificultad de la tarea con pocas horas de sueño. 4.6.3 Diseños factoriales mixtos El diseño factorial mixto combina, en un mismo experimento, el procedimiento del diseño intergrupos y el procedimiento del diseño intragrupo. Es decir, a algunos participantes se le aplican todos los tratamientos y a otros solo alguno. En un diseño mixto AxB cada participante pasaría por un solo nivel de la variable A y todos los participantes pasarían por todos los niveles de la variable B o viceversa. Al ser una combinación de las dos situaciones, hay que utilizar tanto las técnicas de control propias de la estrategia intergrupos como las de la estrategia intragrupo. En el estudio del Cuadro 4.10 tenemos dos variables independientes: una de ellas es intragrupo y de manipulación intencional (fosa nasal: izquierda y derecha); y la otra es intergrupos y de selección de valores (personas con enfermedad de Parkinson y personas sanas). La variable dependiente es la sensibilidad olfativa, medida por la proporción de aciertos en la identificación de olores. Para determinar el efecto de las dos variables independientes sobre la dependiente se ha utilizado un diseño factorial mixto 2 x 2 univariado. El número de condiciones es igual al producto de los niveles de los dos factores (2 x 2 = 4). Todos los participantes pasan por los dos niveles de la variable intragrupo y la mitad de los participantes corresponden a un nivel de la variable intergrupos y la otra mitad al otro nivel de dicha variable (hay dos grupos diferentes: grupo con personas con enfermedad de Parkinson y grupo de personas sanas). Los resultados muestran que se da un efecto de interacción entre ambas variables: el grupo con enfermedad de Parkinson obtiene una proporción de aciertos menor con la fosa nasal izquierda mientras que el grupo de personas sanas obtiene la misma proporción de aciertos con las dos fosas nasales.