Variables, Operacionalización y Escalas de Medida PDF

Summary

This document discusses variables, their operationalization, and measurement scales in research. It covers different types of variables, including independent, dependent, and extraneous variables, and explains how they relate in both causal and non-causal relationships. It also explores operational definitions, types of manipulation (artificial and natural), and levels of measurement (nominal, ordinal, interval, ratio).

Full Transcript

Variables, operacionalización, manipulación y escalas de medida Juan Carlos Argibay Variable: Es cualquier propiedad o característica del organismo o del ambiente que pueda variar, adoptando por lo menos dos valores diferentes, debiendo ser di...

Variables, operacionalización, manipulación y escalas de medida Juan Carlos Argibay Variable: Es cualquier propiedad o característica del organismo o del ambiente que pueda variar, adoptando por lo menos dos valores diferentes, debiendo ser dichos valores mutuamente excluyentes entre sí. Categoría o valor: los distintos estados o variaciones que asume una variable. Por ejemplo, si tomamos la variable edad, cada uno de sus valores son las distintas edades (por ej. 20 años). En el caso de la variable nivel de estudio alcanzado, cada uno de estos niveles serían las distintas categorías (por ej. Secundario completo). Clasificación de las variables en el contexto de una relación causal. En el contexto de una relación causal las variables se pueden clasificar en:: Variables independientes Variables contaminadoras o extrañas Variables dependientes Esta clasificación se aplica a relaciones de Causa y Efecto. En esta relación el lugar de la causa lo ocupa la variable independiente y el lugar del efecto la variable dependiente. También son posibles causas las variables contaminadoras o extrañas. Cuando hacemos una investigación que implique una relación causal y elegimos el fenómeno a estudiar, que sería la variable dependiente (el efecto), vamos a tener un conjunto amplio de variables que pueden ser su causa. Esto variará de una variable dependiente a otra, ya que cada variable dependiente tendrá sus propias causas. En ese conjunto de variables que son factores causales para una variable dependiente en particular se encuentran las variables independientes y las contaminadoras. Podemos decir entonces que las variables causales (también llamadas variables relevantes) son aquellas que modifican o afectan de alguna manera a determinada variable dependiente. De manera que las variables causales son tales, en relación a determinada variable dependiente. Una variable podrá ser causal para determinada/s variable/s dependiente/s y no para otra/s. Las variables causales o relevantes incluyen a las independientes y a las contaminadoras o extrañas. De ese conjunto de causas que son las variables causales, cuando vamos a hacer una investigación elegimos una o varias para estudiar en esa investigación. Estas son las variables independientes. Entonces, la variable independiente es una supuesta causa de la variable dependiente (que es el efecto) y es seleccionada entre todas las variables causales para ponerla a prueba en una investigación. Es la variable cuya variabilidad explicaría la variabilidad de la variable dependiente. Y la variable dependiente es aquella en la que se esperan observar los efectos producidos por los cambios en la variable independiente. O sea, que es la variable que variaría en función de la variabilidad que presente la variable independiente. En cuanto a las variables contaminadoras, al elegir de las variables causales una o varias como variables independientes para poner a prueba en la investigación, automáticamente todas las demás variables causales pasan a ser consideradas variables contaminadoras o extrañas, que pueden seguir produciendo efecto sobre la variable dependiente. De este modo, cuando manipulemos la variable independiente, si no evitamos que las variables contaminadoras afecten a la dependiente, no podremos saber si los cambios observados en ésta se deben a la variable independiente o a las contaminadoras. Para evitar esto, es necesario controlar a las variables contaminadoras para que no produzcan efecto sobre la dependiente. Podemos decir entonces que las variables contaminadoras o extrañas son todas aquellas variables que pueden afectar a la variable dependiente y que no fueron seleccionadas como variables independientes en una investigación. O sea, que una variable puede ser contaminadora o extraña en una investigación y ser una variable independiente en otra. La variable dependiente la elegimos en función del fenómeno que queremos investigar. Las variables causales o relevantes no lo son per se, sino en función de la variable dependiente elegida. Y las variables independientes y las contaminadoras, tampoco lo son per se, sino en función de la estructura planteada para la investigación y de la hipótesis de la misma. Clasificación de las variables en el contexto de una relación NO causal. En una relación no causal no hay variable independiente ni variable dependiente, ya que estás implican relación de causalidad. Igualmente hay que tener en cuenta que aunque la relación no sea de causalidad, al establecer una relación, se pueden predecir los valores de una variable a partir de otra/s. Cuando relacionamos varias variables con otra o cuando en una relación bivariada usamos una de las variables para predecir la otra, se llama predictor/es a la/s variable/s que se utiliza/n para predecir y se llama criterio a la variable que se va a predecir a partir de la/s anterior/es. Cabe aclarar que el término variable criterio se utiliza también en algunos casos como sinónimo de variable dependiente (especialmente en los diseños factoriales). Por lo tanto, el sentido con que se usa el término lo determina el contexto del método en el cual se usa. En términos generales, si quisiéramos establecer un paralelismo entre esta clasificación (para relaciones no causales) y la anterior (para relaciones causales), el predictor sería equivalente a la variable independiente y el criterio a la variable dependiente. Cuando en una relación no causal bivariada no se plantea ninguna de las dos variables como predictora de la otra, podemos hablar de variables asociadas. El predictor y el criterio también son variables asociadas, pero como en este caso vamos a usar una para predecir a la otra, entonces directamente hablamos de predictor y criterio. En las relaciones no causales también se pueden controlar variables que intervengan en la relación entre las variables en estudio. Son variables asociadas que no forman parte de la relación en estudio, pero que se puede y es deseable controlarlas. Constructo hipotético y operacionalización Las variables planteadas a nivel teórico constituyen constructos hipotéticos. Estos son conceptos creados deliberadamente con fines científicos. Las teorías incluyen constructos hipotéticos, como Inteligencia, ansiedad, memoria, depresión, etc. Una característica importante de los constructos hipotéticos es que son inobservables. En una hipótesis teórica, sus términos están planteados como constructos hipotéticos; pero para llevar a cabo esa investigación, hay que contrastar empíricamente lo planteado en la hipótesis. Como no se puede contrastar empíricamente (con los hechos observables) algo que es inobservable, es necesario transformar ese constructo hipotético inobservable en un término empírico que sería observable. A este paso de un término teórico a un término empírico se lo denomina operacionalización. La operacionalización consiste en indicar la forma en que el constructo hipotético se va a hacer observable, o sea, cómo la variable planteada a nivel teórico se va a trasladar a nivel empírico. Asimismo, cuando el término ya está planteado a nivel empírico, pero en forma imprecisa, la operacionalización consistiría en una exactificación del término empírico. Tipos de definiciones operacionales Hay dos tipos de definiciones operacionales: Definición operacional experimental: nos describe el tipo de acciones que deberá llevar a cabo el investigador a fin de producir los valores de la variable o en algunos casos los criterios a seguir para aplicar dichos valores. Por ejemplo, si uno va a poner a prueba el efecto de una psicoterapia, la operacionalización experimental nos indicaría los procedimientos que habría que llevar a cabo para aplicar dicha psicoterapia. La definición operacional experimental se puede aplicar únicamente a las variables independientes y a las variables contaminadoras o extrañas. Definición operacional de medida: Describe cómo se medirá una variable. Se aplica a las variables dependientes (en todos los casos), pero también se puede aplicar a las variables independientes. Esto ocurriría por ejemplo cuando la variable independiente es imposible de operacionalizar experimentalmente. Por ej. si la variable independiente fuera inteligencia, no hay forma de operacionalizarla experimentalmente, ya que sus valores son propios del sujeto y el experimentador no tiene forma de decidir a su antojo qué nivel de inteligencia tendrá cada sujeto. Entonces no queda otra solución que recurrir a una operacionalización de medida, de manera que medimos la inteligencia de los sujetos y a partir de allí los podemos clasificar en distintos grupos en función de la medición realizada. También en el caso de las variables contaminadoras se pueden usar operacionalizaciones de medida. Esto sería principalmente, como en el caso anterior, porque la operacionalización experimental es imposible o en algunos casos también puede ser, porque pudiendo operacionalizarse de ambas formas, se opta por una operacionalización de medida. En las relaciones no causales, predictor y criterio tienen siempre operacionalizaciones de medida. Manipulación de la variable independiente La manipulación siempre remite a la variable independiente y es el conjunto de tareas que lleva a cabo el investigador para aplicar dicha variable. Tipos de manipulación Manipulación artificial (también se la llama intencional): es la aplicación de una operacionalización experimental de la variable independiente. Esto hace que el investigador pueda elegir libremente qué valores de la variable independiente va a utilizar en la investigación y además pueda elegir a qué sujetos o grupos de sujetos les va a aplicar esos valores. Un ejemplo podría ser la aplicación de diferentes intervenciones psicoterapéuticas. Manipulación natural (también se la llama de selección): es la aplicación de una variable independiente que tiene una operacionalización de medida. Lo que hace que el investigador pueda elegir libremente qué valores de la variable independiente va a utilizar en la investigación, pero lo que no puede elegir es a qué sujetos aplicar esos valores porque cada sujeto ya tiene en sí mismo el valor que le corresponde de la variable independiente. El investigador solamente mide la variable independiente y clasifica a los sujetos en los distintos grupos. Un ejemplo podría ser el que dimos antes en operacionalización de medida, que la variable independiente fuera el nivel de inteligencia. Definiciones Niveles: son los valores, las distintas categorías, que adopta la variable independiente. Tratamiento: es la aplicación a los sujetos de cada nivel de una variable independiente o de combinaciones de niveles de más de una variable independiente. Nivel de medición de las variables o escalas de medida Cada variable es tipificada en una escala en la cual se pueden incluir todos los valores que adopta. Hay distintos tipos de escalas con características diferentes que, a grandes rasgos, se pueden clasificar desde las más básicas a las más complejas en: Cualitativas: Se expresan en cualidades y pueden ser a su vez: - Escalas Nominales: la única propiedad que tienen estas escalas es la de diferenciar unas cosas de otras. Por ej. los números de las camisetas de los jugadores de futbol, distintas técnicas psicoterapéuticas. - Escalas Ordinales: a la propiedad anterior de diferenciar unas cosas de otras se le agrega que se puede establecer un orden jerárquico entre los valores de la escala. De este modo se puede precisar que un valor es mayor o menor que otro pero no se puede precisar cuánto mayor es o cuánto menor es. Por ej. nivel educativo alcanzado: se puede decir que secundario es más que primario, pero no se puede establecer con precisión cuánto mayor es. Cuantitativas: se expresan en números, que tienen valor de número, y pueden ser: - Escalas de intervalo y escalas de razón: a las propiedades de una escala ordinal se le agrega que se puede establecer con precisión cuánto mayor o cuánto menor es un valor de la escala respecto a otro. Lo que diferencia principalmente que sea de intervalo o de razón es el valor cero: en la escala de intervalo el cero es arbitrario, no significa necesariamente ausencia, mientras que en las de razón el cero es absoluto, significa sí o sí ausencia de la característica o propiedad que representa la variable. Por ej., la escala centígrada de temperatura es una escala de intervalo ya que su valor cero NO representa ausencia de temperatura. La mayoría de los tests psicológicos psicométricos se expresan en una escala de intervalo. Ejemplos de escalas de razón son la altura y el peso de una persona. También es una escala de razón la frecuencia con que se hace determinada conducta. Aclaraciones: Las escalas cuantitativas pueden ser descendidas a ser expresadas como ordinales. Por ej., si tomo un test que mida extraversión que se exprese con un puntaje y sea una escala cuantitativa de intervalo. Podría expresar ese puntaje como una escala ordinal de la siguiente manera, extraversión: baja - inferior al término medio - término medio - superior al término medio - alta. El pasaje contrario no se puede hacer, una escala que es esencialmente ordinal, como por ejemplo nivel de educación alcanzado, no se la puede hacer cuantitativa. No hay que confundir escalas cualitativas y escalas cuantitativas con metodologías cualitativas y metodologías cuantitativas, ya que, por ejemplo, en una investigación cuantitativa se puede usar cualquiera de las cuatro escalas. Igualmente, en muchos casos se privilegian las mediciones de las variables dependientes hechas en escalas cuantitativas, porque facilitan los cálculos estadísticos necesarios para analizar los datos. Lo mismo pasa con las variables a usar en el método correlacional: se prefiere, dentro de lo posible, que sean cuantitativas porque también son mejores para los cálculos estadísticos. Metodología de la Investigación I Clasificación de los métodos de investigación cuantitativos Vamos a desarrollar la clasificación de los métodos de investigación cuantitativos. Son distintos métodos que se diferencian en función del tipo de relaciones que se estudian, las características de sus diseños para llevar a cabo la investigación, los objetivos de la misma, el momento en el desarrollo de un tema de investigación, etc. Pero cabe acotar que, si bien son distintos métodos, los mismos están cruzados por una misma lógica, por determinados principios que los unifican como métodos cuantitativos. Podría decirse que los métodos cuantitativos vienen a ser como un tronco del cual salen distintas ramas que son las distintas formas metodológicas. En un primer panorama general podemos hacer la siguiente clasificación que después iremos desarrollando en esta clase y en clases subsiguientes: Vamos a empezar por los métodos más complejos, que son los métodos explicativos. ¿A qué nos referimos cuando hablamos de métodos explicativos? Básicamente son los métodos que investigan, ponen a prueba, relaciones de causalidad. Cuando tenemos una hipótesis experimental que plantea una relación de causa y efecto entre las variables, recurrimos a estos métodos, ya que son los únicos que pueden poner a prueba relaciones causales. Entre ellos se establecen diferencias en función del grado de validez interna que tienen. Vamos a aclarar lo anterior: una relación causal es una relación de causa y efecto en la cual, como vieron en Variables (en la clasificación metodológica de éstas), la causa es la variable independiente (aclarando que podemos tener más de una) y el efecto es la variable dependiente, que también puede ser más de una en los diseños univariados-multivariados o multivariados-multivariados (conceptos que verán en futuras clases). En cuanto a la validez interna, si bien es un tema que vamos a desarrollar en futuras clases con más detalle, voy a hacer ahora una breve aproximación al respecto. Habíamos visto en una clase anterior que en la clasificación metodológica de las variables, teníamos una variable dependiente que podía verse afectada por distintas causas vinculadas a ella. Estas causas eran las variables relevantes. De ellas, elegimos una o varias como variables independientes a poner a prueba en la investigación, mientras que todas las demás variables relevantes pasan a ser consideradas automáticamente variables contaminadoras. Son variables contaminadoras porque no dejan de estar presentes cuando elegimos la/s variable/s independientes, sino que pueden seguir produciendo efecto sobre la variable dependiente. Si eso es así, cuando manipulemos la variable independiente (de aquí en más se menciona variable independiente en singular pero recuerden que pueden ser más de una variable independiente), si no evitamos que las variables contaminadoras afecten a la dependiente, no podremos saber si los cambios observados en la dependiente se deben a la variable independiente o a las contaminadoras. Para evitar esto es necesario controlar a las variables contaminadoras, para que no produzcan efecto sobre la dependiente. Que esto se logre o no dependerá de cuán efectivos sean los controles que se implementen y esto determinará el grado de validez interna que se logre. Y digo el grado de validez interna, porque conseguir una validez interna absoluta, con la seguridad total de haber controlado todas las variables contaminadoras, si bien es el objetivo al que se apunta, no se podría saber con certeza que se hubiera logrado. Entonces podemos decir que la validez interna tiene que ver con el grado de seguridad que puedo tener de que los cambios observados en la variable dependiente son producidos por la variable independiente y no por variables contaminadoras. Obviamente este grado de seguridad tiene que ver con lo adecuado o no de los controles de variables contaminadoras que se hayan implementado. De manera que la validez interna se vincula directamente con el control de las variables contaminadoras o extrañas. Volviendo entonces a la clasificación de los métodos, si tenemos tres métodos diferentes de investigaciones explicativas es porque los mismos tienen diseños diferentes que brindan un control mejor o peor de las variables contaminadoras, afectando la validez interna de los mismos. Por esta razón, se puede decir que estos métodos se diferencian por el grado de validez interna que tienen, en función de lo adecuado de sus controles. Podemos ubicar a los métodos explicativos o experimentales en el siguiente esquema según su grado de validez interna: Cabe aclarar que estos son los métodos en un sentido general, después dentro de cada método hay diversidad de diseños de investigación, que los irán viendo en próximas clases. Vamos a empezar viendo el método experimental que es el más prototípico de los métodos de investigación. Experimento Un experimento tiene varias características: Hay una relación causal (la hipótesis es experimental). En la relación de causa y efecto, esos lugares los ocupan la variable independiente y la dependiente respectivamente. La manipulación tiene que ser necesariamente intencional. No puede haber ningún experimento que no tenga manipulación intencional. La manipulación de selección impide que la investigación constituya un experimento. Al haber una manipulación intencional es posible que haya una secuencia de tiempo. ¿Qué queremos decir con esto? En una relación causal, la causa precede al efecto. Al tener manipulación intencional, podemos aplicar primero la variable independiente y después observar que pasa con la dependiente, o sea, observar si la variable dependiente varía en función de la independiente de manera que los cambios que el investigador introduce en la variable independiente produzcan cambios en la dependiente. La variabilidad de la dependiente sería explicada por la variabilidad de la independiente. Y la manipulación intencional permite esta secuencia de tiempo donde la variable independiente se presenta antes que el efecto en la dependiente. Ahora, lo anterior por si solo ¿define un experimento? No, no lo define, porque si bien son características necesarias para un experimento, no son suficientes ya que también las podemos encontrar en los cuasiexperimentos y en los preexperimentos. Entonces, ¿qué más necesitamos para que una investigación sea un experimento? Dijimos que el experimento tiene máxima validez interna y que la validez interna tiene que ver con el control de variables contaminadoras. Entonces que sea un experimento depende de que el diseño de la investigación tenga un adecuado control de variables contaminadores. ¿Y de qué depende esto? Primero vamos a marcar una diferencia entre lo que podemos llamar controles específicos de variables contaminadoras y lo que serían los controles generales. ¿Cuál es la diferencia? Las variables contaminadoras para una variable dependiente en particular pueden ser muchas, algunas de ellas las conocemos y otras todavía son desconocidas. Cuando hacemos una investigación podemos identificar variables contaminadoras que es importante controlar y en ese caso podemos elegir una o más de estas variables y utilizar alguna de las técnicas de control (que las va a ver en la clase de control de variables contaminadoras), para controlar esa o esas variables en particular. Por ej., podríamos controlar, entre otras, inteligencia, ansiedad, extraversión, las condiciones ambientales de iluminación o de ruido, etc., siempre en función de que las variables sean relevantes para la dependiente que se estudia. Estos serían controles específicos, porque están dirigidos a controlar una o varias variables contaminadoras en particular, que han sido identificadas para ser controladas. Pero como dijimos, las variables contaminadoras pueden ser muchas más y algunas de ellas desconocidas, por lo cual no se pueden controlar infinidad de variables contaminadoras mediante controles específicos y mucho menos aquellas que nos son desconocidas. Para esto usamos los controles generales. Aclarado lo anterior, que retomaremos más adelante, volvemos a la pregunta: ¿De qué depende que una investigación tenga un adecuado control de variables contaminadoras? En una investigación explicativa son fundamentales las comparaciones, ya sea entre distintas medidas, entre distintos valores de la variable independiente. A estas comparaciones las vamos a llamar comparaciones formales. Tenemos tres tipos que vamos a ir desarrollando: Medida pretratamiento Comparación de grupos Medidas repetidas (lo van a ver más adelante como diseños de medidas repetidas: diseños intragrupo). Vamos a ir ejemplificando las dos primeras comparaciones con dos ejemplos sencillos. Un primer ejemplo podría ser el siguiente, supongamos que queremos poner a prueba una técnica psicoterapéutica para el tratamiento de la depresión, para evaluar su eficacia. Un segundo ejemplo: se desea implementar una investigación en el ámbito educativo, en la cual se quiere poner a prueba la eficacia de un taller para incrementar la motivación de los alumnos para que participen más en determinas actividades escolares. En el primer caso nuestra variable independiente es la técnica psicoterapéutica que se va a aplicar y la variable dependiente es la depresión. En el segundo caso, la variable independiente es el taller que se va a implementar y la variable dependiente tendría que ver con el incremento de la motivación que se expresaría en una mayor participación en las actividades escolares. En este caso, para simplificar, supongamos que lo que medimos específicamente es la participación en las actividades escolares. Vamos a esquematizar esto, aclarando que no vamos a seguir necesariamente la representación simbólica de los diseños que van a ver en otras clases y que figuran en varios de los textos de Pereda Marín. El motivo para no hacerlo es simplificar, por una cuestión didáctica, para un mejor entendimiento de lo queremos expresar. Supongamos que en el primer caso aplicamos la psicoterapia y luego medimos el nivel de depresión y en el segundo aplicamos el taller y luego medimos el nivel de participación. Pero para saber si realmente el taller y la psicoterapia fueron eficaces tenemos que comparar con algo. Podemos tomar una medida de la variable dependiente anterior a la aplicación de la variable independiente (llamada medida pretratamiento) y después compararla con la segunda medida de dicha variable (medida postratamiento). Entonces vamos a poder observar, en un caso, si hay una disminución en los niveles de depresión, y en el otro, si hay un incremento del nivel de participación. Esta es la primera comparación formal que habíamos mencionado: la medida pretratamiento (nivel de depresión/ nivel de participación antes que el investigador intervenga) se compara con la medida postratamiento (nivel de depresión/ nivel de participación después de aplicar las respectivas variables independientes). En algunos casos, cuando esto no es posible, se puede reemplazar la variable dependiente en la medida pretratamiento por una variable altamente correlacionada con ella. Pero, con este esquema. ¿Cómo podemos saber que no intervino alguna o varias variables contaminadoras entre la medida pretratamiento y la media postratamiento, y que la diferencia entre una y otra sea efectivamente explicada por la variable independiente y no por dichas variable/s contaminadoras? Respuesta: No lo podemos saber. Por ese motivo, la medida pretratamiento, si bien mejora los diseños de investigación, no es suficiente para asegurar un adecuado control de variables contaminadoras. De manera que la medida pretratamiento por sí sola, no hace que una investigación sea un experimento. Y un experimento puede tener o no medida pretratamiento, porque como acabamos de decir, eso no define que sea o no un experimento. Un ejemplo de lo anterior podría ser: supongamos que en el segundo ejemplo se constatara un incremento estadísticamente significativo entre las medidas pre y postratamiento (mayor participación que antes). ¿Eso demostraría necesariamente que el taller fue eficaz? No, ya que pudo haber intervenido alguna variable contaminadora. Por ej., podría haber ocurrido algún evento en coincidencia temporal con la aplicación del taller que esté por fuera de la investigación (cambios organizativos, administrativos o tecnológicos en la escuela) que en definitiva fueron los que produjeron el incremento de la participación, y no el taller. En ese caso asegurar la eficacia del taller sería un error. Entonces la primera comparación formal queda descartada para ser requisito para que una investigación sea un experimento. Continuemos entonces. Para ello, vamos a tomar un concepto mencionado con anterioridad: el control general de variables contaminadoras. Una variable dependiente puede verse afectada por numerosas variables contaminadoras, y cada variable dependiente tiene sus variables contaminadoras que le son específicas. Por ejemplo, si investigo sobre memoria, las contaminadoras pueden ser diferentes que si investigo sobre percepción o sobre trastornos de ansiedad. Por eso, si bien los controles específicos de variables contaminadoras son importantes para la validez interna, no definen que una investigación sea o no un experimento. Entonces vamos a los controles generales. Estos nos van a servir para que una investigación pueda ser un experimento. Estos controles generales idealmente pretenden controlar en forma masiva las variables contaminadoras, tanto las conocidas como las desconocidas. Y esto, ¿cómo lo conseguimos? Pasamos entonces a la segunda comparación formal, la comparación de grupos. Estas comparaciones tienen varias funciones, pero la que nos interesa para lo que estamos exponiendo es su función de control de variables contaminadoras. El control que nos permite es lo que mencionamos con anterioridad como control general. Retomamos los ejemplos anteriores incrementando el nivel de complejidad de los diseños: En este nuevo esquema tenemos un segundo grupo (podrían ser también tres, cuatro o más grupos). Este nuevo grupo funciona como grupo de comparación, que nos da un control general de variables contaminadoras. ¿Por qué motivo el grupo de comparación funciona como un control general? Supongamos lo siguiente: si realmente la psicoterapia A es más efectiva que la B, en el grupo 1 tendría que haber una disminución significativa de la depresión, mayor que en el grupo 2. Y en el segundo caso si el taller es eficaz, en el grupo 1 en el que se aplicó el taller, tendría que haber un significativo incremento de la participación, mientras que en el grupo 2, el nivel de participación tendría que haberse mantenido estable (similar a la medida pretratamiento). Ahora, en el primer caso, si interviniera alguna variable contaminadora que redujera el nivel de depresión más allá de la psicoterapia aplicada, y esto afectara a ambos grupos reduciendo los niveles de depresión, no habría diferencia entre ellos. Pero si la mayor reducción se observa en el grupo en que se aplicó determinada psicoterapia, eso tendría que deberse, en un principio, a la mayor eficacia de la misma, ya que justamente la diferencia entre los dos grupos es que en uno se aplica determinada psicoterapia y en el otro, una psicoterapia distinta. Entonces uno podría pensar que la diferencia se debe a los distintos valores aplicados de la variable independiente (Psicoterapia A vs Psicoterapia B); de lo contrario no habría diferencias. En este ejemplo, la comparación fue entre dos grupos experimentales, distintos valores de la variable independiente, que no incluían el valor ausencia (que no se aplique ninguna psicoterapia). Cuando colocamos entre paréntesis a1 y a2, la letra “a” está indicando valores de la variable y el número indica que se usan dos valores diferentes, distintos de 0. En el segundo caso se comparó un grupo donde se aplicó el taller (grupo experimental) con un grupo donde no se aplicó ningún taller -valor ausencia de la variable independiente-, que se indica con el número 0 (a0)-. Cuando no se aplica ningún valor de la independiente se lo llama grupo control. En este último ejemplo, si los cambios organizativos–administrativos-tecnológicos (variables contaminadoras) hubieran producido cambios en la participación (como, por ejemplo, su incremento), se deberían haber dado (en condiciones ideales) en ambos grupos, y no solamente en el que se aplicó el taller. Ahora, si en el grupo experimental se observa un incremento significativo de la participación y en el grupo control, la participación se mantiene estable, en principio se puede empezar a concluir que la variable independiente tuvo efecto, porque los grupos difieren en que en uno se aplicó el taller y en el otro no. Entonces, podemos decir que el grupo de comparación (ya sea grupo experimental o grupo control) permite hacer una comparación formal que sirve como forma general de control de variables contaminadoras, porque si éstas producen efecto en uno de los grupos, también deberían hacerlo en el otro (sacando excepciones) y no actuar en forma diferencial. Aclaramos que, en una investigación de solamente dos grupos, el grupo de comparación puede ser tanto experimental como control. Puedo tener por consiguiente dos grupos experimentales (en el primer caso) o un grupo experimental y un grupo control (segundo caso). Si la investigación tiene tres o más grupos, también pueden ser todos ellos experimentales o tener alguno de ellos como grupo control, incluso más de uno (como en el diseño de Solomon). Por ejemplo: si en el caso del taller se incluyera una segunda modalidad del mismo, para analizar la eficacia de ambos. En este punto, debemos preguntarnos si con esto ya tenemos un experimento. Y de nuevo la respuesta es NO. Recordemos que el experimento es el de mayor validez interna y en consecuencia el de mayor exigencia. Entonces, ¿por qué no puede ser un experimento? Veamos, tomemos el ejemplo del taller. Supongamos que los cambios organizativos -administrativos- tecnológicos introducidos en la escuela no afecten por igual el nivel de participación de los alumnos. Algunos, según su perfil de personalidad se podrían ver afectados de manera diferente. Los de perfil más extrovertido podrían incrementar su nivel de participación debido a estos cambios, pero los introvertidos no. Y supongamos también que en el grupo 1 donde se aplicó el taller hubiera muchos más extrovertidos que en el grupo 2. Deberíamos preguntarnos, aunque no se aplicara ningún taller y simplemente se realizaran estos cambios en la escuela, ¿qué pasaría con el nivel de participación en ambos grupos? Obviamente en el grupo 1 que hay más extrovertidos que en el grupo 2, el nivel de participación aumentaría, diferenciándose del grupo 2. Ahora superpongamos esto con la investigación, y que el taller se aplicara en el grupo 1 que tiene más extrovertidos. Se obtendría una diferencia que no sería por el taller, sino por la interacción entre la variable de sujeto mencionada (perfil de personalidad) y los cambios que tuvieron lugar en la escuela. Y aunque el grupo donde se aplicó el taller tuviera mayor participación, esto no se podría atribuir al taller, porque eso se debería a la mencionada interacción entre la extraversión y los cambios en la escuela. Lo anterior remite a que la comparación entre grupos se asienta en una premisa básica, que es que los grupos sean similares entre si en cuanto a las características de los sujetos que los componen. A esto lo denominamos equivalencia inicial de los grupos. Los grupos tienen que ser equivalentes, similares, no tienen que presentar diferencias en las variables de sujeto. Esto no quiere decir que los sujetos tengan que ser todos idénticos, sino que la variabilidad de sujeto, las diferencias individuales, estén repartidas de la misma manera en ambos grupos, que los grupos no difieran en las distintas variables de sujeto. Esto es importante para la validez interna, porque si los grupos no fueran equivalentes, las diferencias individuales podrían funcionar como variables contaminadoras que podrían producir diferencias entre los grupos, compitiendo directamente con la variable independiente. ¿Cómo nos podemos asegurar de esta equivalencia inicial de los grupos? No se puede saber con certeza que los grupos sean necesariamente equivalentes, pero podemos aproximar a esa equivalencia inicial, mediante la asignación de los sujetos al azar a los grupos. A esta técnica de control se la llama aleatorización, y consiste básicamente en usar el azar para seleccionar qué sujetos compondrán cada grupo. Evidentemente, está técnica no nos asegura con certeza que los dos grupos sean idénticos, pero es el mejor procedimiento conocido para controlar las diferencias individuales entre los grupos en forma masiva. Si lo que se quiere controlar es una o varias variables en particular, los controles específicos, que van a ver en la clase de control (eliminación, balanceo, constancia), son mucho mejores, pero sirven para un número reducido de variables. Para el control general, masivo, se requiere de la aleatorización. La aleatorización para asegurar la equivalencia inicial de los grupos funciona mucho mejor cuando los grupos son numerosos; en grupos pequeños no es tan efectiva. Por esto, aunque siempre conviene aplicar controles específicos para las variables de sujeto, son mucho más importantes cuando los grupos son reducidos. Cabe aclarar que los controles específicos y los generales no son antagónicos sino todo lo contrario: la mejor estrategia es usar ambos. Y si por caso uso muchos controles específicos pero prescindo de los controles generales, la investigación perdería validez interna y dejaría de ser un experimento. Una vez formados los grupos también se pueden asignar el azar los valores de la variable independiente a cada grupo. Si agregamos la aleatorización al diseño quedaría: Entonces, ya tenemos los requisitos para una primera forma de investigación que es un experimento. Para ser un experimento, la investigación tiene que tener comparación de grupos, ya sea todos grupos experimentales o con grupo control, y estos grupos tienen que haberse formado al azar. Por eso los diseños de comparación de grupos cuando son aleatorios siempre son experimentos. Estos son diseños experimentales de medidas independientes (intergrupos). Pueden tener o no medida pretratamiento, y en cualquiera de los dos casos (con sin medida pretratamiento), si cumplen con los requisitos anteriores, serían experimentos. Del requisito de la aleatorización se desprende también uno de los motivos por los cuales no puede haber manipulación de selección en los experimentos. Porque la manipulación de selección hace imposible la asignación al azar de los sujetos a los grupos, porque el valor de la variable independiente es propio del sujeto (un aspecto del mismo, como edad o perfil de personalidad) y no se lo puede modificar, solo se puede medir la variable independiente, asignar según esta medición los sujetos a los grupos. Había quedado algo pendiente, qué pasaba con los que llamamos controles específicos. Como ya lo dijéramos, no definen que la investigación sea un experimento pero sí son importantes para la calidad de la investigación e influyen sobre la validez interna de la misma. Por ej., supongamos que se hace una investigación para evaluar la eficacia comparativa de dos métodos de enseñanza. Siendo que la variable dependiente va a ser el aprendizaje, la inteligencia sería una variable contaminadora importante, que se debiera controlar. Se hace la investigación, pero no se controla la inteligencia y aunque los grupos se formaron al azar son pequeños. Dada la importancia de la variable inteligencia en esta investigación, se la debiera haber controlado, aún cuando los grupos fueran numerosos, pero mucho más si son pequeños. Entonces, se cumpliría con el requisito de la comparación de grupos y los grupos se habrían formado al azar y en consecuencia sería un experimento. Pero no haber controlado adecuadamente el nivel de inteligencia de los sujetos compromete la validez interna de la investigación. De tal manera, si bien se puede decir que la investigación es un experimento, sería un experimento que presentaría defectos porque su validez interna estaría comprometida. Esto nos indica que, aunque los controles específicos de variables contaminadoras no determinan que una investigación sea un experimento, en muchos casos son importantes para asegurar la calidad de la misma en cuanto a su validez interna. Hasta aquí vimos la primera forma en que una investigación puede ser un experimento. En la próxima clase sobre clasificación de los métodos, vamos a ver la segunda forma en que una investigación podría ser un experimento (los diseños de medidas repetidas: diseños intragrupo). En estas clases sobre clasificación de los métodos, vamos a ir viendo las formas básicas que definen en general qué método se utilizó en una investigación. Pero después dentro de cada método hay multiplicidad de diseños, como ocurre con los experimentos. Estos distintos diseños se irán trabajando, cada uno de ellos, en otras clases. En la clase anterior habíamos llegado a definir la primera forma en que una investigación puede ser un experimento. En ese caso teníamos que era necesario que hubiera comparación de de grupos, ya sean todos grupos experimentales o con grupo control, y estos grupos tenían que haberse formado al azar. Dijimos también en esa clase que había una segunda forma en que una investigación podía ser un experimento (los diseños de medidas repetidas: diseños intragrupo). Vamos a comenzar esta clase desarrollando este tema. Supongamos que en una investigación se planteara que el contenido emocional de las palabras influye en el recuerdo de las mismas. Para poner a prueba esto se confeccionan dos listas de palabras, una con palabras con fuerte contenido emocional y otra con palabras emocionalmente neutras. Así, la variable independiente asume dos valores: palabras con contenido emocional y palabras neutras. La variable dependiente se operacionalizaría en este caso mediante la cantidad de palabras recordadas. Para llevar a cabo esta investigación se podría implementar un diseño de comparación de grupos, como vimos la clase anterior: (Aclaramos que, igual que en la clase anterior para un mejor entendimiento, los diseños que vamos a ir presentando no van a seguir exactamente las representaciones simbólicas que presenta Pereda Marin en sus textos). Esta investigación sería un experimento, ya que tiene grupo de comparación y los grupos se formaron al azar. Que no haya medida pretratamiento no es inconveniente, ya que como dijimos en la clase anterior, eso no define que la investigación sea o no un experimento. Pero supongamos que aunque los grupos se formaron al azar, no son demasiado grandes y nos preocupa que las diferencias individuales puedan contaminar la investigación. En esta situación podríamos recurrir a un diseño experimental diferente: tomamos la muestra, pero en lugar de asignar a cada sujeto a un grupo diferente, a cada sujeto le aplicamos todos los valores de la variable independiente, en este caso ambas listas de palabras, de tal manera que a cada sujeto que participa de la investigación se le aplican todos los tratamientos. A estos diseños se los llama de medidas repetidas o intragrupo. El ejemplo que dimos quedaría de la siguiente manera: El diseño de medidas repetidas o diseño intragrupo es aquel en el que a cada sujeto de la muestra se le aplican todos los tratamientos. Este diseño tiene la ventaja sobre los de comparación de grupos que permite eliminar una importante fuente de error que es la varianza dada por las diferencias individuales. Tengamos en cuenta que en los diseños de comparación de grupos justamente uno de los grandes problemas era como controlar las diferencias individuales para que no funcionaran como variables contaminadoras. Si bien en este sentido, los diseños intragrupo pueden ser más precisos y eficientes que los de comparación de grupos, presentan el inconveniente de que en muchos casos no pueden ser utilizados. Vamos a ver por qué. Para ejemplificar este diseño usamos un ejemplo nuevo y no los utilizados en la clase anterior. Y esto es porque aunque hubiéramos querido usar esos ejemplos, no hubiéramos podido. Pensemos si comparamos dos Psicoterapias diferentes o dos talleres diferentes. ¿Cómo podríamos hacer para que cada sujeto pasara por ambos tratamientos, si al aplicar una de las Psicoterapias o uno de los Talleres, estos produjeran efecto sobre la variable dependiente? Ya no tendría sentido aplicar el segundo tratamiento. Esto quiere decir que para que los diseños de medidas repetidas puedan ser aplicables, es necesario que el efecto que producen los tratamientos sobre la variable dependiente sea rápidamente reversible, ya que si permanece en el tiempo, invalidaría la aplicación de un segundo tratamiento. Una excepción a esto es cuando los tratamientos no son rápidamente reversibles, pero igual se aplica el diseño intragrupo porque lo que interesa es investigar el efecto acumulativo de los distintos tratamientos, por ejemplo curvas de aprendizaje. El problema que se presentaba en los diseños de comparación de grupos tenía que ver fundamentalmente con las diferencias individuales. En los diseños intragrupo solucionamos esto, ya que a cada sujeto lo comparamos contra sí mismo, bajo distintos tratamientos. Pero aparece otro problema que tiene que ver con el orden de aplicación de los tratamientos. Supongamos que sistemáticamente aplicamos primero el tratamiento a1 y después el tratamiento a2. Podría ocurrir que el sujeto se aburra, que pierda motivación o que sufra cansancio físico con la consecuente disminución del rendimiento en los sucesivos tratamientos. A esto se lo denomina efecto de la fatiga. También podría ocurrir que el primer tratamiento sirviera para que el sujeto adquiera cierta experiencia, se familiarice con la situación experimental y esto produzca una mejora en los resultados de los siguientes tratamientos. Esto es el efecto de la práctica. Y tanto el efecto de la fatiga como el efecto de la práctica pueden provocar que la diferencia que uno observe entre los tratamientos no se deba a la variable independiente, sino al orden de aplicación de los tratamientos, afectando seriamente la validez interna. Tanto al efecto de la fatiga como al de la práctica se los denomina Error Progresivo. Y el error progresivo tiene que ver con los efectos que se producen por el orden sucesivo de aplicación de los tratamientos, de manera que la cantidad de error que se introduce en la investigación va aumentando en los sucesivos tratamientos. Entonces si el error progresivo, ya sea el efecto de la fatiga o el de la práctica, puede afectar la validez interna, es fundamental que sea controlado. Esto se hace mediante la técnica de control (que se aplica exclusivamente en diseños de medidas repetidas), y que se llama equiponderación o contrabalanceo. Esta técnica consiste en distribuir de la misma forma el error progresivo en los distintos tratamientos, o sea, que el objetivo no es eliminar el error progresivo, sino que sea igual en todos los tratamientos, y consiste en variar el orden de aplicación de los tratamientos, que no sea siempre igual. Hay diversas formas de equiponderación o contrabalanceo, pero vamos a limitarnos a exponer las dos formas básicas. En ellas se parte del supuesto de que cada tratamiento genera la misma cantidad de error progresivo y del mismo signo. Una forma es la equiponderación o contrabalanceo intersujetos. Puede ser de varios tipos, pero vamos a exponer la forma básica con dos tratamientos solos: a1 y a2. Lo que se hace es ir cambiando el orden a través de los sujetos, siendo que en este caso básico son solo dos las secuencias posibles: a1a2 y a2a1. Se aplicaría de la siguiente forma: Sujeto 1 – a1a2 Sujeto 2 – a2a1 Sujeto 3 – a1a2 Sujeto 4 – a2a1 Y así sucesivamente. ¿De qué manera queda controlado el error progresivo? Cuando el tratamiento se aplica en primer lugar, no habría error progresivo, sería 0, y cuando se aplica en segundo lugar, el error progresivo sería 1. Entonces, tomando de a dos sujetos con secuencias diferentes: En este caso es necesario que la cantidad de sujetos sea un número par, para que ambas secuencias se apliquen igual cantidad de veces. Con esta forma de equiponderación, el error progresivo no queda controlado en cada sujeto, sino en el conjunto de sujetos. Con tres tratamientos sería: Sujeto 1 – a1a2a3 Sujeto 2 – a1a3a2 Sujeto 3 – a2a1a3 Sujeto 4 – a2a3a1 Sujeto 5 – a3a1a2 Sujeto 6 – a3a2a1 Y así sucesivamente. Si nos fijamos, cada tratamiento aparece igual cantidad de veces (dos) en cada posición de la secuencia (1°, 2° y 3° lugar). En este caso para cubrir todas las secuencias posibles de orden de los tratamientos, se necesitan 6 sujetos, por ello la muestra tiene que ser de 6 o múltiplos de 6. Otra forma es la equiponderacón o contrabalanceo intrasujeto. En este caso el orden se invierte en cada sujeto, de manera que el error progresivo no queda solo controlado en el conjunto de sujetos, sino también en cada sujeto. Por ejemplo, con dos tratamientos sería: Sujeto 1 – a1a2a2a1 Sujeto 2 – a1a2a2a1 Sujeto 3 – a1a2a2a1 Sujeto 4 - a1a2a2a1 Y así sucesivamente Suponiendo que cada tratamiento genera la misma cantidad de error progresivo y del mismo signo, tendríamos para el 1° lugar ningún error (0), para el 2° lugar sería 1, para el tercero 2 y para el cuarto 3: Para tres tratamientos la secuencia sería: a1a2a3a3a2a1. Cuál de las dos formas es mejor utilizar depende de las características de la investigación. Por ejemplo, si hay muchos tratamientos. podría ser más conveniente la equiponderación intersujetos, porque en la intrasujeto tendrían que aplicársele a cada sujeto muchos tratamientos. En el ejemplo de la lista de palabras, sería más conveniente la equiponderación intersujetos, porque para la equiponderación intrasujeto habría que generar dos listas diferentes para cada condición (dos para emotivas y dos para neutras). Esto es porque si sólo hubiera una lista de palabras neutras y una de palabras emotivas, habría que espaciar mucho las tomas para que los sujetos se olviden las palabras que ya habían memorizado. Entonces dicha investigación quedaría así: Para resumir, podemos decir que una investigación será un experimento: Cuando tenemos comparación de grupos y los grupos se formaron al azar. Cuando tenemos un diseño de medidas repetidas o intragrupo y se controla el error progresivo mediante alguna técnica de contrabalanceo o equiponderación. Vamos a analizar ahora en qué casos una investigación sería un cuasiexperimento, las formas que determinarían esto, sin entrar en la variedad de diseños cuasiexperimentales (porque eso lo van a ver más adelante en otra clase). Lo que nos interesa determinar acá son las condiciones básicas a partir de las cuales una investigación constituye un cuasiexperimento. Veníamos viendo que un elemento fundamental para determinar la diferencia entre los tres métodos explicativos, tiene que ver con la validez interna que presentan en función de sus diseños, teniendo en cuenta que el cuasiexperimento presenta una validez interna intermedia, menor que la del experimento y mayor que la del preexperimento. Entonces lo que vamos a hacer es tomar alguna de las investigaciones de comparación de grupos con las que ejemplificamos el experimento, e ir modificándola para mostrar cómo eso modifica el diseño y como reduce la validez interna, haciendo que ya no pueda ser un experimento y se transforme en un cuasiexperimento. Tomemos la investigación del ámbito educativo, en la cual se quería poner a prueba un taller para incrementar la motivación de los alumnos para que participen más en determinadas actividades escolares. Esa investigación se podría expresar en el siguiente diseño experimental: Cabe aclarar que el ejemplo lo planteamos con dos grupos, pero podría ser con más de dos grupos, por ej. si se incluyera un segundo grupo experimental al que se aplique un taller diferente. Vamos a modificar el diseño de la siguiente manera: En este caso los grupos no se formaron al azar. Siempre que en una investigación se pueden formar grupos al azar, se hace, para que la investigación tenga mayor validez interna. Pero ocurre algunas veces que, por distintos motivos, esto no es posible más allá de la voluntad del investigador. En este ejemplo, la investigación se hace en una institución educativa, que tiene toda una estructura administrativa determinada. Podría ser que sus directivos accedan a que el investigador hiciera la investigación, pero que no estén dispuestos a que se viera alterada su organización. En este caso el investigador no podría formar grupos al azar, sino que tendría que trabajar con grupos de alumnos que existieran previamente. La composición de los grupos entonces no sería al azar, sino que serían grupos naturales. Al hablar de grupos naturales nos referimos a grupos de sujetos que existen previamente a la investigación, de tal manera que muchas veces están compuestos por sujetos que ya se conocen entre sí, o que tienen algún nexo, ya sea que participen de alguna actividad en común o que coincidan en un lugar. No hay que confundir grupos naturales con manipulación natural, ya que los grupos naturales tienen que ver con cómo se forman los grupos pero con una manipulación intencional de la variable independiente. En cambio la manipulación natural tiene que ver con la forma en que se va a aplicar la variable independiente. En el caso de los grupos naturales, al no formar los grupos al azar no hay ninguna seguridad de la equivalencia inicial de los grupos. Podrían ser equivalentes o no, pero el investigador no puede saberlo. Podría indagar si son equivalentes en alguna/s variable/s especifica/s que seleccione, pero no podría tener ninguna seguridad de una equivalencia general de los grupos. Esto baja la validez interna, pero por lo menos, al haber medida pretratamiento, si se puede saber que los grupos son equivalentes en la medida de la dependiente antes de aplicar el tratamiento. Por esto último la validez interna no es tan baja, es más bien intermedia y hace que la investigación sea un cuasiexperimento. Otro caso en el cual la investigación sería un cuasiexperimento son las investigaciones de series temporales interrumpidas. Estas investigaciones tienen una variedad de diseños sobre los cuales no nos vamos a extender ahora. Si vamos a indicar básicamente en qué consiste un diseño de series temporales interrumpidas y cuál es la validez interna de estos diseños. En este tipo de diseños se toma una amplia serie de medidas de la variable dependiente, cuantas más sean más fácil se podrá evaluar luego el efecto del tratamiento. Después se aplica la variable independiente y se vuelve a medir la variable dependiente igual cantidad de veces. La lógica de este diseño es que las medidas antes de aplicar el tratamiento sean similares y que al aplicar el tratamiento (si este es efectivo) haya una discontinuidad entre las medidas anteriores y posteriores a la aplicación del mismo, ya sea un descenso o un incremento en las mismas según fuere el efecto que se espera que produzca la variable independiente. Esta discontinuidad daría cuenta del efecto que produce la variable independiente, ya que si no produjera efecto la estructura de las medidas tomadas antes y después del tratamiento tendrían que ser similares. Se lo llama series temporales interrumpidas, porque es una serie de medidas que se toman en un lapso del tiempo y la aplicación de la variable independiente interrumpe la serie. Si quisiéramos trasladar el ejemplo del taller a una serie temporal interrumpida, podríamos plantearlo como un grupo donde se mide el nivel de participación diario durante veinticinco días, después se aplicaría el taller, que en este caso tendría que ser una intervención mucho más breve (puede ser un taller intensivo de un día) y después se volvería a medir el nivel de participación durante veinticinco días más. Si el taller fuera efectivo tendría que haber habido una discontinuidad en las medidas de la dependiente a partir de la aplicación del taller, con un incremento en el nivel de participación, en este caso. Este diseño es el más básico de los diseños de series temporales interrumpidas y es con un solo grupo, pero este tipo de diseños pueden ser también con grupo de comparación. Respecto a la validez interna de este diseño podemos decir que es menor que la de un experimento, ya sea porque no hay grupo de comparación, cuando es un único grupo; y cuando hay grupo de comparación, porque como son grupos naturales se desconoce la equivalencia inicial de los mismos. Pero la validez interna no es tan baja, es intermedia porque al tomarse una serie de medidas pretratamiento y una serie de medidas postratamiento, y no solo una y una, es mucho más improbable que si el cambio se produjera por una variable contaminadora, ésta actúe justo en el momento que se aplica la variable independiente y no en cualquier otro momento de la serie de medidas. Esto hace que la validez interna no sea tan baja, aún cuando sea un único grupo. Y cuando hay grupo de comparación la validez es aún mejor, porque a lo que aporta la serie temporal interrumpida se le agrega la ventaja del grupo de comparación. Sin embargo, no alcanza la validez interna de un experimento porque los grupos son naturales y en consecuencia se desconoce la equivalencia inicial de los grupos. Todos los diseños que venimos viendo hasta ahora y los que vamos a seguir viendo en las investigaciones preexperimentales son diseños con manipulación intencional. Más adelante vamos a ver qué pasa cuando la manipulación es de selección. Preexperimento Las investigaciones preexperimentales tienen muy baja validez interna, casi no tienen validez interna, por eso son diseños que se usan menos porque tienen muy poco peso de prueba para corroborar relaciones causales. Vamos a seguir modificando el mismo ejemplo que veníamos trabajando para mostrar qué formas puede adoptar un preexperimento y por qué eso impacta en la validez interna. Supongamos el siguiente diseño: Lo que hicimos respecto al diseño cuasiexperimental fue quitar también la medida pretratamiento. Decíamos que el diseño cuasiexperimental de ninguna manera podía ser un experimento porque se desconocía la equivalencia inicial de los grupos al ser grupos naturales. Pero que por lo menos al haber medida pretratamiento si se podía saber que los grupos eran equivalentes en la medida de la dependiente antes de aplicar el tratamiento, aunque se ignorara la equivalencia en general. Pero ahora, con la modificación que realizamos, al no tener medida pretratamiento, ni siquiera tenemos eso, o sea, que se ignora si los grupos son equivalentes en general y además no se sabe si antes de aplicar el tratamiento los grupos eran equivalentes en la medida de la dependiente. Por eso podría ocurrir que la diferencia que se observe en la dependiente ya existiera desde antes. Esto hace que la validez interna sea bajísima y que este diseño sea preexperimental. Seguimos modificando el diseño: En este diseño no tenemos algo que es fundamental, que es el grupo de comparación. Entonces aún cuando se observe una diferencia entre la medida pretratamiento y la postratamiento no es posible asegurar que se deba al tratamiento, porque pudieron haber intervenido diversas variables contaminadoras (maduración, historia, etc.) que darían cuenta de los resultados. Cuando teníamos un grupo único en el cuasiexperimento, era en el contexto de una serie temporal interrumpida y eso mejoraba la validez interna. Pero en este caso la validez interna es bajísima y por ello es otro diseño preexperimental. Por último tenemos lo siguiente: Acá no tenemos grupo de comparación, es un grupo único, y tampoco tenemos medida pretratamiento; en consecuencia no tenemos contra qué comparar. Pero para saber si el taller produce efecto tenemos que comparar con algo. En estos casos la comparación que se puede hacer es externa a la investigación. Por ejemplo, se podría comparar contra el nivel histórico de participación en esa institución escolar. Pero sería una comparación pobrísima y muy poco confiable. Por eso este diseño es el de menor validez interna de todos y la investigación constituye también un preexperimento. Si recuerdan, con un ejemplo así habíamos comenzado la clase pasada la exposición, para ir transformando el diseño desde lo más elemental hasta llegar a un experimento. Cabe una aclaración, en estos diseños preexperimentales estamos hablando de grupo único y cuando comenzamos la clase con el diseño de medidas repetidas o intragrupo también era un solo grupo, pero era un experimento. ¿Cuál es la diferencia? En estos preexperimentos de grupo único se aplica un solo valor de la independiente, mientras que en el diseño intragrupo se aplica más de un tratamiento, y justamente la comparación se hace entre estos distintos tratamientos aplicados al mismo sujeto, de manera que se reemplaza el grupo de comparación, por la comparación de cada sujeto contra sí mismo. Investigaciones con manipulación de selección o natural Hasta ahora todo lo que hemos visto son investigaciones con manipulación intencional, pero la variable independiente también puede tener manipulación de selección. En estos casos la manipulación de selección lo que produce es que la investigación no puede ser un experimento, ya que aunque haya grupo de comparación, los grupos no se pueden formar al azar, por lo cual disminuye la validez interna, porque se desconoce la equivalencia inicial de los grupos. Tampoco se daría la clásica secuencia de tiempo, ya que no se aplicaría necesariamente primero la variable independiente y después se observaría lo que pasa con la dependiente. En general las variables independiente y dependiente tendrán operacionalizaciones de medida, de manera que solo se las medirá y no se podrá establecer claramente una precedencia temporal. Cuando en una investigación tenemos manipulación de selección de una variable de sujeto (que es en la mayoría de los casos), es un cuasiexperimento. De manera que casi siempre que hay manipulación de selección, la investigación es un cuasiexperimento. Es mucho menos frecuente, pero podemos también tener manipulación de selección en un preexperimento. Esto se daría cuando la variable manipulada por selección NO es una variable de sujeto. Por ej., un grupo que ha tenido determinada experiencia; si fuera un diseño estático podría haber también otro grupo que no hubiera pasado por dicha experiencia o que hubiera pasado por otra. Algunos autores también llaman ex post facto a estás investigaciones, aunque este término también hay veces en que se utiliza en un sentido más amplio. Hay que tener en cuenta que la estructura de una investigación con manipulación de selección es muy similar a las investigaciones correlacionales (que vamos a ver más adelante), las cuales investigan relaciones no causales. Por tal motivo para que una investigación con manipulación de selección constituya un cuasiexperimento es fundamental que tenga una teoría sumamente sólida que permita identificar variable independiente y dependiente con precisión en la investigación. Cuando en un diseño factorial, el cual tiene varias variables independientes (que vamos a verlo en futuras clases), alguna de ellas o todas son de manipulación de selección, la investigación es un cuasiexperimento. Cuando el diseño es con una sola variable independiente, un ejemplo de cuasiexperimento con manipulación de selección podría ser el siguiente: supongamos que se plantea la variable de personalidad Neuroticismo de la teoría de la personalidad de Eysenck como una variable que influye en la adquisición y mantenimiento de conductas depresivas. En este caso el Neuroticismo sería la variable independiente (no confundir Neuroticismo con neurosis, ya que el Neuroticismo es una variable de personalidad), y conducta depresiva sería la variable dependiente y se la podría operacionalizar por ejemplo, con el Inventario de Depresión de Beck, que nos daría un gradiente desde mínima sintomatología depresiva hasta depresión severa. El Neuroticismo podría medirse mediante alguno de los test de Eysenck y a partir de esos resultados clasificar la muestra en dos o tres grupos. Esto podría ser similar a una investigación correlacional, pero lo que determinará la diferencia para que sea un cuasiexperimento es que la teoría de la personalidad de Eysenck fundamenta sólidamente cómo el Neuroticismo puede intervenir en la adquisición y mantenimiento de una amplia gama de psicopatologías (incluyendo la depresión), teniendo en cuenta que la ansiedad es un factor importante en muchas psicopatologías y el Neuroticismo se vincula directamente con la respuesta de ansiedad de los individuos en cuanto a su frecuencia, intensidad y permanencia en el tiempo. Obviamente esto es una investigación presentada en forma muy simplificada, en pos de transmitir el concepto de cuasiexperimento con manipulación de selección y mostrar cómo dicha investigación requiere una muy sólida fundamentación teórica. MUESTREO En el proceso de llevar a cabo una investigación, efectuar la selección de la muestra, es una tarea indispensable, la cual requiere prestarle adecuada atención. Es importante señalar que finalmente la intención que se persigue mediante este proceso de selección, es poder hacer inferencias hacia la población, a partir de lo detectado en la muestra. Para hacer efectivo esto último, es necesario una serie de pasos que nos brinden la posibilidad de generalizar los resultados. Resulta importante considerar previamente conceptos que están implicados en el presente tema de cómo se conforma la muestra. Población: La podemos definir como un conjunto de individuos o de objetos (unidades de análisis) que poseen una o varias características comunes. Ej. Total de pacientes con enfermedad renal crónica en tratamiento de hemodiálisis en CABA. Muestra: Es un subconjunto de la población y se espera que sea representativa de la misma. La muestra se toma con el fin de estudiar las propiedades del conjunto del cual es obtenida. Ej. Una muestra (obtenida a través de una técnica de muestreo en particular) de pacientes con enfermedad renal crónica en tratamiento de hemodiálisis en CABA. En la práctica, estudiar todos y cada uno de los elementos que conforman la población, la mayoría de las veces no resulta posible hacerlo, por esto se recurre al análisis de los elementos de una muestra con el fin de hacer inferencias respecto al total de la población. Unidad de análisis: es cada uno de los elementos que constituyen la población estudiada. Puede estar constituida por individuos u objetos, pero consideremos en esta oportunidad que por lo general en Psicología la unidad de análisis última son personas. Estadísticos y Parámetros Los estadísticos de resumen son aquellos que se obtienen a partir de la medición de una muestra. Por ejemplo media aritmética de la muestra. En cambio, si midiéramos a toda la población, esto se denomina parámetro, por ejemplo la media poblacional. Efectuar esto (medir todos los componentes de la población), en general, implica una imposibilidad práctica, entonces se trata de aproximar al valor del parámetro por medio del estadístico obtenido a partir de la muestra. Si bien Estadístico y Parámetro pueden coincidir exactamente, esto es altamente improbable. Pero a partir del estadístico podemos obtener un rango de valores dentro del cual con cierto nivel de confianza debiera ubicarse el valor correspondiente al parámetro. Este rango se llama intervalo de confianza. La mitad del intervalo de confianza constituye el margen de error de la estimación que se hace del parámetro a partir del estadístico. Resumiendo: Cada estadístico tiene un equivalente que describe a la población de la cual proviene la muestra que se lo denomina parámetro. Muestra representativa: Definimos a una muestra como representativa, cuando la medida que arroja un estadístico, es lo más cercana posible al parámetro correspondiente. De manera que en una muestra representativa, se encuentran presentes las distintas características de la población. Finalmente, los objetivos del estudio ayudarán a definir la población y a partir de allí la muestra, para lo cual se elegirán dos métodos generales de muestreo: aleatorio (o probabilístico) y no aleatorio (o no probabilístico). Su elección también estará condicionada por la pretensión de exactitud, el tiempo y dinero disponible. MUESTREO ALEATORIO (PROBABILÍSTICO) Estos son los que garantizan en mayor medida que la muestra sea representativa. Se utiliza el azar para la elección de los sujetos. En una muestra aleatoria cada elemento de la población tiene una probabilidad igual, o cuantificable, de ser seleccionado. Hay varios tipos de muestreos aleatorios o probabilísticos. Muestreo aleatorio simple. El mismo consiste en llevar a cabo una serie de pasos a) Se delimita la población b) Se decide el tamaño de la muestra. c) Se asigna un código (por lo general un número si ya no lo tiene) a cada elemento de la población (unidad de análisis). d) Finalmente se escoge mediante alguna técnica de selección aleatoria (programa computadora que genere números al azar - tabla de números aleatorios). Ejemplo: Pacientes con enfermedad renal crónica que requieren tratamiento de hemodiálisis en CABA que asisten al Centro de hemodiálisis Fresenius Medical Care. Se procederá a considerar todos los pacientes activos que efectúan dicho tratamiento en la mencionada entidad: este conjunto se constituye como la población. En función del tamaño de la población se considerará el tamaño de la muestra que resultará más adecuado. Asignación de código: A cada paciente le corresponde un número de historia clínica, el cual se tomará como su código. Finalmente se utilizará alguno de los procedimientos citados para escoger a los pacientes aleatoriamente. Muestreo aleatorio sistemático a) Este requiere que se decida un tamaño de muestra y efectuar el cociente entre la población y la muestra. Continuamos con el ejemplo hipotético anterior Población: 2300 pacientes con enfermedad renal crónica en tratamiento de hemodiálisis de CABA que asisten a Fresenius Medical Care. Muestra: 100 pacientes. Entonces 2500 / 100 = 25 b) Al azar se elige un número de inicio entre la población. Ej. número 70 La primera persona de la muestra es la 70, la siguiente será (70+25=95) la número 95, la siguiente (95+25=120) la número 120 y así sucesivamente hasta completar el total de la muestra, en este caso 100 pacientes. En este ejemplo, la persona 98 para la muestra será la 2495 de la población, si a ésta le sumamos 25, obtendremos 2520, un número superior al tamaño de la población. Entonces, debemos restarle a la cifra obtenida (2520), el total de la población (2500), entonces 2520-2500= 20, y elegiremos a la persona número 20. La siguiente será (20+25=45) la 45 , y así completaremos la cantidad estipulada de la muestra : 100 individuos. Muestreo Estratificado Requiere en este caso la división de la población en subgrupos o estratos mutuamente excluyentes. Presenta como ventaja que se garantizará que la muestra contenga representantes suficientes de cada estrato. En el ejemplo anterior podríamos dividir a la muestra por género. Una vez que se han elegido los estratos puede aplicarse el muestreo aleatorio simple o el muestreo aleatorio sistemático, garantizando que la muestra esté constituida por el porcentaje de sujetos establecido para cada estrato. En este ejemplo el porcentaje de mujeres y hombres previamente establecido. Hay dos maneras de conducir el muestreo estratificado: - Proporcionado : Refleja las proporciones de la población Ejemplo: 2500 pacientes renales de CABA que asisten a Centros de hemodiálisis FMC. 1500 hombres 1000 mujeres Entonces la muestra presentará un 60% de hombres y un 40% de mujeres. - Desproporcionado: No refleja las proporciones de la población. En este caso no se puede extrapolar directamente a la misma, se requiere de un análisis más complejo. Ejemplo: En este caso la muestra podría presentar un 50% de hombres y un 50% de mujeres. Muestreo de Conglomerados Requiere un muestreo inicial con base en una unidad mayor que el elemento de la población. En algunas oportunidades, los elementos de la población, pueden estar muy dispersos geográficamente, entonces este tipo de recurso, permite que la muestra se aglomere en un número limitado de lugares. Puede hacerse de dos maneras: - En una sola etapa: antes de llegar a la unidad de análisis, hay una sola etapa previa en la que se toma una unidad mayor. Continuando con el ejemplo de pacientes en diálisis, si requiriera llevar a cabo la investigación con todos los pacientes de hemodiálisis del país, entonces, sería conveniente implementar este tipo de muestreo, tomando como base del mismo una unidad inicial mayor que cada elemento de la población (paciente de hemodiálisis). Se escogerían aleatoriamente un número determinado de servicios de hemodiálisis del país, supongamos que dicha empresa cuenta con 123 centros, de tal modo que se simplificaría el trabajo, puesto que en vez de extraer los pacientes de cada centro, solo se trabajaría con los provenientes de los centros escogidos aleatoriamente. - En varias etapas: antes de llegar a la unidad de análisis, se pasa por más de una etapa previa, se toman en forma sucesiva varias unidades mayores que los elementos de la población. Ejemplo Primera etapa: Considerando todas las provincias del país (que tienen Centros de hemodiálisis) se seleccionan aleatoriamente un número de ellas. Segunda etapa: De las provincias seleccionadas, se seleccionan aleatoriamente alguna/s ciudades entre aquellas que tengan centros de hemodiálisis. Tercera etapa: de los centros de hemodiálisis seleccionados se procederá a elegir al azar pacientes de cada uno de ellos. MUESTREO NO ALEATORIO (NO PROBABILÍSTICO) En este caso, NO todo elemento de la población tiene la misma probabilidad de ser parte de la muestra, y por lo tanto puede suceder que algún sector carezca sistemáticamente de representación adecuada. A diferencia del muestreo probabilístico, tiende a generar muestras menos precisas y representativas. Pese a ello, la mayor parte de las investigaciones en nuestra disciplina, son no probabilísticas. Muestreo accidental/de oportunidad/de conveniencia Se seleccionan las personas que uno encuentra por casualidad. Ej. Se les pide participar de la muestra a pacientes de hemodiálisis que se encuentran efectuando el tratamiento en el horario en el que los investigadores asisten al lugar, siendo que hay distintos turnos a lo largo del día. Muestreo por cuotas Es un muestreo de oportunidad, pero con cuotas establecidas para el Nº de personas que habrán de incluirse en las submuestras determinadas a partir de alguna/s variable/s. Es el equivalente en los muestreos no aleatorios, al muestreo estratificado de los muestreos aleatorios. Y la cuota es el equivalente al estrato. El investigador establece “cuotas” para cada uno de los valores de la variable que interese que esté representada en la muestra. Al recolectar los datos cuando se ha cubierto una cuota se continúa únicamente con sujetos que apliquen para la otra cuota. Ejemplo: establecer cuotas para la variable sexo en la población de pacientes de hemodiálisis. Cuando se hubiera cubierto por ej. la cuota para mujeres, se tomarían únicamente hombres. Si las cuotas se establecen en varias dimensiones (tomando más de una variable), se lo denomina muestreo dimensional. Siguiendo el ejemplo anterior considerar no solo el sexo sino agregar otra dimensión por ejemplo turno de asistencia al tratamiento. Muestreo propositivo Se aplica cuando desea estudiarse una muestra definida claramente, y que cumpla con ciertas características en función de las necesidades de la investigación. Ejemplo: Identificar pacientes en diálisis, que presentan distintas comorbilidades asociadas a la insuficiencia renal crónica, por ejemplo diabetes, hipertensión, lupus…etc. para explorar respuestas diferenciales a la terapéutica dialítica. Muestreo bola de nieve Se usan contactos iniciales para identificar a otras posibles personas que podrían integrar la muestra. Ejemplo: Los investigadores se contactan con algunos pacientes en diálisis que su vez los ponen en contacto con otros pacientes en diálisis y estos pueden ponerlos a su vez con otros. Hasta aquí el resumen se baso en el siguiente texto que forma parte de la bibliografía: Clark- Carter, D. (2002) Investigación Cuantitativa en Psicología. México: Oxford University Press. Cap. 11. Lo que sigue a continuación se basa en el siguiente artículo que NO es bibliografía de la cátedra, NO es necesario leerlo: Argibay, J. C. (2009). Muestra en investigación cuantitativa. Subjetividad y Procesos Cognitivos, 13, pág. 13-29. Si bien los muestreos aleatorios nos dan mayor seguridad de la representatividad de la muestra, los muestreos no aleatorios si están bien realizados pueden también ser representativos, pero es menor la seguridad que podemos tener de ello. Esto depende de cómo se haga el muestreo no aleatorio, de la forma de llevarlo a cabo, de manera que vamos a tener muestreos no aleatorios que podrían llegar a tener una buena representatividad y otros que serían claramente sesgados (no representativos). Además, si bien lo deseable es que un muestreo sea aleatorio, en casi todas (por no decir todas), las investigaciones explicativas (experimento, cuasiexperimento y preexperimento), y en la mayoría de las investigaciones correlacionales las muestras que se toman no son aleatorias. Esto ocurre por una dificultad práctica de poder implementar muestreos aleatorios en el contexto de dichas investigaciones, por lo cual se recurre a muestras no aleatorias. A pesar de ello, la validez externa en cuanto a la posibilidad de generalizar los resultados a la población, puede no verse mayormente afectada, y esto permite generalizar los resultados. Esto es así por motivos que no vamos a exponer aquí, porque excede los propósitos de esta clase. Si se quisiera mayor información al respecto se puede consultar el texto antes mencionado (Argibay, 2009). En el caso de las investigaciones descriptivas, como el único propósito que tienen es describir, es importante tener cierta seguridad de que la muestra sea representativa, ya que si no fuera representativa, se perdería el principal objetivo de estas investigaciones que es generalizar a la población de referencia la descripción que se está realizando. PEREDA MARIN CAPITULO 8. EL CONTROL EXPERIMENTAL Puede no existir una relación causal entre la variable independiente y la variable dependiente. Los cambios observados en la variable dependiente pueden deberse a que otra variable, que actúa junto a la variable independiente, da lugar a resultados que son interpretados erróneamente como una expresión de la relación existente entre la variable independiente y la variable dependiente. VARIABLES CONTAMINADORAS En un experimento hay una serie de factores extraños llamados variables CONTAMINADORAS, que pueden estar haciendo que los resultados obtenidos en el experimento estén contaminados. Si los resultados de un experimento incluyen alguna variable contaminadora no detectada y por tanto no controlada, las consecuencias que se derivan de los resultados de dicho experimento son a veces difíciles de detectar. Los resultados experimentales contaminados pueden ser aceptados como válidos por el mundo científico durante un largo período de tiempo. Por ello, es importante identificar y controlar estas posibles variables contaminadoras. CONTROL El control se refiere a los procedimientos y técnicas que aseguran que el factor manipulado o variable independiente es la única causa de las diferencias halladas en las puntuaciones de los sujetos en la variable dependiente. El control se refiere a las técnicas que utiliza el experimentador para poder afirmar si la variable independiente ejerce o no efectos sobre la variable dependiente. El experimentador puede manipular y controlar variables para llegar a una conclusión válida en su investigación. Experimento: Es la observación objetiva y sistemática de los fenómenos provocados en situaciones estrictamente controladas en las que varía un factor mientras todos los demás se mantienen constantes. Los dos sentidos de la palabra control: El experimentador controla su variable independiente cuando la hace variar de forma conocida y específica; es decir, cuando la manipula haciéndola variar sistemáticamente y haciéndola adoptar por lo menos dos valores: ausencia y presencia. El experimentador controla las variables contaminadoras cuando es capaz de eliminarlas o mantenerlas constantes evitando que provoquen efectos diferenciales sobre la variable dependiente en los distintos grupos experimentales, contaminando el experimento. TIPOS DE SITUACIONES EXPERIMENTALES Existen tres situaciones experimentales: 1) Tipo 1: Aquella en la que cada sujeto o grupo es sometido a un solo tratamiento experimental (intersujeto o intergrupo). Se la denomina situación experimental del Tipo 1 o de medidas independientes. El experimentador debe conocer y controlar las variables contaminadoras. El investigador Deberá asegurar la equivalencia de los grupos, su homogeneidad, en todos los factores que no sean la variable independiente (sexo, edad, etc.). 2) Tipo 2: Otro tipo de situación experimental es aquella en la que todos los sujetos o grupos experimentales son sometidos a todos los tratamientos experimentales (intragrupos o intrasujeto). Se la denomina situación experimental Tipo 2 o de medidas repetidas. En un experimento con dos tratamientos A y B , a cada sujeto se lo somete primero al tratamiento A, y luego al tratamiento B. Si con todos los sujetos se actúa de la misma forma, cuando respondan al segundo tratamiento se verán afectados por fatiga o por aprendizaje por haber respondido al tratamiento anterior; esto se llama error progresivo. No está controlada la posible influencia del error progresivo en las respuestas del sujeto, por lo que se deberá controlar. En este tipo de situación experimental, el experimentador no tiene que preocuparse de las variables contaminadoras debido a las diferencias entre los distintos sujetos ya que son los mismos en los distintos tratamientos experimentales. 3) Mixta o Tipo 3: Se da cuando en un experimento alguna variable independiente se estudia con medidas independientes y las restantes se estudian con medidas repetidas. FUENTES DE LAS VARIABLES CONTAMINADORAS Pereda Marín afirma que para estudiar las variables contaminadoras deben dividirse las fuentes de las que proceden en: 1) Sujetos. 2) Experimentador. 3) De procedimiento. 4) Aparatos. 5) Error progresivo. Veámoslas en detalle: 1) Variables de sujeto: Estas variables contaminadoras tienen que ver con las diferencias individuales existentes entre los distintos sujetos de un experimento. Hace referencia tanto a características estables (edad, sexo, personalidad) o aspectos no estables (si es voluntario o no, si se le pagó por participar). Para controlar estas variables contaminadoras de sujeto, existe una serie de técnicas de control: Eliminación, balanceo, constancia, aleatorizacion. 2) El experimentador Tienen que ver con variables como el sexo, la edad, las expectativas del experimentador, etc. Estos aspectos pueden influir si no se controlan adecuadamente, en los resultados del experimento y contaminarlo. Para controlar estas variables contaminadoras del experimentador, se dispone de una serie de técnicas de control que son: la eliminación y la constancia. 3) Variables de procedimiento: Se refieren a aspectos tales como las condiciones ambientales (iluminación, ruido, temperatura, forma de presentación del material), los aspectos de la tarea experimental (cómo deben responder los sujetos), las instrucciones (cómo son dadas). Estos aspectos pueden variar de un grupo a otro. Con respecto a las instrucciones, al dar instrucciones a los sujetos se puede, inadvertidamente, revelarles cuál es la hipótesis que se está probando con el experimento y como consecuencia de ello, influir en su respuesta o en su rendimiento. Para controlar estas variables contaminadoras, se dispone de la técnica de eliminación. 4) Variables de aparato: Los aparatos o instrumentos empleados en el experimento, pueden diferir entre sí en cuanto a su validez, sensibilidad y confiabilidad y pueden, con ello, introducir un error sistemático en los resultados de la investigación si no se controlan adecuadamente. Para controlar estas variables se dispone de unas técnicas de control que son la eliminación y la constancia. 5) Variable de error progresivo: Cuando los tratamientos experimentales se presentan siempre en un mismo orden temporal, puede ocurrir que el experimento quede contaminado. Se llama error progresivo porque la cantidad de error que se introduce en un experimento en el que se emplean medidas repetidas va aumentando a medida que avanza la investigación. Esto puede afectar de varias formas: a) por la práctica (sus puntuaciones mejoran por el aprendizaje de la situación experimental), b) la fatiga (el rendimiento disminuye debido al cansancio de responder a la tarea experimental), o por efecto de la medida anterior (en esos casos se debe dejar pasar un tiempo considerable entre tratamiento y tratamiento). Los efectos conjuntos de la práctica y la fatiga es a lo que se denomina error progresivo. Para controlar el error progresivo se dispone de la técnica de contrabalanceo. TÉCNICAS DE CONTROL DE LAS VARIABLES CONTAMINADORAS Técnicas de control en situaciones experimentales tipo 1: En una situación experimental de tipo I o intergrupo, a cada grupo de sujetos se le aplica un tratamiento experimental y luego se miden sus puntuaciones en la variable dependiente para determinar si la independiente tiene algún efecto sobre ella. La varianza intergrupos consiste en las diferencias existentes entre los grupos experimentales antes de la aplicación de los tratamientos. La misma es una de las más importantes fuentes de contaminación en los experimentos de este tipo. Las técnicas de control en situaciones experimentales de tipo 1 se utilizan para asegurar la equivalencia inicial entre los grupos. Las principales técnicas de control de las variables contaminadoras que se utilizan en este tipo de situaciones experimentales son: a) La eliminación de las variables contaminadoras b) El balanceo de las variables contaminadoras c) La constancia de las variables contaminadoras d) La aleatorización de las variables contaminadoras A) ELIMINACION DE VARIABLES CONTAMINADORAS: Consiste en eliminar la variable contaminadora y la consiguiente variabilidad que la misma puede producir en la variable dependiente. Para ello se utiliza un solo valor de la variable independiente, eliminando todos los demás. Ej: SEXO (Se toma solo mujeres o solo varones) B) BALANCEO DE VARIABLES CONTAMINADORAS Se trata de equilibrar el efecto de la variable contaminadora manteniendo constante la proporción de cada valor de la misma que afecta a cada grupo experimental. Se mantienen en la muestra los porcentajes existentes en la población de cada variable contaminadora. C) CONSTANCIA DE LAS VARIABLES CONTAMINADORA Es un caso particular de balanceo. Cuando las variables contaminadoras no pueden eliminarse, se puede intentar mantenerlas constantes durante el experimento. Esta técnica entonces consiste en que cada valor de la variable contaminadora afecte por igual a todos los grupos experimentales procurando que todos los tratamientos se encuentren afectados de la misma forma por cada valor de la variable contaminadora. Todos y cada uno de los tratamientos experimentales van a estar sucesivamente afectados de la misma forma por cada valor de la variable contaminadora. Ej: Edad (50% de 35 años y 50 % de 40 años, cada valor de la contaminadora afecta por igual.) D) LA ALEATORIZACIÓN DE LAS VARIABLES CONTAMINADORAS: Consiste en confiar al azar las variables contaminadoras entre todos los grupos de sujetos del experimento. Se supone que el azar se encarga de poner en manos del experimentador grupos equivalentes y homogéneos El azar es utilizado en los trabajos de investigación para igualar los grupos experimentales antes de aplicar los tratamientos. Cuando la muestra es pequeña, la aleatorización es poco fiable. Cuando la muestra es grande, se puede esperar que el azar proporcione grupos homogéneos en los que las variables contaminadoras estén distribuidas equitativamente entre todos los grupos de sujetos. TÉCNICA DE CONTROL EN SITUACIONES EXPERIMENTALES DE TIPO II (INTRAGRUPOS) Para controlar el error progresivo se utiliza el método de equiponderación o contrabalanceo. El objetivo de este método es repartir por igual los efectos del error progresivo entre todos los tratamientos. No se elimina el error progresivo, sino que se distribuye por igual entre todos los tratamientos, consiguiendo una constancia en el experimento. Se equipondera alterando el orden de presentación de los tratamientos en los grupos experimentales. DISEÑOS ALEATORIOS En esta oportunidad, corresponde comenzar a introducirnos un poco más en detalle en los diseños experimentales más utilizados en Psicología. Comenzaremos aquí por el más básico, pero para contextualizar con los restantes digamos que los diseños aleatorios admiten contar con una variable independiente o factor (univariados) y con más de una variable independiente (multivariados o factoriales). Los segundos quedarán para una segunda etapa. Una investigación experimental es aquella que nos permite establecer de manera inequívoca que efectivamente la variable independiente influye sobre la dependiente, lo que implica haber controlado adecuadamente las variables contaminadoras. Para esto último y como punto de partida, contamos con la posibilidad de instrumentar el principio del azar (asignación aleatoria) para asegurar en la medida de lo posible que en un principio haya una equivalencia inicial entre los grupos experimentales, esto es, que las diferencias individuales de los que integran la muestra están distribuidas equitativamente entre los grupos. Es así como podemos contestarnos a la pregunta de si realmente los cambios observados se deben efectivamente a los tratamientos aplicados y no a fuentes de variación que no son ellos (es decir que se deban a las variables contaminadoras). Para instrumentar este principio el investigador deberá - Asignar aleatoriamente los sujetos a los distintos grupos experimentales. - Que cada tratamiento experimental sea asignado de forma aleatoria a cada uno de los diferentes grupos. ¿Cómo debo entender el modo en que opera dicho principio? Tomando como punto de partida que cada elemento de la muestra tiene la misma probabilidad de pertenecer a un grupo u otro, y también que puede recibir cualquiera de los tratamientos disponibles. Entonces bajo esta condición se podría estimar que se da el requisito enunciado anteriormente: que exista equivalencia inicial entre los grupos. Que las variaciones que se observan en un grupo, también se observan en el otro u otros. Otra forma de expresar el objetivo de la aleatorización es que con su intervención se intenta minimizar la varianza intergrupos. Entre los principales modelos de diseños aleatorios se pueden señalar: a) Diseños aleatorios bivalentes o de dos grupos aleatorios: un factor (vi) que adopta dos niveles. b) Diseños multivalentes /multigrupos o de más de dos grupos aleatorios: un factor (vi) que adopta más de dos niveles. c) Diseños factoriales, en los que se manipula más de un factor. INVESTIGACIONES EXPERIMENTALES CON DISEÑOS DE DOS GRUPOS ALEATORIOS: Las características principales de estos diseños son: En primer lugar, se selecciona aleatoriamente un grupo de sujetos (la muestra) de una determinada población. Los sujetos de la muestra se asignan aleatoriamente a los grupos experimentales. Aleatoriamente, se asigna cada tratamiento experimental a cada grupo de sujetos. AMBOS GRUPOS PUEDEN SER EXPERIMENTALES O UNO DE ELLOS PUEDE SER GRUPO DE CONTROL (AL CUAL NO SE LE APLICA EL TRATAMIENTO – AUSENCIA DEL MISMO). Estos diseños presentan como utilidad el indicar de forma grosera si el factor manipulado ejerce algún efecto sobre el criterio (variable dependiente) y si lo ejerce, cuál es su dirección (si aumenta o disminuye en función de los niveles que son introducidos en la VI), así como también en qué magnitud. De algún modo puede ofrecer información para planificar experimentos más complejos. No obstante, también es cierto que puede presentar ciertos problemas. Al ser diseños muy simples, la información que brindan puede resultar pobre y a veces engañosa. Esto se puede comprender señalando que en ciertas oportunidades darle solo dos niveles a la VI no nos permite detectar qué sucede con la VD, bajo la introducción de otros niveles del factor. Esta cuestión se verá aclarada un poco más cuando exploremos el diseño multigrupo. Otro inconveniente es el riesgo de incurrir en la pseudoaleatorización: ocurre que en ciertas oportunidades se implementa un procedimiento que se considera que es asignación aleatoria y en verdad no lo es. Supongamos que en un aula de estudiantes quiero formar dos grupos experimentales y se los forma en función de su ubicación en la misma , siendo que uno de ellos están conformados por quienes están más cerca del docente y el otro por quienes están más alejado de él. Finalmente no podemos asegurar que cada uno de estos estudiantes tenga igual probabilidad de pertenecer a uno u otro grupo. También debemos considerar la posibilidad de inequivalencia inicial, aunque contemos con una muestra amplia. Esto puede ocurrir, de modo que para neutralizar este riesgo, se puede recomendar llevar a cabo el mayor número de veces posible de replicaciones (repetir la puesta a prueba de dicha hipótesis con otros sujetos, en otros contextos). No obstante, la equivalencia inicial, que se ve posibilitada por la aleatorización, se ve garantizada en la medida que contemos con muestras grandes…cuanto más numerosa es la muestra mayor probabilidad que las diferencias individuales quedarán distribuidas de manera equilibrada entre los grupos experimentales. Resumiendo, las principales desventajas son: a) Su dependencia de muestras grandes. b) La información incompleta que proporciona debido a su falta de sensibilidad, por utilizar solo dos niveles del factor manipulado. Por otro lado, sus principales ventajas son: a) Su simplicidad, por ser muy fáciles de llevar a cabo. b) Su economía, por el poco esfuerzo y costo que exigen. TIPOS DE DISEÑOS DE DOS GRUPOS ALEATORIOS Hay dos tipos: a) Diseño solo con medidas postratamiento. b) Diseño con medidas pre y postratamiento. Con respecto a la medida pretratamiento esta es una medida de la variable dependiente o de una variable altamente correlacionada con ella y su finalidad es comprobar la equivalencia de la variable dependiente entre los grupos. Entonces la lógica del modelo b es la siguiente (Observación: la lógica del diseño (a) es igual pero sin la toma de la medida pretratamiento): a) Formación aleatoria de los dos grupos. b) Asignación aleatoria de los tratamientos a los grupos. c) Tomar la medida pretratamiento de ambos grupos. d) Aplicación de tratamientos experimentales. e) Medidas postratamiento. f) Análisis de resultados. Representación simbólica de diseño de dos grupos al azar solo con medida postratamiento y con grupo de control Representación simbólica de diseño de dos grupos al azar solo con medida postratamiento y con dos grupos experimentales Representación simbólica de diseño de dos grupos al azar con medida pretratamiento y postratamiento y con grupo de control Representación simbólica de diseño de dos grupos al azar con medida pretratamiento y postratamiento y con dos grupos experimentales La validez interna de este diseño: Tomando como modelo el diseño aleatorio de dos grupos con medida pre y postratamiento, señalaremos las variables contaminadoras que pueden constituir una amenaza a la validez interna y cómo controlarlas. Historia Teniendo en cuenta que entre la medida pretratamiento y postratamiento transcurre un intervalo de tiempo durante el cual pueden ocurrir acontecimientos que afecten de algún modo a los sujetos y modifiquen su comportamiento, afectando de este modo a la segunda medida, se hace necesario contrarrestar sus posibles efectos para lo cual se deben tomar en los dos grupos simultáneamente tanto las medidas pre como las postratamiento, de tal manera que los efectos de la historia afecten por igual a ambos grupos. En este aspecto estamos controlando la historia intersesión. Pero también debemos considerar la historia intrasesión, esta refiere a los acontecimientos que están presentes durante la misma sesión experimental, tales como iluminación, ruidos, experimentador etc. Estos factores pueden afectar de manera diferencial a los sujetos de ambos grupos. La manera de neutralizar este posible efecto es igualar las condiciones mencionadas en ambos grupos, pero con respecto al experimentador no se hace posible, debido a que las mediciones se efectúan simultáneamente, entonces esto se resuelve asignando aleatoriamente los sujetos y los experimentadores, después de entrenar a éstos adecuadamente, a los grupos experimentales. El grupo de comparación también contribuye a controlar los efectos de la historia. Maduración La misma se refiere a los posibles cambios fisiológicos y psicológicos por el paso del tiempo, entre la toma de la medida pre y la toma de la medida post, que pueden afectar a la variable dependiente, confundiéndose los efectos de esa variable contaminadora con los del factor manipulado. Pensar en cuál es el lapso adecuado entre una medida y otra sin que la maduración opere sobre los individuos de la muestra va a depender del momento evolutivo de éstos. No es igual trabajar con niños, donde ocurren cambios dramáticos en poco tiempo, que hacerlo con adultos en los cuales esto no ocurre. De tal modo que el tiempo estará determinado por los sujetos, la tarea a realizar por ellos o el área o campo en que se lleva a cabo el estudio. La maduración queda neutralizada con el grupo de comparación, partiendo del supuesto que en ambos grupos se han producido los mismos cambios. Instrumentación Cuando se trabaja con materiales electrónicos, se deben utilizar los mismos instrumentos y en las mismas condiciones de medida en ambos grupos a fin de controlar los posibles efectos de esas variables contaminadoras. Experimentador Esta fuente de posible contaminación se controla utilizando varios experimentadores muy bien entrenados, asignándolos aleatoriamente a cada grupo, distribuyendo de esta forma su influencia por igual entre todos los grupos. Efectos reactivos de

Use Quizgecko on...
Browser
Browser