Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación PDF
Document Details
Uploaded by iamneress
Tags
Summary
This document introduces the processes involved in long-term memory (LTM). It details the stages of encoding, storage, and retrieval in LTM, and discusses how these processes work together. It explores the different types of encoding and how memory retrieval can be improved.
Full Transcript
Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 1. Introducción a los procesos en la MLP. Parece razonable suponer que, por ejemplo, cuando buscamos en la guía telefónica un número, lo recordamos mientras lo marcamos e inmediata mente después lo olvidamos, estamos usando u...
Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 1. Introducción a los procesos en la MLP. Parece razonable suponer que, por ejemplo, cuando buscamos en la guía telefónica un número, lo recordamos mientras lo marcamos e inmediata mente después lo olvidamos, estamos usando un sistema de memoria distinto de cuando recordamos el número de nuestro propio teléfono. En el primer caso la información está siendo mantenida en el sistema de memoria a corto plazo, mientras que en el segundo caso la información es extraída de un sistema de memoria a largo plazo. La memoria a largo plazo (MLP) abarca la idea de que la experiencia se va acumulando en alguna forma de almacén permanente ha estado siempre presente en el pensamiento humano. Sin embargo, el estudio riguroso y sistemático de la estructura y los procesos que rigen esa memoria a largo plazo no ha sido una realidad hasta hace relativamente pocas décadas. En efecto, el proceso de almacenar información encuentra su verdadero sentido en el nivel de la MLP. Ahora bien, conviene señalar que la idea de que la duración de lo almacenado en la MLP es ilimitada tiene una base más empírica que experimental. Experiencias cotidianas como la de encontrarnos con alguien que conocemos y no poder recordar en ese preciso instante su nombre, pero un tiempo después recordarlo espontáneamente, han llevado a suponer que la información de la MLP no se pierde jamás y que el olvido en general podría explicarse como un fallo para recuperar una determinada información en un determinado momento. Casi todas esas investigaciones han dejado espacios de tiempo relativamente cortos (del orden de minutos, horas, días, semanas o, como mucho y excepcionalmente, un año) entre el momento del aprendizaje del material (la fase de estudio) y la prueba de memoria (la fase de test). Existen, no obstante, estudios experimentales en los que el intervalo de retención ha sido superior incluso a los cincuenta años. LOS PROCESOS DE MEMORIA. CODIFICACIÓN, ALMACENAMIENTO Y RECUPERACIÓN. Asumiendo, pues, el hecho comprobable de que en nuestra MLP podemos almacenar cantidades ilimitadas de información que puede permanecer retenida por tiempo indefinido y que puede ser utilizada cuando convenga, nos encontramos de inmediato con la necesidad de postular la existencia de diferentes procesos que hagan posibles tales operaciones. Melton (1963) sugirió que el funcionamiento de la memoria dependía de al menos tres fases: la codificación, el almacenamiento y la recuperación. - Enfoque procesual: la memoria es la capacidad que tiene un individuo para adquirir y almacenar información, y para recuperar información ya almacenada. Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 1 - Codificación: la información presentada a un individuo se transforma de una forma física (ondas de luz u ondas de sonido que afectan a los receptores) en una representación de memoria (trazo de memoria o huella mnémica). Se refiere al procesamiento de la información entrante para que pueda ser almacenada. El proceso de codificación incluye, a su vez, dos procesos separados: la adquisición y la consolidación. o Adquisición: implica registrar los inputs de las memorias sensoriales y someter dicha información a diferentes análisis. o Consolidación: consiste en un proceso de creación de representaciones o de “huellas de memoria” cada vez más fuertes. - Almacenamiento: procesos referentes al conjunto de factores que afectan a la persistencia temporal de la información codificada. Estos procesos pueden ser constructivos (ej.: repaso) o de carácter destructivo (ej.: decaimiento o interferencia). Supone mantener o retener a través del tiempo un registro permanente de tales huellas. En sentido estricto, el término “almacenamiento” no describe realmente ningún proceso, sino que se refiere sencillamente al estado de la información que ha sido codificada - Recuperación: la información almacenada puede recuperarse con diferentes objetivos. Cualquier sistema de memoria, sea biológico o artificial, necesita hacer bien tales operaciones para funcionar eficazmente. En efecto, para que algo pueda ser almacenado en la memoria resulta imprescindible transformar previamente los estímulos sensoriales en representaciones asimilables por los sistemas de memoria. Es decir, los inputs estimulares tienen que ser codificados para poder ser almacenados. Pero, además, para que la información almacenada pueda ser recuperada en cualquier momento posterior, resulta absolutamente necesario que el almacenamiento se ajuste a determinadas reglas de organización. No tendría ningún sentido guardar la información sin orden ni concierto y que cada vez que necesitáramos recuperar algo tuviésemos que revisar una por una todas las huellas almacenadas. Además de antieconómica, dicha situación no nos garantizaría nunca de antemano que el proceso de recuperación fuera a tener éxito. El funcionamiento adecuado de la memoria depende, pues, de diferentes procesos – los señalados son sólo los básicos–. No obstante, aunque todos ellos resultan necesarios, los investigadores no dudan en destacar la importancia crucial de la codificación y de la recuperación, haciendo hincapié en la interacción entre ambos. 2. Significado y memoria. La crítica principal a Ebbinghaus por parte de Bartlett consistía en afirmar que su intento de separar la memoria del significado implicaba que estaba estudiando simples hábitos de repetición, lo que tenía muy poca relevancia para la manera en que nuestros recuerdos funcionan en la vida cotidiana. Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 2 De hecho, en la época en la que Bartlett criticaba el enfoque de Ebbinghaus, parecía ya claro que, aunque Ebbinghaus había logrado excluir el significado de su estrategia de aprendizaje, éste no era el caso con los estudiantes menos determinados, que posteriormente participaron en experimentos de aprendizaje verbal. En 1928, Glaze pidió a sus estudiantes que puntuaran el grado en que cada agrupación de una serie de combinaciones consonante-vocal-consonante sugerían una o más palabras reales. Algunas sugerían varias palabras; por ejemplo, la sílaba CAS podría sugerir castillo, casta y casino, mientras que es difícil que sílabas como ZIJ se conecten a palabras reales con sentido. Los datos disponibles indican claramente que las sílabas puntuadas como más significativas son más fáciles de recordar (Jung, 1968). ¿Significa esto que la gente se apoya explícitamente en palabras para recordar las sílabas? La velocidad a la que Ebbinghaus recitaba las sílabas hacía que esto fuera poco probable; Parece más probable la idea de Bartlett de que esta tarea implica el desarrollo de «hábitos de repetición», y que las sílabas más cercanas a la estructura de la lengua de los participantes sean las más fáciles de adquirir, porque son consistentes con hábitos de lenguaje bien asentados, un efecto que ya observamos en el recuerdo inmediato. Y esto ha demostrado ser así en el aprendizaje a largo plazo (Underwood). En los años sesenta, el uso de sílabas sin sentido en el aprendizaje verbal estaba ya a punto de desaparecer, sustituido por estudios que empleaban listas de palabras en las que el significado era, claramente, muy importante. En el caso del aprendizaje verbal, la tradición dominante era todavía la del asociacionismo estímulo-respuesta, cuyo interés se centraba en la influencia que las asociaciones preexistentes entre palabras ejercían sobre la facilidad de aprendizaje de las listas. Este enfoque se basaba en la idea de que la memoria podía explicarse puramente en términos de asociaciones o conexiones entre palabras. Cuando las asociaciones entre palabras eran fuertes, como pan y mantequilla, el aprendizaje era más fácil en comparación con los casos de asociaciones más remotas, como castillo y torre, o ausentes, como langosta y sinfonía. Hasta este momento, los investigadores dentro del ámbito del aprendizaje verbal tendían a basarse en tareas estándar como el recuerdo serial, en la que los ítems se recuerdan en el orden presentado, y el aprendizaje de pares asociados. En los años cincuenta del siglo pasado, de todas formas, los experimentadores empezaron a usar cada vez más la tarea menos rígida del recuerdo libre, en la que los participantes han de recordar tantas palabras de una lista como les sea posible, en un orden cualquiera. Deese (1959) demostró que las listas de palabras que estaban fuertemente asociadas entre sí eran más fáciles de recordar que las listas con pocas asociaciones entre palabras. Uno de los desarrollos más sorprendentes de aquel entonces fue el reconocimiento de la importancia de las imágenes visuales. La tradición del aprendizaje verbal estaba firmemente en contra de la introspección y no se mostraba dispuesta a acoger de buen grado la idea de que los sujetos se permitieran algo tan poco conductual como las imágenes visuales. Sin embargo, había datos aplastantes que confirmaban que una Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 3 puntuación de la medida en que las palabras evocaban una imagen era un predictor muy potente de cuán bien se recordarían. La persona que realizó este descubrimiento fue Allen Paivio. Si se te presentan dos listas, la lista que incluya palabras más concretas e imaginables será la que mejor recuerdes. Paivio estudió el efecto de la imaginabilidad de manera muy extensa, explicando este descubrimiento en términos de la hipótesis de la codificación dual, según la cual las palabras que son imaginables, como los sustantivos que designan objetos concretos (p. ej., cocodrilo), pueden codificarse en términos tanto de su apariencia visual como de su significado verbal. La creación de imágenes interactivas tiende a ser mucho más difícil en el caso de palabras abstractas, como esperanza y teoría. Existen, así pues, dos rutas de recuperación para las palabras imaginables —una visual y otra verbal— de manera que, si se pierde una ruta, la otra podría sobrevivir y permitir el recuerdo. 3. Procesos de codificación. La experiencia nos enseña que nuestra capacidad para recordar algo depende de lo que hayamos hecho cuando nos llegó la información correspondiente. En otras palabras, nuestros procesos de recuperación actuales tendrán éxito si, en su momento, codificamos adecuadamente lo que ahora queremos recordar. Estamos hablando de “recordar” y ese tipo de recuperación implica un esfuerzo consciente y explícito por evocar algo del pasado. Hacemos esta observación porque, como tendremos oportunidad de discutir cuando estudiemos los procesos de recuperación, las pruebas de memoria implícita podrían regirse por reglas diferentes a las de memoria explícita. La memoria explícita llena gran parte de nuestra vida cotidiana. Las relaciones personales dependen sobremanera de nuestra tendencia a compartir con los otros nuestras experiencias pasadas, algo que hacemos contando historias de nuestra vida. ¿Qué condiciones han hecho posible esos recuerdos? Cuando me encontraba de vacaciones, debieron de tener lugar en mi memoria ciertos cambios: la codificación y el almacenamiento de los sucesos que he recordado. Cuando me encontraba en la playa, los recuerdos fueron retenidos y ahora, cuando mi amigo me ha preguntado por mis vacaciones, ha sucedido algo que me ha llevado a recuperar tales recuerdos. Ya hemos insistido en la interconexión existente entre codificación, almacenamiento y recuperación, aunque ahora lo que quizás interesa resaltar es la idea de que la codificación es una condición imprescindible para el almacenamiento y el recuerdo. en el momento en el que se produce la codificación no pueden predecirse completamente las circunstancias en las que tendrá que producirse la recuperación. ¿Cómo es posible, entonces, encontrar la información necesaria para responder a la pregunta de mi amigo si tal pregunta no estaba prevista cuando se registró la información sobre mis vacaciones? Parece lógico suponer que el Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 4 sistema humano de memoria ha evolucionado para poder codificar una amplia gama de características de un suceso, cualquiera de las cuales nos puede llevar a recuperar un recuerdo. Resulta pues incuestionable que la codificación es vital para el recuerdo futuro. Pero, ¿cómo se produce la codificación? 4. La hipótesis de los niveles de procesamiento: incorporación de nuevos parámetros y evaluación critica. 4.1. El trazo de memoria como resultado de una codificación múltiple y otros supuestos. Con respecto a la codificación, las teorías tradicionales del trazo de la fuerza de la memoria defienden un análisis cuantitativo del trazo de memoria. Es decir, atienden a variables de la huella de memoria, pero no explican las características de dichas huellas como, por ejemplo, si utiliza los mismos o distintos códigos para la codificación de palabras polisémicas (misma palabra con varios significados) o si existen códigos específicos para cada significado. Como alternativa, existen teorías que adoptan un análisis cualitativo del trazo de memoria. Estas teorías consideran que el trazo de memoria es múltiple. Es decir, que existen distintos códigos que aplica una palabra en función de sus atributos. A esto se le llama multiplicidad de códigos. En línea con este enfoque nos encontramos con la explicación de Brown y McNeill del fenómeno de la punta de la lengua con sus estudios experimentales. Los estudios experimentales de Brown y McNeill se centraron en investigar el fenómeno de la "punta de la lengua" (TOT, por sus siglas en inglés), que se refiere a la sensación de conocer una palabra particular pero no poder recordarla en un momento dado. Estos estudios se llevaron a cabo en la década de 1960 y 1970 y se consideran fundamentales para comprender los procesos de recuperación de la memoria y la psicolingüística. En su investigación, Brown y McNeill utilizaron una variedad de métodos experimentales para estudiar el fenómeno de la punta de la lengua en diferentes contextos. Realizaron pruebas de recuperación de palabras y evaluaron cómo los individuos intentaban recuperar palabras que no podían recordar de inmediato. Además, observaron cómo factores como la longitud de la palabra, la familiaridad y la frecuencia de uso podrían influir en la experiencia de la punta de la lengua. Es decir, que existía un recuerdo parcial de los atributos de estas palabras. De esta forma, eran palabras olvidadas parcialmente. A través de sus estudios, Brown y McNeill demostraron que la punta de la lengua no era simplemente un caso de falta de acceso a la palabra en cuestión, sino más bien un proceso complejo de recuperación de la memoria. Descubrieron que la información semántica y fonológica de la palabra en cuestión se encontraba parcialmente activa en la mente del individuo, lo que generaba la sensación de familiaridad sin la capacidad inmediata de recordar la palabra específica. Estos estudios proporcionaron una comprensión más profunda de los mecanismos de memoria y recuperación de la información en el cerebro humano, lo que ha tenido importantes implicaciones para el campo de la psicología cognitiva y la lingüística. Además, sentaron las bases para investigaciones posteriores sobre la memoria y el lenguaje, y su legado ha influido en el desarrollo de teorías sobre el funcionamiento de la memoria y la cognición. Los estudios de Underwood son otro ejemplo del análisis cualitativo del trazo de memoria. Benton Underwood (1969, 1972, 1977) fue el primero en establecer una hipótesis sobre la multiplicidad de códigos. Sugirió que el trazo resultante de la codificación de un ítem incluye atributos de diferentes tipos: - temporal, permitiendo datar el suceso. - espacial, sobre todo con información visual Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 5 - de frecuencia, a modo de “contador” - de modalidad, permitiendo discriminar el origen de los recuerdos (por ej. si una palabra la hemos escuchado o leído). (refiriéndose a modalidad sensorial) - de tipo ortográfico, que explicaría las palabras sustitutivas en el fenómeno de la punta de la lengua. Este autor llegó a la conclusión de que la composición de atributos del trazo de memoria permite discriminar el origen externo o interno de nuestros recuerdos. - Los recuerdos de origen externo son generalmente más vívidos, porque contienen más atributos contextuales y sensoriales, así como más detalles semánticos, que los de origen interno. - Los recuerdos de origen interno se caracterizan por contener más información sobre operaciones cognitivas (ej.: razonamiento, repaso, búsqueda) *Procesos de control de la realidad: nos permiten discriminar la procedencia interna o externa de nuestros recuerdos. OTROS SUPUESTOS DE LA MULTIPLICIDAD DE CÓDIGOS. - Organización funcional de tipo jerárquico: niveles más “superficiales” corresponden a procesamiento de rasgos físicos y niveles “más profundos” al de propiedades semánticas. - Posibilidad de elección del nivel de procesamiento según las demandas de la tarea: la codificación de una palabra no es fija en todas las ocasiones. Esto es debatible porque es muy complicado aislarnos de la codificación semántica. - Relación funcional entre el nivel de procesamiento y la persistencia temporal del trazo de memoria: la mayor profundidad genera trazos más duraderos. 4.2. El trabajo pionero de Posner (1969, 1978). Michael Posner, un destacado psicólogo cognitivo, llevó a cabo una serie de estudios pioneros sobre el análisis cronométrico de los niveles de procesamiento en la década de 1970. Su investigación se centró en comprender cómo el procesamiento de la información varía según el nivel de profundidad en el que se procesa la información. Este trabajo fue fundamental para la comprensión de los procesos cognitivos y ha influido en el desarrollo de la psicología cognitiva. Posner utilizó técnicas cronometradas para medir el tiempo que llevaba a los participantes procesar diferentes tipos de estímulos. Específicamente, se interesó en la forma en que la información se procesaba a nivel perceptivo, semántico y estructural. Para hacerlo, desarrolló experimentos que evaluaban el tiempo de reacción de los participantes a diferentes tipos de estímulos, como palabras, imágenes y símbolos (nosotros nos centraremos en las palabras), que se presentaban en parejas y el sujeto debía juzgar si eran iguales o no. De esta forma, el sujeto debía realizar tres tipos de similitud: - Identidad física. P.ej: A A - Identidad nominal. P.ej: A y a Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 6 - Igualdad semántica (juicios categoriales). P.ej: vocales A y e Sus hallazgos demostraron que el tiempo de procesamiento varía según la profundidad de procesamiento de la información. Por ejemplo, observó que el procesamiento semántico, que implica una comprensión más profunda y significativa de la información, generalmente lleva más tiempo que el procesamiento perceptivo superficial, que se enfoca en características superficiales y visuales de la información. Además, Posner pudo identificar patrones específicos de tiempo de reacción que estaban asociados con cada nivel de procesamiento. Estos experimentos sentaron las bases para la teoría de los "niveles de procesamiento" en psicología cognitiva, que propone que el recuerdo y la recuperación de la información están influenciados por la profundidad de su procesamiento durante la codificación. Posner contribuyó significativamente al entendimiento de cómo la memoria y el pensamiento se ven afectados por los diferentes niveles de procesamiento, y su trabajo ha tenido una influencia duradera en la psicología y la neurociencia cognitivas. 4.3. La formulación original de Craik y Lockhart (1972). ¿Por qué el significado facilita el aprendizaje a largo plazo? Una posibilidad es que el almacenamiento en la MCP se apoye en un código fonológico, mientras que la MLP tendría una base semántica. Ésta es una explicación poco satisfactoria por dos razones. En primer lugar, parece claro que podemos demostrar el aprendizaje a largo plazo de información fonológica, ya que de lo contrario ¿cómo lograríamos aprender el sonido de las palabras de la lengua? Además, afirmar simplemente que la MLP usa un código semántico no explica por qué un código semántico es útil. Craik y Lockhart (1972) ofrecieron una respuesta a este rompecabezas mediante su hipótesis de los niveles de procesamiento. Para cualquier estudioso de la memoria, resulta fácil comprobar que gran parte de la investigación sobre los procesos de codificación se ha realizado bajo la influencia de la hipótesis de los niveles de procesamiento de Craik y Lockhart. Estos autores argumentaron que la memoria depende de las actividades de procesamiento que se aplican a la información entrante. En otras palabras, que la calidad de lo recordado dependerá de cómo se haya procesado la información en el momento de la codificación. Así, su propuesta se aleja de la idea de almacenes de memoria (Modelo modal) que poseen códigos específicos, y enfatiza que la manera en que el material se procesa determina su durabilidad en la MLP. Los autores proponen que la información es recogida y procesada a varias profundidades. El análisis perceptivo de un ítem implica un continuo de niveles de procesamiento, que se extienden desde los niveles más “superficiales” (análisis de rasgos físicos o sensoriales) hasta los niveles más “profundos” (codificación de las Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 7 propiedades semánticas de la información). Cada uno de estos procesos deja un trazo de memoria, y que los procesos más profundos dejan un trazo más duradero. De forma más específica, Craik y Lockhart formularon cuatro supuestos básicos: 1. Las huellas de memoria son el resultado de una serie de análisis de la información que llega, con la particularidad de que tales análisis están jerarquizados en diferentes niveles de procesamiento de modo que cada uno es más profundo que el anterior. 2. Cuanto más profundo sea el procesamiento, más duraderas serán las huellas de memoria y, en consecuencia, habrá mayor retención. 3. El buen rendimiento de la memoria no depende de repetir una y otra vez la información, sino que está determinado por la mayor profundidad de los análisis, de lo que se deriva que el repaso es relativamente importante. 4. Naturaleza metodológica. El modo como debe ser estudiada la memoria; estos autores argumentaron que la memoria debería ser investigada en condiciones de aprendizaje incidental REPASO DE MANTENIMIENTO Y REPASO ELABORATIVO. La experiencia nos enseña que la práctica mental que supone repasar algo mejora el recuerdo posterior de ese algo. En el contexto de la psicología de la memoria, el concepto de repaso debe diferenciarse de otro concepto estrechamente relacionado, la repetición. - La repetición se refiere al hecho de que un ítem aparezca o se experimente más de una vez. - El repaso se refiere al proceso de pensar o trabajar mentalmente con un ítem. Para argumentar que el rendimiento de la memoria no depende de la cantidad de repaso sino del nivel de profundidad al que se analice un ítem, Craik y Lockhart distinguieron dos tipos de procesamiento: procesamiento Tipo I o repaso de mantenimiento, y procesamiento Tipo II o repaso elaborativo. 1. El repaso de mantenimiento (procesamiento Tipo I) es un tipo superficial y repetitivo de reciclaje de la información. Es el tipo de repaso al que generalmente recurrimos para retener un número de teléfono durante el intervalo que va desde que lo miramos en la guía telefónica hasta que lo marcamos. Lo esencial aquí es que, una vez que dejamos de repasar tal información, se pierde sin dejar un rastro permanente en la memoria. 2. El repaso elaborativo (procesamiento Tipo II), por el contrario, es un tipo más complejo de repaso que toma como base el significado de la información para procesarla más profundamente cada vez, hasta un nivel en el que entra en contacto con otros significados ya almacenados en la memoria. En consecuencia, este material más elaborado será mejor recordado. Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 8 El repaso elaborativo es el que llevamos a cabo, por ejemplo, cuando tratamos de construir frases con las palabras de una lista que queremos aprender, o cuando intentamos aprendernos un número de teléfono asociando cada cifra o cada par de cifras con fechas históricas o números que nos son familiares, porque sabemos que de esa manera estamos garantizando el recuerdo posterior de esas informaciones. Lo controvertido de este supuesto es que implica que existe un tipo de repaso (el Tipo I o de mantenimiento) que no mejora la retención a largo plazo. Por tanto, parece más apropiado hablar de un continuo entre ambos tipos de repaso que de una dicotomía; aunque no hay que olvidar que el repaso de mantenimiento mejora mucho menos la retención a largo plazo que el repaso elaborativo. APRENDIZAJE INCIDENTAL VERSUS APRENDIZAJE INTENCIONAL. En condiciones de aprendizaje incidental el sujeto no sabe que el material que está procesando será evaluado más tarde, por lo que se limita a procesarlo siguiendo las sugerencias del experimentador. Craik y Lockhart recomendaron investigar la memoria con procedimientos de aprendizaje incidental precisamente porque en tales condiciones el experimentador tiene control sobre el procesamiento que el sujeto aplica al material, algo que no se produce en condiciones de aprendizaje intencional, donde el sujeto es instruido para que aprenda una determinada información y éste utiliza una estrategia de codificación desconocida. Por tanto, lo que distingue básicamente el aprendizaje incidental del aprendizaje intencional es la naturaleza de las instrucciones que se dan a los sujetos. Cuando no se les informa que tras la presentación del material se les administrará un test de memoria, se trata de una condición de aprendizaje incidental; cuando sí se les informa previamente, se trata de una condición de aprendizaje intencional. Así pues, en condiciones de aprendizaje incidental, se presenta a los sujetos el material relevante pero no se les dan instrucciones para aprender. Esto implica que los sujetos deben realizar algún tipo de tarea de orientación que los llevará a dirigir su atención al material presentado y que más tarde será objeto del test acerca del cual no se les ha dado ninguna información. De este modo, el experimentador tiene un cierto control sobre la naturaleza del procesamiento de la información realizado por el sujeto, lo que permite comparar la retención subsiguiente a diferentes tipos de tareas de orientación, así como entre condiciones de aprendizaje incidental y aprendizaje intencional. En general, la investigación experimental ha puesto de manifiesto la ausencia de diferencias en memoria entre condiciones de aprendizaje incidental e intencional, lo que sugiere que la intención de aprender no es necesariamente una variable relevante en la investigación de la memoria. Postman (1964) señaló con toda claridad que la variable crítica que determina lo que se aprende y lo que se recuerda no es la intención de aprender per se, sino “las respuestas” que da el sujeto en la situación de aprendizaje. Sin embargo, esta “teoría de la respuesta” de Postman tropieza con un problema extremadamente difícil: identificar las hipotéticas respuestas producidas por una tarea de orientación determinada. Sin embargo, desde un planteamiento cognitivo, la explicación del hecho repetidamente comprobado de que, generalmente, no hay diferencias en memoria entre grupos de aprendizaje incidental e intencional cuando ambos grupos Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 9 realizan la misma tarea de orientación, permite concluir que el rendimiento mnemónico no está determinado por la intención de aprender sino por la naturaleza de las actividades de codificación realizadas por el sujeto. En suma, la investigación demuestra que la memoria (tanto de recuerdo como de reconocimiento) está determinada por el modo como los sujetos codifican el input, mientras que la intención de aprender parece tener una mínima importancia (a lo sumo, un efecto marginal sobre el recuerdo y un mínimo o nulo efecto sobre el reconocimiento). CÓDIGOS ESTRUCTURALES, SEMÁNTICOS E INTENCIONALIDAD. James Jenkins y su grupo de investigación realizaron los primeros experimentos que parecían apoyar muchos de los postulados de la propuesta teórica de los niveles de procesamiento, incluyendo que todos los códigos no son igual de útiles, o la importancia relativa de la intencionalidad. En uno de tales experimentos, Hyde y Jenkins (1969) presentaron la misma lista de 24 palabras a 7 grupos de sujetos. Las condiciones experimentales de cada grupo diferían en cuanto a las instrucciones recibidas: tres grupos realizaron la prueba en condiciones de aprendizaje incidental, otros tres en condiciones de aprendizaje intencional y el séptimo grupo fue de control. Cada uno de los grupos tanto de aprendizaje incidental como de aprendizaje intencional realizó una de las siguientes tareas de orientación: 1. Juzgar las palabras como agradables-desagradables. 2. Detectar qué palabras contenían la letra “E” 3. Estimar el número de letras de cada palabra. Según Hyde y Jenkins, parece correcto suponer que la tarea agradable-desagradable exige extraer el significado de las palabras o, lo que es lo mismo, codificar semánticamente tales palabras, mientras que las otras dos tareas sólo exigen procesar las características estructurales de las palabras. En resumen, los resultados de los seis grupos experimentales sugieren al menos dos cosas. A. Que cuando la tarea de orientación requiere codificar el significado de las palabras, el recuerdo es mucho mejor que cuando la tarea sólo implica codificar la estructura de estas. B. Que la intención explícita de aprender apenas produce diferencias Es la naturaleza de la tarea de orientación la que determina la forma del código que se retiene en la memoria y que cuanto más se acerca dicho código al nivel semántico mejor será el recuerdo. En trabajos posteriores, Hyde y Jenkins (1973) corroboraron estos resultados, que han sido considerados por bastantes autores como una prueba clara en apoyo de la idea central de la propuesta de los niveles de procesamiento de que cuanto más profundos son los análisis más duraderas y recuperables son las huellas de memoria. Es un hecho denunciado por muchos investigadores que la propuesta de los niveles resultó vaga e imprecisa desde el principio. Por ejemplo, está comprobado empíricamente que la palabra tiburón se recuerda Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 10 mejor cuando se presenta con la pregunta “¿La siguiente palabra es un animal?” que cuando se presenta con la pregunta “¿Rima la siguiente palabra con camión?”. Pero ¿por qué ocurre esto, ¿cuál es la explicación de este resultado? La respuesta típica ha sido ésta: porque la primera condición implica un nivel más profundo de procesamiento. Si el recuerdo (o el reconocimiento) es bueno, la tarea habrá requerido un procesamiento profundo, y, si el recuerdo es malo es porque el ítem sólo ha sido procesado a un nivel superficial. Una argumentación así, donde la profundidad de los análisis es inseparable del rendimiento de la memoria, puso de manifiesto algo tan preocupante como que la propuesta de Craik y Lockhart carecía de una medida objetiva de la “profundidad del procesamiento”. 4.4. Contrastación experimental de la hipótesis: Craik y Tulving (1975). En 1975, Craik y Tulving publicaron un extenso trabajo experimental en cuyos objetivos se incluía producir una definición de “profundidad” independiente de sus efectos sobre la retención. Este trabajo, además, ha sido considerado como la primera prueba diseñada especialmente para evaluar de forma experimental el enfoque de los niveles de procesamiento. El procedimiento general fue el siguiente: a los sujetos se les decía que iban a hacer unos experimentos sobre percepción y velocidad de reacción. En cada ensayo se hacía una pregunta y, a continuación, se presentaba una palabra durante 200 milisegundos. Las preguntas, a las que había que responder SÍ o NO, estaban diseñadas, como en cualquier tarea de orientación, para inducir al sujeto a procesar la palabra a un determinado nivel de análisis. Así, pues, desde la perspectiva del sujeto, el procedimiento consistía en escuchar una pregunta, ver una palabra y responder, lo más rápidamente posible, apretando el botón de “sí” o el botón de “no”. Este procedimiento permitía al experimentador medir tanto la exactitud como la latencia de las respuestas. Después de un elevado número de ensayos, y sin previo aviso (aprendizaje incidental), se pasaba a los sujetos una prueba de retención (en unos casos era una prueba de reconocimiento y en otros de recuerdo) sobre las palabras procesadas en la fase de estudio. La predicción general era que las preguntas de los niveles más profundos exigirían más tiempo para responderse, pero producirían una huella de memoria más elaborada que, a su vez, daría lugar a un rendimiento superior tanto en reconocimiento como en recuerdo. Los cuatro primeros experimentos de Craik y Tulving confirma ron claramente dicha predicción y llevaron a los autores a considerar el tiempo emplea do en el procesamiento como un criterio objetivo de la profundidad. Sin embargo, también encontraron en los resultados de esos primeros experimentos algunos aspectos inconsistentes con la formulación en términos de profundidad de procesamiento. En concreto, comprobaron Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 11 que las palabras a las que se había dado una respuesta afirmativa se reconocían y recordaban mejor que aquellas a las que se había dado una respuesta negativa, aunque los tiempos de reacción de unas y otras eran idénticos. Ante tal hallazgo, plantearon dos hipótesis: o el tiempo de reacción no constituye un índice adecuado de la profundidad de procesamiento, o la profundidad no predice bien la retención posterior. Para contrastarlas, llevaron a cabo un nuevo experimento en el que administraron a los sujetos dos tareas: una superficial pero difícil y que requería mucho tiempo, como decidir si una palabra se ajustaba a un patrón determinado de vocales (V) y consonantes (C), y una semántica fácil que requería poco tiempo. Los resultados fueron muy claros: la tarea superficial (no semántica), a pesar de que consumía más tiempo, daba lugar a un reconocimiento inferior. Por tanto, el tiempo empleado en realizar la tarea de orientación no ofrecía un índice directo de la profundidad, y se confirmaba que era la profundidad del procesamiento lo que determinaba el rendimiento de la memoria. Resultados: cuanto más “profundo” era el nivel de procesamiento, mayor TR y mejor memoria (especialmente para preguntas con respuesta “sí“). 4.5. Modificaciones en la formulación original. La búsqueda de una medida directa de la profundidad de procesamiento llevó a Craik y Tulving al descubrimiento de fenómenos no previstos que llegaron a significar nuevos problemas para la propuesta original de los niveles, aunque, al mismo tiempo, propiciaron el desarrollo de nuevas ideas y, en definitiva, el enriquecimiento de dicha propuesta teórica. En concreto, el Experimento 7 arrojó unos resultados difícilmente conciliables con la idea original de la existencia de un continuo de profundidad entre los diferentes niveles. En dicho experimento todas las tareas implicaban un nivel semántico de procesamiento, dado que todas ellas consistían en decidir si una palabra encajaba en un marco oracional, con la particularidad de que el diseño incluía tres niveles de complejidad para los marcos oracionales. Los resultados pusieron de manifiesto un incremento sistemático del recuerdo en función de la complejidad del marco oracional. La proporción de palabras recordadas que encajaban en oraciones complejas fue el doble de las obtenidas con las palabras que encajaban en oraciones simples. Craik y Tulving entendieron que estos resultados reflejaban los efectos del grado de elaboración de los marcos oracionales. Sin embargo, no era fácil interpretar tales resultados a la luz de la propuesta de los niveles de procesamiento, por una razón muy clara: en este experimento, todas las palabras habían sido analizadas en el mismo nivel (semántico). Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 12 Craik y Tulving llegaron a la conclusión de que los resultados de este experimento eran compatibles con los obtenidos en los cuatro primeros experimentos si se admitía la acción de dos mecanismos: las tareas de orientación con diferentes niveles de análisis afectarían a la naturaleza cualitativa de la huella de memoria, mientras que las diferencias producidas en el mismo nivel de procesamiento (Experimento 7) se deberían a diferencias en la elaboración de la huella de memoria. Este planteamiento supuso introducir una modificación en la hipótesis de 1972, que, a partir de ahora, debería tener en cuenta que una vez que se alcanza un determinado nivel de procesamiento, la retención es una función del grado de elaboración del estímulo, entendiendo por elaboración la riqueza o amplitud de la codificación dentro de un dominio específico. El grupo de investigadores relacionado directamente tanto con la propuesta teórica de los niveles como con su contrastación experimental reconoció la dificultad para interpretar los nuevos datos dentro de dicho marco teórico, modificó algunas de las ideas originales y propuso que sería más apropiado referirse a dominios de codificación que a un continuo entre niveles de profundidad. En palabras de algunos de estos investigadores, “los dominios podrían considerarse como una organización jerárquica que iría desde los dominios superficiales y estructurales a los dominios profundos y semánticos”. Los estímulos podrían ser analizados o elaborados mediante operaciones adicionales dentro de un continuo cualitativamente coherente. Por otra parte, se señaló que el grado de elaboración parece depender del nivel de congruencia entre el marco oracional y la palabra. Éste era también un hallazgo imprevisto en el enfoque de los niveles de procesamiento, de modo que Craik y Tulving recurrieron al concepto de congruencia de Schulman (1971) para interpretar las diferencias entre respuestas positivas y negativas. Esta idea de congruencia se refiere a que en los casos en que se responde afirmativamente, la palabra y el marco oracional (o la pregunta, en general) son semánticamente congruentes, lo que permite que los contextos de codificación creados por ambas se combinen y formen una única huella de memoria coherente y elaborada que, consecuentemente, será mejor recordada. Sin embargo, aquí no se acababan los problemas teóricos, ya que, dentro de un dominio específico de procesamiento, la noción de elaboración no es suficiente para comprender el rendimiento de la memoria. Es decir, el hecho de que una huella contenga más información que otra no basta para que se recuerde mejor. Como demostraron Jacoby y Craik (1979), un mayor grado de elaboración del estímulo garantiza una mejor retención no porque se produzca un cambio cuantitativo en la codificación, sino porque ese proceso de añadir más información permitirá la formación de una huella más distintiva y, por tanto, más fácil de discriminar. Así pues, se sugirió que la distintividad es el factor crucial subyacente al efecto de la elaboración. Eysenck (1979), por su parte, definió como distintiva aquella huella que comparte con otras un número relativamente pequeño de características. En realidad, la distintividad es el factor que subyace al efecto Von Restorf. Desde la publicación de los experimentos de este psicólogo de la Gestalt (von Restorff, 1933; ver más adelante apartado sobre “Organización”), se sabe que los elementos no similares o incongruentes de un Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 13 conjunto se recuerdan mejor que los elementos similares. Por tanto, parece claro que el grado de distintividad depende del contexto en el que se procesa el estímulo. En el marco de los niveles, esto significa que una huella puede ser distintiva en un dominio de procesamiento (e.g., fonológico), porque comparte pocas características con otras huellas de ese contexto, pero no ser distintiva en un dominio diferente (e.g., semántico), por compartir muchos atributos de codificación con otras huellas. Esta relatividad de la distintividad es la característica que mejor la distingue de la elaboración. Así, si la elaboración implica añadir información a la huella o enriquecerla, la distintividad supone, por encima de todo, contraste de la información. En general, los teóricos asumen que nuestra memoria tiende a aumentar lo diferente de cada información (es decir, a aumentar su contraste) y por ello las huellas resultan distintivas y fáciles de recuperar. Resumen de modificaciones diapos. - Elaboración: Dentro de un determinado nivel de procesamiento el recuerdo es variable en función del grado de elaboración (es decir, de la riqueza, extensión o amplitud de la codificación). Craik y Tulving (1975) lo exploran en uno de sus experimentos. Tarea: o A los participantes se les pedía juzgar si una determinada palabra (ej. reloj) encajaba o no en el contexto de una frase. o Las frases variaban en su grado de complejidad, pero todas demandaban un nivel semántico de procesamiento. Ejemplos: “Se paró el ….” (frase relativamente simple). “El viejecito recorrió, cojeando, la habitación y cogió el valioso….de la mesa de caoba” o La prueba de memoria era recuerdo libre, con claves (contexto de la frase) o sin claves, de las palabras objetivo. Resultados: Se encontró un incremento del recuerdo en función de la complejidad de la frase (clara ventaja para las palabras integradas en frases semánticamente más ricas), sobre todo en la prueba de recuerdo libre con claves. La idea de que el procesamiento más profundo implica elaboración encaja claramente con la distinción de Craik y Lockhart (1972) entre “repaso de mantenimiento” y “repaso de elaboración”. - Distintividad: grado de discriminabilidad de un determinado trazo de memoria dentro del contexto representacional. El recuerdo de un ítem será mejor cuando la codificación da lugar a un trazo con propiedades únicas o distintivas en relación con los demás ítems de la lista de aprendizaje. Ej.: estudios de confusión en la MCP. Esta ventaja que los elementos distintivos tienen en la memoria sobre los menos distintivos se conoce como el efecto von Restorff (en honor al trabajo de Hedwig von Restorff, 1933). Por ej., si una palabra está impresa en rojo en una lista de palabras en negro la palabra en rojo se recuerda mejor. - Congruencia: en las tareas semánticas, cuando los ítems son positivos (que cuadran con la frase), la frase y la palabra son semánticamente congruentes y se integran en una sola unidad cognitiva, mientras que en los ítems negativos se codifican por separado. Ello explica el mejor recuerdo de los ítems positivos. - Destreza: el recuerdo de una información depende también de las habilidades o destrezas cognitivas del individuo. Ej.: los poetas y expertos en dialectos, percepción del habla, etc., pueden recordar algunas propiedades fonéticas con la misma precisión que las semánticas. 4.6. Evaluación critica de la hipótesis de los niveles. 1. Ausencia de una medida de la profundidad de procesamiento que sea independiente (no hay una verdadera medida empírica del constructo). Asociar “profundidad” con latencia de codificación ha dado resultados poco satisfactorios (el TR está modulado no sólo por el tipo cualitativo de codificación, sino también por el nº de operaciones de codificación -elaboración-) y definir los niveles en términos de recuerdo peca de circularidad. Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 14 2. No se ha demostrado que la profundidad sea una dimensión continua. Sólo se aprecia una diferencia estable entre las tareas que exigen procesamiento semántico y las que demandan codificación perceptiva. 3. Se puede cuestionar la organización jerárquica de los niveles. La hipótesis de los niveles comparte algunos principios con las teorías multialmacén: los niveles se apoyan en una concepción lineal del procesamiento. 4. Sesgo poco justificado hacia los procesos de codificación, descuidándose los procesos de recuperación. El recuerdo no depende exclusivamente de las condiciones de codificación, sino también del contexto en que se recuerde. 5. Relaciones imprecisas entre los niveles y el recuerdo. Dos predicciones que no siempre han recibido apoyo empírico: a. “La mera repetición de información procesada en el mismo nivel no incrementa el recuerdo”. No siempre ocurre, ya que la mera repetición puede mejorar la retención, sobre todo en reconocimiento. b. “Cuanto más profunda es la codificación, mejor será el recuerdo”. No siempre ocurre, ya que la eficacia del tipo de codificación puede verse afectada por las características de la prueba de memoria (véase el principio de “procesamiento apropiado para la transferencia”) PROCESAMIENTO APROPIADO PARA LA TRANSFERENCIA. En 1977, Morris, Bransford y Franks demostraron que la naturaleza del test de retención determina la magnitud del efecto de los niveles de procesamiento. Estos autores pusieron en entredicho el supuesto, hasta entonces fuertemente apoyado, de que un procesamiento profundo y significativo produce una mejor retención que un procesamiento superficial y poco significativo. La ejecución relativa al recuerdo de palabras evaluadas visual o fonológicamente es bastante pobre, mientras que si se instruye a los participantes para que evalúen las palabras basándose en su significado la ejecución es óptima. Esto podría, en parte, reflejar un sesgo en la manera en que se hace el test de los ítems. Más específicamente, durante las pruebas de recuerdo, los participantes podrían estar acostumbrados a recordar el significado de las palabras recientemente encontradas, y por ello el test implícitamente pone el énfasis en el significado. Según los autores, tal aseveración podía deberse, en gran parte, a un sesgo inherente a la forma como se mide la memoria. Por tanto, antes de aceptar como definitivo ese supuesto, “es necesario considerar no sólo los niveles de procesamiento sugeridos por las tareas de adquisición, sino también los niveles de procesamiento inducidos por la forma del test de memoria” (Morris et al., 1977, p. 521). Este grupo de investigadores realizó una serie de experimentos en los que los sujetos fueron instruidos para que codificaran las palabras atendiendo a su estructura fonémica (juzgar SÍ o NO una palabra rimaba con otra) o a su estructura semántica (juzgar SÍ o NO una palabra encajaba en un marco oracional). Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 15 Las tareas de orientación eran de naturaleza semántica o de naturaleza fonémica. Cada sujeto recibía las mismas palabras en las distintas tareas. El factor “tarea de orientación” fue cruzado con el factor “tipo de test”, de tal manera que, tras la tarea de codificación, la mitad de los sujetos recibía un test de reconocimiento en el que las palabras que debían reconocer eran las palabras originales de la fase de estudio, mientras que a la otra mitad se le administraba un test de reconocimiento de rimas. En este segundo caso, a los sujetos se les dijo que deberían reconocer qué palabras, de las incluidas en el test, rimaban con las palabras presentadas en la fase de estudio. Los investigadores asumieron que los sujetos del primer grupo realizarían la tarea de reconocimiento apelando al significado de las palabras del test y, por lo tanto, esperaban que se produjera un mejor rendimiento con las palabras codificadas semánticamente. Dicha predicción se cumplió. Es decir, Morris et al. observaron que el procesamiento profundo llevaba a una ejecución muy superior bajo las condiciones de reconocimiento estándar, como habían demostrado Craik y Tulving (1975). Sin embargo, ocurría lo contrario con el reconocimiento de rimas: la tarea de codificación más superficial basada en las rimas lleva a una mejor ejecución. Un estudio posterior de Fisher y Craik (1977) replicó globalmente estos resultados, pero enfatizó que había, en general, una clara ventaja asociada al procesamiento profundo (codificación semántica). Sin embargo, los dos grupos de autores coinciden en que sólo tiene sentido hablar de la eficacia de un método de aprendizaje en el contexto de la manera en que el recuerdo se pone a prueba posteriormente en la memoria de reconocimiento. Parece claro, entonces, que la eficacia de los diferentes niveles de procesamiento depende de cómo se mide la memoria. Estos hallazgos llevaron a Bransford, Franks, Morris y Stein (1979) a la conclusión de que los tests de recuerdo libre y reconocimiento utilizados para validar el enfoque de los niveles de procesamiento han estado claramente sesgados en favor del procesamiento semántico. Este grupo de investigadores han propuesto sustituir la noción de niveles de procesamiento por la de procesamiento apropiado para la transferencia. Dentro de esta propuesta, se considera que cuando los tests utilizados para medir la memoria son apropiados para transferir el conocimiento obtenido durante la fase de codificación no está justificado asumir – como se hace en el enfoque de los niveles– que las huellas de determinados ítems son más o menos duraderas o adecuadas que otras sólo porque hayan sido procesadas a un nivel más o menos profundo. Todo lo cual Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 16 permite asumir que ninguna forma de codificación es invariablemente mejor que otra, sino que el mejor código es el que es más compatible con el test utilizado para medir la memoria. En otras palabras: para que una prueba pueda poner de manifiesto aprendizaje previo, los requisitos de procesamiento de la prueba deben coincidir con las condiciones de procesamiento de la codificación. es un principio que ha sido invocado para explicar el potente fenómeno de la profundidad de procesamiento. 6. Debilidad teórica del constructo “niveles de procesamiento”. Regla general valiosa, pero el principio no ha generado grandes desarrollos teóricos. Describe más que explica. ¿Por qué la codificación semántica es más efectiva? Falta algún mecanismo explicativo. A pesar de todas las críticas, una idea fundamental derivada de la hipótesis de niveles de procesamiento es que el funcionamiento de la memoria depende de lo que hace el individuo con el material de aprendizaje (importancia de la flexibilidad y funcionabilidad de la codificación). 5. Organización y recuerdo. 5.1. Importancia de la organización: introducción y perspectiva histórica. El enfoque de los niveles de procesamiento asumió la idea de que cuanto más distintiva es una huella de memoria, más diferente es del resto y, por tanto, más fácil es su recuperación. Al mismo tiempo, un número extenso de investigaciones ha demostrado hace tiempo que la organización mejora la memoria. Pero, si se tiene en cuenta que cuando se organiza una información lo relevante son las similitudes, surge de inmediato una paradoja que Hunt y McDaniel (1993, p. 42) expresaron así: “¿Cómo es posible que la similitud (organización) y la diferencia (distintividad) puedan ser al mismo tiempo beneficiosas para la memoria?”. Para los investigadores de la memoria, el término organización puede referirse a las relaciones entre la información que hay que recordar (por ejemplo, el modo como está estructurada la información que llega), o bien a las estrategias que el sujeto pone en marcha en el momento de la codificación, esto es, a la estructuración o reestructuración que el propio sujeto impone para hacer más recuperable la información que le llega. Los primeros que trataron de estudiar de manera sistemática la organización de la memoria fueron los psicólogos de la Gestalt, al generalizar los principios organizativos de la percepción a la memoria humana. Los gestaltistas comprobaron que los grupos de ítems tienden a percibirse como unidades, lo que les hizo sospechar que el sujeto, valiéndose de factores tales como la similitud, la proximidad y la continuidad, organiza los grupos de ítems en todos unificados. No obstante, su influencia, que se limitó al estudio de la memoria de la forma, no aportó hipótesis válidas ni consistentes. Quizá merezca la pena destacar la demostración ya mencionada de Von Restorff (1933) de que un ítem heterogéneo dentro de una lista homogénea se recordará mejor que un ítem homogéneo. El efecto Von Restorf fue interpretado por su descubridor en términos del efecto figurafondo: el número aislado forma una huella que se destaca del fondo de sílabas, por lo que existe poca probabilidad de Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 17 que sea asimilado por el fondo. Más recientemente, dicho efecto ha sido interpretado en términos atencionales, considerándose como factor crucial el valor sorpresa del ítem aislado más que su aislamiento como tal. Desde aquella primera incursión de los psicólogos de la Gestalt, el estudio de la organización de la memoria estuvo prácticamente ignorado. La razón fue que el estudio del aprendizaje y la memoria humana estuvo domina do por el asociacionismo, que pretendió estudiar tales procesos en las situaciones más simples y artificiales de laboratorio. El cambio conceptual y metodológico que se produjo a mediados del pasado siglo con la introducción de las palabras como material y la utilización de las tareas de recuerdo libre hicieron resurgir el interés por el estudio de la organización. Como se sabe, en una prueba de recuerdo serial las palabras deben recordarse en el mismo orden de presentación, mientras que en el recuerdo libre los sujetos tienen libertad para recordar los ítems en el orden que deseen, por lo que esta técnica se convierte en el medio más idóneo para investigar las estrategias que adoptan los sujetos para organizar los ítems en su memoria. Tulving (1968) distinguió dos tipos de organización: primaria y secundaria. 1. La organización primaria describe estrategias tales como ordenación y agrupamiento de los ítems sin tener en cuenta su significado. El recuerdo mejora cuando se agrupan y repiten los ítems en unidades de tres o cuatro. 2. La organización secundaria es la que se produce cuando el orden de los ítems está determinado por factores semánticos o fonológicos. Probablemente toda la memoria está organizada, pero no es casualidad que la teoría sobre la organización se haya elaborado básicamente a partir del paradigma de recuerdo libre. La razón es que la mayoría de las ideas sobre la organización no han surgido del recuerdo per se, sino del estudio del orden en que los ítems son recordados. La investigación tradicional sobre tales cuestiones puede agruparse en torno a dos enfoques teóricometodológicos diferentes. 1. Aquellos estudios en los que la organización ha sido “impuesta por el experimentador”. 2. Incluye los estudios sobre la llamada “organización subjetiva”, en los que las listas han sido elaboradas al azar para eliminar las relaciones semánticas o fonológicas entre las palabras. Este último enfoque trata de averiguar si los sujetos son capaces de descubrir, o inventar, relaciones entre los ítems basadas en el significado. Tema 3: Memoria a largo plazo I. Procesos de codificación y consolidación. 18 5.2. Evidencia experimental de la importancia de la organización. ORGANIZACIÓN DENTRO DEL MATERIAL DE ESTÍMULO. Los participantes son capaces de aprovechar la organización del material proporcionada por el experimentador (organización impuesta desde fuera por el investigador u organización externa). Se refleja tanto en las puntuaciones de recuerdo como en el agrupamiento de las respuestas durante el recuerdo. Tipos: - Organización asociativa: se refleja en la agrupación asociativa en el recuerdo. Pares de palabras altamente asociadas semánticamente (Barttlet). - Organización categórica: El participante utiliza las categorías taxonómicas de la selección de palabras para agrupar y recordar más fácilmente la lista. - Organización jerárquica: cuando se presenta el material organizado jerárquicamente se recuerda mejor que cuando se presenta entremezclado. *Estos tipos se dan en tareas de recuerdo libre. ORGANIZACIÓN SUBJETIVA DEL MATERIAL AL AZAR. Como procesadores de información, los seres humanos somos tan ingeniosos que siempre que tenemos que aprender algo recurrimos a la organización, incluso en ausencia de materiales sin una estructura obvia. El primer experimento que demostró que, incluso cuando el material que se presenta no está organizado por el experimentador, el sujeto impone su propia organización para aprenderlo y recordarlo, fue realizado por Tulving (1962). Tulving definió la organización subjetiva como la tendencia a recordar palabras en el mismo orden durante sucesivos ensayos de aprendizaje, aunque no existan dependencias secuenciales manipuladas experimentalmente entre las palabras de una lista. En su experimento utilizó una lista de 16 pala bras (sustantivos bisílabos) sin ninguna relación entre sí. El procedimiento implicaba presentar las mismas palabras a lo largo de 16 ensayos, pero cambiando en cada ensayo el orden de las palabras de la lista. Tras cada presentación siempre había una prueba de recuerdo libre. Tulving razonó que puesto que los ítems no se mantenían juntos en el input (en cada presentación cambiaban el orden), si aparecían consistentemente juntos en el output, habría que considerarlos como miembros de una unidad subjetiva única. Es decir, si dos ítems se recuerdan juntos en ensayos sucesivos, a pesar de que se han presentado separados, probablemente hayan sido organizados juntos por el sujeto. Para medir la consistencia del orden del recuerdo, Tulving propuso como medida la frecuencia de parejas, que es igual al número observado de parejas de ítems recordados juntos (sin tener en cuenta las inversiones del orden dentro de la pareja) en ensayos sucesivos menos el número de repeticiones de tales Tema 3: Memoria a largo plazo I. Procesos de codificaci