🎧 New: AI-Generated Podcasts Turn your study notes into engaging audio conversations. Learn more

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Document Details

AgilePraseodymium

Uploaded by AgilePraseodymium

Tags

psychology cognitive learning problem solving

Full Transcript

viu Grado en Psicología.es Módulo de formación básica Capítulo IV. Aprendizaje cognitivo: resolución de problemas y toma de decisiones Tema 1. Introducción La II Guerra Mundial sería el detonante de profun...

viu Grado en Psicología.es Módulo de formación básica Capítulo IV. Aprendizaje cognitivo: resolución de problemas y toma de decisiones Tema 1. Introducción La II Guerra Mundial sería el detonante de profundos cambios en la psicología mundial. Sólo 10 años después de la toma de Berlín por las fuerzas aliadas (aunque con prolongaciones en el antes y en el después), el conductismo entraría en un largo proceso de crisis interna y transformación (Mestre, Tortosa, Samper y Nacher, 2003; Mestre, Nacher, Samper y Tur, 2006), acrecentado por influencias externa de todo tipo. Paralelamente iría surgiendo todo un conjunto de enfoques, teorías y métodos que vendrían a definir nuevas alternativas, y ello en momentos de fuerte penetración social desde diferentes perfiles profesionales. Quizás por ello sea posible decir que más que empezó a ser cognitiva con los años 50, lo que ocurrió es que se produjo, favorecido por la crisis del conductismo, una generalizada incidencia sobre lo mental, aunque subsumiéndolo en unas categorías muy distintas a las que hasta entonces se habían empleado para hablar de la mente. Este cambio de énfasis se produjo en general recurriendo al 89 Psicología del aprendizaje viu 6ECTS.es método científico, pero también incorporando nuevos enfoques derivados de los los avances teóricos y tecnológicos relativos a los ordenadores, la información o la comunicación. El interés por el estudio de la mente siempre había estado presente en psicología. Incluso durante las décadas de auge del conductismo más reduccionista, se desarrollan trabajos como los de A. Michotte (1881-1965), E. Ch. Tolman (1886-1959), K. S. Lashley (1890-1958), F. Ch. Bartlett (1886-1969), J. Piaget (1896-1980), W. Köhler (1887-1967) o L. S. Vygotski (1896-1934) que destacaban el estudio de los procesos mentales con metodologías variadas, pero científicas. Detonó la crisis del conductismo una serie de insuficiencias e inconsistencias teóricas, así como importantes anomalías empíricas en la experimentación de laboratorio en buena medida con sujetos animales. Entre las numerosas causas que redujeron el predominio conductista, destacamos las siguientes: 1. La insuficiencia explicativa del asociacionismo. Desde el asociacionismo no se puede explicar toda la conducta humana, y mucho menos los procesos psicológicos complejos. 2. Una inadecuada interpretación del evolucionismo, que llevó a los conductistas, imprudente e ilegitimamente (como demostraron etólogos fisiólogos y psicólogos), a generalizar las leyes del aprendizaje respecto de las diferentes especies sobre la base de los datos obtenidos en una o unas pocas especies. 3. El generalizado cuestionamiento por parte de los nuevos filósofos de la ciencia (Kuhn, Lakatos, Popper, Feyerabend, Toulmin...) del positivismo lógico, apoyo epistemológico del neoconductismo. 4. El caos provocado por los continuos enfrentamientos entre enfoques teóricos. El conductismo fue incapaz de elaborar una teoría unitaria del aprendizaje, a pesar de ser lo que más deseaban. También hubo una serie de desarrollos externos que proporcionaron los medios técnicos y las herramientas conceptuales para la plena recuperación de lo mental. George Boole (1815-1864) sentó las bases de la cibernética con su lógica binaria. Claude Shannon (1916–2001) hizo una aportación importante para el desarrollo posterior de los ordenadores, al introducir el álgebra booleana en el diseño de circuitos eléctricos. Alan Turing (1912-1954) se apoyó en esa lógica para proponer una máquina ideal, capaz de realizar cualquier operación que pudiera especificarse en pasos bien definidos. Otros autores, por ejemplo McCulloch (1899-1969) y Pitts (1923-1969) exploraron el paralelismo entre esa lógica y ciertas realidades físicas, como el estado de las neuronas. Norbert Wiener (1894-1964) consideraría que se podía analizar el pensamiento humano simulando el funcionamiento de los sistemas neuronales. También influirían desarrollos en especialidades como lgramática generativa de Noam Chomshy (1928- ). Todo esto llevaría a formular formular la idea que constituye la seña de identidad de la psicología cognitiva: La mente es un sistema de cómputo, y precisamente por eso cabe establecer un paralelismo con el ordenador. Mente y programa pueden ser equiparados, porque son funcionalmente semejantes, con independencia del soporte físico que los sustenta. 90 viu Grado en Psicología.es Módulo de formación básica Esta nueva psicología de la mente consideraría lo mental como un nivel de análisis independiente, no reductible a la física, pero en el que los procesos mentales pueden ser simulados mecánicamente, como evidenciaban palmariamente unos ordenadores cada vez más versatiles y capaces. Así, sería un experimental cognitivismo el que finalmente se convertiría en la orientación dominante. Pero, insistimos en ello, mas que de un violento cambio revolucionario, se aprecia una continuidad de fondo (incluso de forma) entre los diferentes enfoques de la psicología en conflicto (Civera y Tortosa, 2006). Se recuperaba una mente cerebralmente fundamentada, y con ella dimensiones, operaciones y contenidos que, por su carácter mentalista y por tanto dificilmente manipulable en términos objetivos, habían sido relegados por el objetivismo dominante en los planteamientos conductualistas. “La psicología, después de pasar por un periodo de mentalismo prematuro (…) y un periodo de provechoso, pero limitado, conductismo (…), entra ahora (…) en un periodo de mentalismo maduro caracterizado por procedimientos fiables para el estudio del funcionamiento total (conductual y mental) del organismo” (Gilgen, 1970, pp. 5). 91 Psicología del aprendizaje viu 6ECTS.es 92 viu Grado en Psicología.es Módulo de formación básica Tema 2. La “cognitivización” del aprendizaje a partir del conductismo: antecedentes La psicología cognitiva se ha definido como la psicología del conocimiento y del pensamiento. También, se describió como el estudio de los procesos mentales. Y, de manera más precisa, el estudio de cómo el cerebro procesa la información, siendo su objetivo principal el conocer cómo las personas adquieren información sobre el mundo que les rodea, cómo la representan, cómo la transforman y almacenan, cómo la recuperan tras haberla almacenado, para poderla utilizar cuando la necesitan. Mientras que el conductismo pretendia describir y explicar todos los fenómenos del comportamiento en términos de asociación entre ambiente y comportamiento (estímulos y respuestas) pero sin necesidad de aludir a variable alguna de tipo interno (mental, cognitiva), la perspectiva cognitivista, no sólo enfatizaba el papel de los procesos cognitivos y el procesamiento de la información, sino que señalaba también que es preciso realizar algún tipo de representación mental para lograr esa asociación. Según ella, en muchos casos de condicionamiento clásico e instrumental lo que se representa mentalmente es una asociación entre estímulos o entre sucesos. Otras veces lo que se representa puede ser más complejo, como un mapa mental de un área concreta o un concepto. A continuación se van a presentar algunos de estos fenómenos que evidencian la necesidad de considerar las representaciones y operaciones mentales en el aprendizaje. 93 Psicología del aprendizaje viu 6ECTS.es 2.1. Mapas cognitivos Uno de los primeros defensores del enfoque cognitivo en el aprendizaje fue Edward Tolman, que realizó estudios con ratas que debía aprender el recorrido en laberintos complejos (Tolman, 1932). Aunque su programa de investigación no se deducía necesariamente de un planteamiento teórico formal, era revolucionario en el sentido de que incluía en el estudio del aprendizaje dos ideas que nadie más defendía en aquella época: la intencionalidad o propósito de la conducta y la cognición. Tolman mantuvo siempre que la conducta y el aprendizaje son un “acercamiento” o una “huida”; esto es, que tienen un propósito, están orientados a una meta, bien conseguir algo bueno o evitar algo malo. Para los conductistas, el término “propósito” era demasiado vago e incluso mentalista como para ser empleado por la Psicología científica. Guthrie, Watson y Hull habían buscado una explicación mecanicista del comportamiento. Desde este punto de vista, eran teóricos “moleculares” de la conducta, entendiendo el aprendizaje en términos de adquisición de movimientos musculares que conforman, todos juntos, la forma de un determinado comportamiento controlado por sus consecuencias. A Tolman, en cambio, se le considera un teórico “molar” puesto que defiende que el comportamiento no puede analizarse sin tomar en consideración las metas que dan sentido a los actos o comportamientos concretos. De esta forma, por ejemplo, una rata que ha aprendido a moverse por un laberinto también podría nadar por él cuando éste estuviera lleno de agua aunque las respuestas musculares fueran muy distintas en cada caso (MacFarlane, 1930). En su opinión, una rata que recorre un laberinto complejo no está aprendiendo una secuencia de respuestas motoras, sino desarrollando un mapa cognitivo, es decir, una representación mental del recorrido del laberinto. Dicho aprendizaje no se mostraría en ese momento, sino cuando el animal debiera utilizar lo aprendido (aprendizaje latente) ante la eventualidad, por ejemplo, de que el camino aprendido estuviera bloqueado. Si estos animales no pudieran beneficiarse de un aprendizaje previo en forma de representación mental de la disposición de los brazos del laberinto, tendrían que mostrar una pauta de aprendizaje en la que aparecieran eventos de ensayo y error, al menos al inicio del recorrido por la nueva disposición de los brazos. En vez de eso, vemos una pauta de comportamiento que no muestra errores. En su artículo de 1948 (Mapas cognitivos en las ratas y los seres humanos), Tolman confrontaba la explicación conductista del aprendizaje mediante el establecimiento de conexiones E-R por recompensa con su propio enfoque según el cual los organismos captan selectivamente información del ambiente y la transforman en un mapa de su entorno, que es lo que controla su comportamiento. El experimento clásico sobre aprendizaje latente (Tolman y Hoznik, 1930) iba dirigido a evaluar el aspecto crítico del papel del refuerzo en el aprendizaje. En este experimento, algunas ratas aprendían a recorrer un laberinto, obteniendo la recompensa del alimento en la caja-meta, mientras que otras simplemente deambulaban por él durante varios ensayos antes de que se proporcionara alimento alguno. Según la teoría del refuerzo, el aprendizaje no tendrá lugar sin recompensa: el primer grupo de ratas debería aprender porque son recompensadas y el segundo grupo no debería empezar a aprender hasta que se inicie el refuerzo. Según Tolman, incluso las ratas que sólo recorren el laberinto están aprendiendo algo (un mapa cognitivo de su entorno) aunque ese aprendizaje pueda no mostrarse aparentemente. 94 viu Grado en Psicología.es Módulo de formación básica De esta interpretación se desprende que el segundo grupo de ratas, después de un número de veces en que simplemente inspeccionaran el laberinto, habrán aprendido su disposición y que, cuando finalmente se presente el alimento, lo recorrerán igual de bien que las ratas recompensadas. Es decir, se produce un aprendizaje latente que solamente se manifiesta cuando se da la oportunidad para ello (cuando la rata puede obtener un refuerzo usando ese mapa cognitivo). Los resultados de los experimentos diseñados por Tolman para comprobar su teoría sobre el aprendizaje latente apoyaron esta predicción. La figura 1 muestra esquemáticamente uno de los laberintos empleados en esta serie de experimentos. En cada ensayo se colocaba a las ratas en la Caja de salida, de manera que pronto llegaban a una encrucijada o “punto de elección” donde se abrían tres posibles vías o rutas hasta la caja de llegada o lugar donde se colocaría la comida. En la interpretación del aprendizaje de Hull (1930a, 1934) este punto de elección evocaría (después del aprendizaje, es decir, de la obtención de la recompensa en el caso de las ratas del primer grupo) una “jerarquía divergente”: la preferencia de una ruta sobre las otras (en el ejemplo de la figura, de la ruta 1 sobre la 2 y de ésta, a su vez, sobre la ruta 3). Figura 1. Esquema de la disposición del laberinto en el experimento de Tolman y Hoznik, 1930. Esta preferencia o jerarquía tiene sentido, no sólo porque las ratas obtienen la recompensa con un menor esfuerzo, sino porque en la visión de Hull los refuerzos posteriores fortalecen aquellas respuestas encadenadas hasta que se convierten en el comportamiento más fuerte en una jerarquía de hábitos reelaborada. Cuanto más larga es la cadena de comportamientos, más débil es el primer eslabón. Por consiguiente, puesto que la cadena de eslabones de la ruta 3 es la más larga, la respuesta de giro inicial a la derecha será más débil que el giro a la izquierda (ruta 2) o la respuesta de seguir recto (ruta 1). Asimismo, la respuesta de girar a la izquierda es más débil que la de seguir recto. 95 Psicología del aprendizaje viu 6ECTS.es Cuando las ratas de los dos grupos han aprendido las tres rutas, se introduce una barrera en el laberinto (punto de bloqueo 1). Según la predicción de Hull, cuando la rata encuentra bloqueada la ruta 1 vuelve sobre sus pasos y, en el punto de elección 1, ejecutará el siguiente hábito de su jerarquía, corriendo hacia la ruta 2. Supongamos ahora que, en vez que situar el bloqueo en el punto 1, bloqueamos el punto 2. Una rata que se comportara de acuerdo con la teoría de la jerarquía de hábitos de Hull volverá al punto de elección y, de nuevo, ejecutará su segundo hábito más fuerte (correr por la ruta 2), sólo para volver a frustrarse. Una vez que se extingue la asociación E-R de la ruta 2, la rata volverá al punto de elección y, por fin satisfactoriamente, correrá por la ruta 3. ¿Cómo se comportan realmente las ratas? Podemos sospechar que de forma diferente. Y es que, cuando la rata llega al punto de bloqueo 2 no intenta seguir de nuevo por el mismo camino, por lo que vuelve al punto de elección e inmediatamente elige la ruta 3 (anteriormente, si el punto de bloqueo es el 1, elegirá la ruta 2 porque es la que le va a llevar de forma más directa a la comida). Esta interpretación viene sustentada por otros experimentos sobre aprendizaje de laberintos. Las ratas aprenden a recorrer cada brazo del laberinto (donde se coloca comida) sin repetir aquellos en los que ya ha estado. Y aprenden con sorprendente rapidez: tras veinte ensayos, prácticamente nunca pasan por el mismo brazo dos veces. BBC – Inteligencia animal. La estrategia de “prueba y error”. Mapas cognitivos. Perspicacia http://www.youtube.com/watch?v=BiG3sBdcXf4&feature=youtu.be 2.2. Aprendizaje intuitivo, por perspicacia o “insight” Como decíamos, desde antes de la revolución cognitiva en Psicología, algunos investigadores sostenían que la explicación de los aprendizajes más complejos debía residir en factores de tipo mental, cognitivo. Los estudios de Wolfgang Köhler con chimpancés, realizados en los años 20 del pasado siglo, siguen siendo particularmente importantes dentro de este enfoque. La resolución de problemas por parte de los animales evidenciaba una flexibilidad en su aprendizaje que debía depender de variables cognitivas que a veces han sido denominadas como “aprendizaje intuitivo”, “perspicacia” o “aprendizaje por insight”. Los problemas que Köhler planteaba a los chimpancés dejaban todos los elementos de la solución a la vista, lo que permite evaluar su capacidad de razonamiento. Planteaba problemas de rodeos en los que el animal veía bloqueado el camino directo hacia la meta, lo que le obligaba a plantear caminos diferentes. Superación de barreras físicas para alcanzar la meta. Situaciones instrumentales en las que para alcanzar el alimento se debía utilizar (o construir) objetos o herramientas de manera no habitual. Situaciones-problema en las que no había relación clara entre acciones, instrumentos y meta, pero sí secuencias de ajuste posibles con todo a la vista del chimpancé. 96 viu Grado en Psicología.es Módulo de formación básica Recursos y videos específicos sobre el programa experimental de Köhler en Tenerife. La Casa Amarilla: Monos en Tenerife (Parte 1) http://www.youtube.com/watch?v=1qT1zkxDXb8 La Casa Amarilla: Monos en Tenerife (Parte 2) http://www.youtube.com/watch?v=mBCM3-ynmtM La Casa Amarilla: Monos en Tenerife (Parte 3) http://www.youtube.com/watch?v=H1nqbYCNWDk Experimento sobre la inteligencia de los chimpancés – Rodada por Wolfgang Kohler (1914- 1917) http://www.youtube.com/watch?v=FcBGAWNCipI Kohler, Toolmaking telescopic stick http://www.youtube.com/watch?v=iCC0bxz8FFU Por ejemplo, Köhler colocaba al animal en una zona cerrada con una fruta apetecible (un plátano) fuera de su alcance, de forma que para conseguir la comida, el mono tenía que usar un objeto como herramienta (unas cajas de madera y un palo). Generalmente el chimpancé resolvía el problema de una forma que dejaba entrever un comportamiento intuitivo. Cuando los chimpancés resuelven la tarea no lo hacen probando las infinitas posibilidades o combinaciones con los elementos que deben utilizar, sino que lo hacen dirigiéndose directamente hacia el lugar donde está la fruta, subiéndose a la caja con el palo en la mano y alcanzando aquélla mediante el palo. Estos ademanes resueltos de los chimpancés sugieren que, antes de alcanzar la fruta ya han imaginado la solución al problema y que únicamente les resta poner en práctica la solución imaginada. En ciertos aspectos, la actuación de estos chimpancés difiere de las respuestas de los gatos de Thorndike o las ratas o palomas de Skinner. Para empezar, no hay un proceso de aprendizaje por ensayo y error, sino que se trata de una solución repentina. Además, cuando resolvían el problema, los animales realizaban cada vez menos movimientos innecesarios cuando tenían que resolverlo de nuevo, lo que es de lo más improbable en el caso de las ratas en la caja de Skinner, que siguen dando respuestas innecesarias en muchos ensayos. Por otro lado, los chimpancés de Köhler no tenían problemas en transferir lo aprendido a una situación nueva. De esta forma, las soluciones de los chimpancés tienen tres aspectos críticos: son repentinas, transferibles y están disponibles, una vez descubiertas. En lugar de conductas de tipo ensayo y error, estos animales se forman una representación mental del problema, manipulan sus componentes hasta que dan con una solución, y entonces la aplican al mundo real. 97 Psicología del aprendizaje viu 6ECTS.es Consideró que la conducta de solución de problemas de los monos indicaba algún tipo de captación inteligente de la estructura de la situación-problema, y ponía de manifiesto la capacidad de los animales para percibir y comprender relaciones estructurales. Consiste en “la percepción de una relación objetiva e intrínseca entre dos cosas (o, dicho de forma más general: la percepción de la estructura de una situación). Por ‘relación’ entendemos la existencia de una conexión basada en las propiedades de las cosas mismas y no una simple ‘contigüidad’ o ‘simultaneidad’ de aparición repetida frecuentemente” (Köhler, 1917, 243). Estos estudios pero sobre todo las propias insuficiencias de la explicación del aprendizaje por el conductismo (García y Koelling, 1966; Rescorla, 1968) llevaron a un agotamiento de la perspectiva conductista radical del Aprendizaje, paralelo al cambio en la perspectiva dominante en la Psicología. A continuación trataremos una serie de apartados en los que el enfoque predominante es el de la explicación del aprendizaje por la psicología cognitiva. 98 viu Grado en Psicología.es Módulo de formación básica Tema 3. El nuevo paradigma en el enfoque del aprendizaje: la Psicología Cognitiva Los teóricos tradicionales del aprendizaje se desgastaron a lo largo de los años debatiendo sobre la naturaleza del aprendizaje. Durante los decenios de 1930, 1940 y 1950 psicólogos influidos por los principales teóricos (especialmente Hull) siguieron experimentando sobre el aprendizaje humano. Su enfoque era generalmente de naturaleza E-R, pero liberado de la pertinacia de Hull por cuantificar la conducta y de su sistema de axiomas. Trataban de aplicar la explicación asociacionista al aprendizaje humano, centrándose sobre todo en resolución de problemas (Malzman, 1955, Maltzman y Morrisett, 1953, 1953a, 1953b), el estudio del pensamiento como respuestas mediadoras (Goss, 1961; Kjeldergaard, 1968, Kendler y Kendler, 1962) y el aprendizaje verbal. Sus trabajos se centraban sobre todo en tareas como el aprendizaje de anagramas, experimentos de aprendizaje de inversión, el aprendizaje serial (tomado de Ebbinghaus) y el aprendizaje de pares asociados (pseudopalabras o trigramas sin significado). El aprendizaje verbal era muy fácil de interpretar en términos E-R. Se trató como la creación de una cadena E-R: cada elemento era a la vez una respuesta y el estímulo para producir el elemento siguiente. Se hizo muchísima investigación sobre el aprendizaje verbal dentro del sistema E-R entre 1930 y 1970. 99 Psicología del aprendizaje viu 6ECTS.es Un ejemplo es el efecto de posición serial, que ha sido también explicado por el enfoque cognitivo en términos de procesamiento de información. La explicación conductista para este efecto la dieron Postman y Keppel (1968). El efecto de novedad o primacía se explicó observando que es más probable que los primeros elementos de una lista se repasen más que los elementos posteriores. Por tanto, se emparejan con más frecuencia con el contexto experimental, de modo que las conexiones E-R entre ellos y el E contextual serán más fuertes que para ellos que para los elementos posteriores. El efecto de recencia se explicó diciendo que los últimos elementos son seguidos por muy pocos más (y el último, por ninguno), por lo que hay poco o ningún aprendizaje nuevo que interfiera en las conexiones E-R entre el contexto y los últimos elementos. La falta de interferencia ayuda también a explicar el efecto de primacía, dado que los primeros elementos no compiten con los elementos que ya están siendo repetidos de la manera en que lo hacen los elementos posteriores. Por cierto, la idea de interferencia (tomada de Guthrie) juega un importante papel en las explicaciones que las teorías del procesamiento de la información dan al efecto de posición serial en el recuerdo libre, lo cual matiza los habituales análisis que enfatizan las diferencias entre la Psicología asociacionista conductista y la basada en el procesamiento de información. Sin embargo, por seguir un esquema que ayude al estudiante a establecer hitos históricos que marcan un cambio de paradigma, se suele tomar la fecha del año 1956 como la fecha fundacional de la Psicología Cognitiva. Aquel año vio la luz un artículo de George A. Miller (1956) que ocupa un lugar propio en nuestra disciplina. El artículo se titulaba “El mágico número siete más menos dos. Algunos límites de nuestra capacidad para procesar información”. Basándose en las ideas de la “Teoría de la Comunicación” de Shannon (1948) y otros autores, Miller sostenía que los seres humanos tenemos una capacidad como canal de información limitada a siete (±2) ítems simultáneos. También aquel año Chomsky daba a conocer sus ideas sobre la nueva lingüística, basada en reglas formales y sintácticas, tan próximas a las formalizaciones matemáticas y que desembocaría al año siguiente en la publicación de “Estructuras sintácticas” (Chomsky, 1957). Igualmente, Newell y Simon daban a conocer en un simposio celebrado en el M.I.T. uno de sus primeros trabajos (“The logic theory machine”) en el que presentaban por primera vez un programa de ordenador capaz de hace la demostración de un teorema. Los trabajos de estos autores eran tal vez el mejor exponente de los que la teoría cibernética y la tecnología computacional podía proporcionar a la nueva psicología, como muy pronto se demostraría (Newell, Shaw y Simon, 1959; Newell y Simon, 1972). Por último, aquel mismo año Bruner, Goodnow y Austin (1956) publicarían “A study of thinking”, obra capital en la psicología del pensamiento y la solución de problemas y posiblemente el trabajo más influyente en la investigación sobre adquisición de conceptos artificiales. Esta psicologia cognitiva estudiará el modo en que las personas captan información, la recodifican y recuerdan, la valoran, realizan anticipaciones, toman decisiones, transforman sus estados cognitivos internos y los traducen al exterior en conductas orientadas teleológicamente y presuntamente adaptativas. Pretende estudiar los procesos mentales internos a partir de las conductas observables y haciendo inferencias desde ellas, rara vez se emplea la introspección. Cuatro serían los supuestos generales de este marco teórico que define esta nueva forma de estudiar la mente: a) Presupuesto mentalista: no puede entenderse ni explicarse científicamente la actividad humana sin utilizar constructos internos mentales. Es necesario utilizar el nivel de representación mediante símbolos, reglas o imágenes. 100 viu Grado en Psicología.es Módulo de formación básica b) Presupuesto computacional: la actividad mental consiste en un sistema de procesamiento simbólico de propósito general, es decir, computa símbolos del mismo modo en que lo hacen los ordenadores, sea de modo idéntico (versión “fuerte” de la metáfora del ordenador) o sea de modo análogo (versión “débil”). c) Presupuesto restrictivo: el procesamiento de información presenta diversas constricciones internas en el ser humano: Los procesos cognitivos tienen una duración determinada, la mente es un procesador de capacidad limitada, teniendo límites temporales, estructurales y de recursos. d) Presupuesto funcionalista: el sistema simbólico depende de un sustrato neurológico, pero no está totalmente constreñido por él ni puede explicarse en el nivel de análisis neurológico. La mente es un nivel de descripción distinto del físico: no se puede identificar con el cerebro sino con el resultado de su organización funcional. A continuación, sin pretensiones historicistas, nos vamos a centrar en los dos enfoques principales del aprendizaje: el aprendizaje entendido como asociación o entendido como reestructuración. 101 Psicología del aprendizaje viu 6ECTS.es 102 viu Grado en Psicología.es Módulo de formación básica Tema 4. Alternativas teóricas: aprendizaje por asociación y por reestructuración En este apartado central del tema, y siguiendo el esquema propuesto por Pozo (1989), se contraponen dos visiones del aprendizaje: el aprendizaje por asociación que, como veremos, no es exclusivo del conductismo, y el aprendizaje por reestructuración. No se trata de una revisión cronológica de las teorías del aprendizaje, sino que se rastrean las ideas sobre el aprendizaje desde ambas perspectivas. Sin embargo, en un apartado inicial vamos a resumir los fenómenos básicos que sobre el pensamiento y la resolución de problemas se han estudiado por la mayor parte de las teorías del aprendizaje cognitivo, para pasar después a explicar cómo abordan este ámbito las teorías asociacionistas computacionales, por un lado (que incluyen al modelo ACT de Anderson, la teoría de los esquemas y los modelos conexionistas), y las teorías del aprendizaje por reestructuración, por otro (más antiguas en el tiempo y que incluyen los estudios de la Gestalt y las teorías de Piaget y Vigotski) (figura 2) 103 Psicología del aprendizaje viu 6ECTS.es Figura 2. Principales acercamientos al aprendizaje desde posiciones empiristas o asociacionistas frente a principales aportaciones a la concepción constructiva del aprendizaje (tomado de Pozo, 2008). 4.1. Las unidades básicas: conceptos y categorías El pensamiento puede definirse como un “lenguaje de la mente”. De hecho, es posible que exista más de un lenguaje. Un modo de pensamiento corresponde al flujo de oraciones que “se oye en la mente”. Este tipo de pensamiento se denomina pensamiento proposicional porque expresa una proposición o enunciado y consiste en conceptos combinados de una forma particular. El otro tipo, el pensamiento en imágenes, corresponde a imágenes mentales que se “ven” con la mente. La investigación sobre el pensamiento de los adultos ha destacado estos dos modos, sobre todo el proposicional. Sin embargo, para que podamos hablar de pensamiento, hemos de describir los “ladrillos” con los que se construye, es decir, los conceptos y categorías. Un concepto representa toda una clase de objetos, personas o sucesos. Es decir, la serie de propiedades que se asocian con una clase determinada. El concepto “gato”, por ejemplo, incluye las propiedades de tener cuatro patas y bigotes. Los conceptos cumplen importantes funciones en la vida mental. Una 104 viu Grado en Psicología.es Módulo de formación básica de ellas es dividir el mundo en unidades manejables. Podemos unir todos los ejemplares de una serie en un solo concepto. Así se reduce la complejidad del mundo representado en la mente. La categorización se refiere al proceso de asignar un objeto a un concepto. Cuando se categoriza un objeto, se lo trata como si tuviera muchas de las propiedades asociadas a ese concepto, incluyendo las propiedades que no se perciben directamente. Una segunda función de los conceptos es que permiten predecir información que no se percibe rápidamente (poder predictivo). Esto es, el concepto “manzana”, por ejemplo, está asociado a características difíciles de percibir, como que tiene semillas, es comestible, etc. Así como a características obvias; que es redonda, tiene un color característico, y crece en los árboles. Las características visibles se emplean para clasificar un objeto como “manzana” (es rojo, redondo y cuelga de un árbol) y luego se infiere que el objeto tiene otras características no visibles. Asimismo, existen conceptos de actividades (“comer”), es estados (“roto”) y de abstracciones (“verdad”, “justicia”…). De esta manera, los conceptos nos permiten ir más allá de la información estrictamente perceptible (Anderson, 1991; Bruner, 1957). 4.2. Conceptos y prototipos Las propiedades asociadas con un concepto se clasifican en dos grupos. El primero conforma el prototipo del concepto. Éste consiste en las propiedades que describen los mejores ejemplos del concepto en cuestión. Por ejemplo, el concepto “silla” tendría un prototipo que incluiría características como objeto de madera, con un asiento, respaldo y cuatro patas. El prototipo es lo que suele venir a la mente cuando se piensa en el concepto. Pero, a pesar de que las características de un concepto puedan ser ciertas en la silla típica, no se cumplen en todos los casos (sillas diferentes a la descrita por el prototipo). Esto significa que el concepto debe tener algo además del prototipo. Este algo adicional es el núcleo que comprende las propiedades fundamentales que distinguen a los miembros del concepto (p. ej., objeto para sentarse). Otro ejemplo es el concepto “pájaro”. El prototipo incluye las características de volar y piar, lo que se cumple para los mejores ejemplos de “pájaro”, como el gorrión y la paloma, pero no se cumple para otros ejemplos, como el avestruz y el pingüino. Seguramente el núcleo del concepto “pájaro” incluye las características “tiene plumas” y “tiene alas”. En ambos ejemplos (“silla”, “pájaro”) las características de los prototipos son notables pero no constituyen indicadores perfectos del concepto, mientras que las características del núcleo son más importantes para el concepto. No obstante, hay una diferencia entre los conceptos: algunos se dan por definición (por ej., el concepto “abuela” = cualquier mujer que sea madre de un padre o madre). Éstos son los conceptos bien definidos. Sin embargo, la mayoría de los conceptos cotidianos se adecúan más a la concepción probabilística, según la cual los conceptos tienen una estructura difusa (Zadeh, 1965). Para estos conceptos no existirían atributos necesarios ni suficientes que los definan. 105 Psicología del aprendizaje viu 6ECTS.es Clasificar a una persona u objeto en una categoría bien definida implica determinar si tiene el núcleo o características definitorias. En cambio, el núcleo de “pájaro” no es una definición y las características definitorias no aparecen tan obvias. Éstos son los conceptos mal definidos o confusos. Decidir si un objeto es un ejemplo de concepto mal definido a menudo implica determinar su similitud con el prototipo del concepto. Finalmente, la mayoría de los conceptos naturales son conceptos confusos o mal definidos. Carecen de definiciones y su categorización descansa principalmente en los prototipos. Cuantas más características del prototipo tenga un objeto, más típico del concepto será. Al preguntar a las personas si al animal de una foto es un pájaro, un gorrión o un canario producirán un sí inmediato, mientras que un avestruz requerirá un tiempo de reacción más largo. Además (Rosch, 1974), la mayor rapidez de respuesta era más acusada en los niños que en los adultos, lo que mostraría que los niños utilizan los prototipos para desarrollar los conceptos, un dato corroborado en otros estudios. En otra investigación realizada con el mismo procedimiento experimental de tiempo de reacción, Rosch (1975) comprobó que se tarda menos tiempo en decidir si dos instancias son miembros de una misma categoría cuando las dos son buenos ejemplos (por ejemplo, para el concepto “pájaro” los ejemplos “gorrión-jilguero”) que cuando son malos (“avestruz- pingüino”) o regulares (“águila-búho”). 4.3. Universalidad en la formación de prototipos Los prototipos, ¿vienen determinados por la cultura o son universales? Para algunos conceptos, como “abuela”, la cultura tiene un claro impacto sobre el prototipo. Pero para los conceptos más naturales, los prototipos son sorprendentemente universales. Por ejemplo, consideremos conceptos de color, como el concepto “rojo”. Es un concepto mal definido (porque ninguna persona corriente conoce sus propiedades definitorias) pero tiene un prototipo claro: las personas de nuestra cultura están de acuerdo en qué tonos son típicos del rojo y cuáles no. La gente de otras culturas coincide con nosotros. Increíblemente, este consenso se da incluso entre personas cuya lengua no tiene una palabra para “rojo”. Rosch (1973), mostró que los colores focales también eran los más fáciles para los hablantes de otras lenguas. Incluso para los hablantes de Dani, una lengua de Papúa Nueva Guinea, que sólo tienen dos términos de colores básicos: “mili” (oscuro- frío) y “mola” (claro-caliente), que cubren el espectro entero. Cuando se les pide a hablantes de esa lengua que escojan el mejor ejemplo de una serie de tonos rojos, elijen los mismos tonos que nosotros. Los hablantes de Dani eran capaces de aprender y recordar nombres arbitrarios para los colores focales, pero mostraban dificultad en el aprendizaje y recuerdo de nombres arbitrarios para colores no focales. 4.4. Jerarquías de conceptos Además de conocer las propiedades de los conceptos, se sabe qué relación establecen entre sí. Por ejemplo, las “manzanas” son elementos (o forman un subgrupo) dentro de un concepto más amplio: “fruta”; los gorriones son un subgrupo de “pájaros”, que a su vez son un subconjunto de “animales”. Estos dos tipos de conocimiento (propiedades de un concepto y las relaciones entre ellos) se representan en la figura 3 como una jerarquía. 106 viu Grado en Psicología.es Módulo de formación básica Figura 3. Jerarquía de dos conceptos básicos (manzana y pera). Un objeto puede clasificarse en diferentes niveles. El mismo objeto es una “manzana Golden”, una “manzana” y una “fruta”. “Fruta” sería el nivel supraordinado, mientras que “manzana Golden” sería el subordinado. En cualquier jerarquía existe un nivel básico o preferente para la clasificación, es decir, el nivel en el que preferentemente se categoriza un objeto. En la figura 3, el nivel que contiene “manzana” y “pera” sería el nivel básico. Las pruebas para esta afirmación proceden de estudios en los que se pide a los individuos que designen los objetos que aparecen en una foto con el primer nombre que se les ocurra. En general, la gente tiende a llamar a una manzana Golden sencillamente “manzana”. Según Rosch los conceptos básicos poseen un nivel óptimo de generalidad y de discriminación, por lo que tienen un contenido informativo máximo. Las categorías supraordinadas, como “mamífero”, tienen pocos atributos, por lo que discriminan muy poco. En cambio, las categorías subordinadas tienen muchos atributos pero la mayor parte de ellos están compartidos por otras categorías subordinadas, por lo que no son muy discriminativos. Los conceptos de nivel básico también son especiales en otros aspectos. Por ejemplo, son los primeros que aprenden los niños, se utilizan más frecuentemente y tienen nombre más cortos (Mervis y Rosch, 1981). Por tanto, parece que el ser humano divide el mundo en conceptos básicos. Pero, ¿qué determina cuál es el nivel básico? Según parece, el nivel básico posee las características más distintivas. En la Figura anterior, “manzana” tiene diversas propiedades distintivas, no compartidas por otro tipo de frutas (roja y redonda no son propiedades de la pera). Por el contrario, “manzana Golden” tiene pocas características distintivas; la mayoría de sus propiedades las comparte también con la manzana “MacIntosh”. Y “fruta”, que se encuentra en un nivel superior, tiene pocas características de este tipo. Así, primero se clasifica el mundo en lo que resulta ser el nivel más informativo (Murphy y Brownell, 1985). 4.5. Formación de conceptos naturales y artificiales El ser humano está constantemente tomando decisiones de categorización. Se categoriza cada vez que se reconoce un objeto, cada vez que se diagnostica un problema, etc. ¿Cómo se utilizan los conceptos para categorizar el mundo? La respuesta depende de si el concepto está bien definido o mal definido. 107 Psicología del aprendizaje viu 6ECTS.es Para los conceptos bien definidos, como el de “abuela”, se puede determinar lo semejante que es una persona con el prototipo en cuestión, pero si se quiere ser preciso, es posible determinar si una persona posee las características definitorias de ese concepto (“¿Es la madre de un padre o madre?”). Después, todo consiste en aplicar una regla: “si esta mujer es la madre de un padre o madre, entonces es abuela”. Se han realizado muchos estudios sobre este tipo de categorización basada en las reglas de los conceptos bien definidos, y ha quedado demostrado que, cuantas más propiedades haya en una regla, más lento y propenso a error será el proceso de categorización. Esto puede deberse a que se procesan varias propiedades simultáneamente. Para los conceptos mal definidos, no se conocen suficientes propiedades definitorias como para usar la clasificación basada en las reglas, por lo que se suele echar mano de la analogía. Así, lo que se puede hacer es determinar la similitud de un objeto con el prototipo del concepto (“¿Se parece este objeto lo suficiente al prototipo para llamarlo silla?”). El hecho de que las personas categorizan objetos de esta forma ha quedado demostrado en experimentos de tres fases como el siguiente: En primer lugar, el investigador determina las propiedades del prototipo de concepto y expone varios ejemplos del mismo. Luego el investigador establece la similitud entre cada ejemplo y el prototipo, identificando sus características comunes. Así se obtiene para cada uno de los ejemplos una puntuación que mide la similitud con el prototipo. Por último, el investigador muestra que la puntuación de similitud son el prototipo presenta una alta correlación son la rapidez y precisión con que los participantes pueden clasificar cada ejemplo. Esto demuestra que la analogía con el prototipo juega un papel importante en la categorización. Pero ¿cómo se adquiere la multitud de conceptos que se conocen? Hay distintas formas de aprender conceptos. Se aprende por medio de una enseñanza explícita o a través de la experiencia. El modo de aprender depende de lo que se aprende. La enseñanza explícita suele ser el modo en que se aprende el núcleo de los conceptos, y la experiencia suele ser la forma de aprender los prototipos. Los niños tienen que aprender que el núcleo es un mejor indicador de los elementos que integran el concepto que el prototipo, pero esto lleva su tiempo. Hay dos formas distintas de aprender un concepto mediante la experiencia. El modo más sencillo se llama estrategia de modelos, que se puede ilustrar mediante el aprendizaje de un niño del concepto “mueble”. Cuando el niño se encuentra con un ejemplo conocido (como una mesa) almacena una representación del mismo. Más tarde, cuando ha de decidir si un nuevo elemento (un pupitre) es un ejemplo de “mueble”, determina la analogía del objeto con los ejemplos de mobiliarios almacenados, incluidas las mesas. Esta estrategia es muy utilizada por los niños, ya que funciona mejor con elementos 108 viu Grado en Psicología.es Módulo de formación básica típicos que con los atípicos. Puesto que los primeros ejemplos que un niño aprende son típicos, es más probable que los nuevos elementos se clasifiquen correctamente si se parecen a los ejemplos típicos. Así, si el concepto de “mueble” de un niño consiste en los ejemplos más típicos (mesa, silla), podrá clasificar correctamente otros ejemplos similares a los aprendidos (pupitre, sofá), pero no aquellos que sean muy diferentes, como lámpara y estantería (Mervis y Pani, 1980). No obstante, a medida que se crece, se comienza a utilizar otra estrategia: la comprobación de hipótesis. Se investigan los ejemplos conocidos de un concepto, buscando propiedades que sean relativamente comunes para todos (por ej., muchos muebles están en las habitaciones de la casa), y se formula la hipótesis de que estas propiedades comunes son lo que caracteriza el concepto. A continuación se procede a analizar las propiedades críticas de los objetos nuevos, manteniendo la hipótesis si este examen lleva a una clasificación correcta o a rechazarla en caso contrario. Esta estrategia se centra en abstracciones (propiedades que caracterizan series de ejemplos en lugar de un único ejemplo) y se dedica a localizar propiedades fundamentales porque son aquellas que comparten la mayoría de los ejemplos (Bruner, Goodenough y Austin, 1956). Sin embargo, las propiedades que se busquen pueden venir determinadas por el conocimiento específico que se tenga de los objetos en sí mismos. Si un niño piensa que los muebles tienen siempre una superficie plana, este conocimiento previo puede restringir en exceso la hipótesis generada. En otras palabras, cuando el sujeto tiene que decidir si un estímulo es un ejemplo positivo o negativo, parte de un procesamiento selectivo del estímulo por el que ciertas dimensiones son más relevantes que otras. Tal interpretación tiene una larga historia en psicología del aprendizaje, remontándose a los trabajos de Lashley (1929), y recibe el nombre de “teoría de la comprobación de hipótesis” ya que supone que, cuando el sujeto se enfrenta a la tarea, lo hace desde una hipótesis o experiencia previa. Existen numerosas versiones de la teoría de comprobación de hipótesis que difieren entre sí en varios aspectos relevantes. Según Howard (1983) todas ellas coinciden en que: El sujeto dispone de un “banco” de hipótesis potenciales al comienzo del problema. En cada ensayo la persona muestra una hipótesis de entre las disponibles y responde sobre esa base. Si la hipótesis elegida lleva a una clasificación correcta del estímulo, se mantiene. Si no, se rechaza y es sustituida por otra u otras del conjunto. Bruner, Goodenough y Austin (1956) identificaron dos estrategias diferentes seguidas por los sujetos: En la estrategia total el sujeto toma como atributos definitorios del concepto todos los valores del primer caso positivo. A partir de esa hipótesis inicial va eliminando los valores ausentes en otros ejemplos positivos, hasta descubrir el concepto correcto. En la estrategia parcial el sujeto toma como hipótesis alguno o algunos de los valores presentes en el primer caso positivo y mantiene esa hipótesis hasta que encuentra casos positivos o 109 Psicología del aprendizaje viu 6ECTS.es negativos que la falsen. En ese caso, la sustituye por otra congruente con los casos pasados que es capaz de recordar. Cada una de estas estrategias produce pautas muy diferenciadas. La estrategia total da lugar a un proceso de comprobación sistemático, mediante la eliminación progresiva de atributos. Con esta estrategia, si no se cometen errores en su aplicación, sólo los casos positivos proporcionan información relevante. En cambio, la estrategia parcial plantea serios problemas cuando hay que abandonar una hipótesis y sustituirla por otra, ya que el sujeto ha de confiar en su memoria de casos pasados y buscar una nueva hipótesis congruente con ella. Bruner, Goodenough y Austin (1956) comprobaron que la mayor parte de sus sujetos (estudiantes universitarios) utilizaban la estrategia total y que, en términos generales, quienes usaban esta estrategia descubrirían el concepto con mayor rapidez y eficacia que quienes usaban la estrategia parcial. 110 viu Grado en Psicología.es Módulo de formación básica Tema 5. Teorías computacionales Al final del apartado 5.2 se hablaba de los comienzos de la Psicología Cognitiva y de los intentos por dotar a la Psicología de una “sintaxis” que pudiera explicar desde los aprendizajes más sencillos a los más complejos (incluida la lectura, comprensión de textos, etc). Quizá el modelo más influyente dentro de las llamadas teorías computacionales haya sido el modelo ACT* de Anderson. Elaborado más extensamente en su libro “The Architecture of Cognition” (Anderson, 1983), se conoce comúnmente por el acrónimo que, en inglés, significa “Adaptive Control of Thought” o “Control Adaptativo del Pensamiento”, simbolizando el asterisco la nueva versión del modelo anterior (ACT). El ACT* es tanto un modelo psicológico como un modelo de simulación por ordenador de conductas y su aprendizaje. Primero veremos con algo más de detalle este modelo para pasar después a la teoría de los esquemas. 5.1. El modelo ACT El modelo tiene tres componentes principales. El primero es la memoria operativa, utilizando más o menos el punto de vista tradicional de este constructo. El segundo componente es la memoria declarativa, que incluye tanto la memoria episódica como nodos-tipo. Esta red de nodos está unida mediante conexiones y se accede a ella mediante la propagación de activación. Los códigos de conocimiento pueden ser de tres tipos. Las relaciones proposicionales codifican unidades-idea con 111 Psicología del aprendizaje viu 6ECTS.es argumentos componentes, tales como AGENTE, ACCIÓN, OBJETO o INSTRUMENTO. Las cadenas temporales codifican el orden de los acontecimientos, mientras que las imágenes espaciales codifican la información pictórica. El tercer componente, y más original, del ACT* es la memoria de producción, es decir, la memoria a largo plazo para el conocimiento procedimental. Aquí la unidad de representación es la producción, un conjunto de pares de condición y acción asociados (Si…- ENTONCES…). Estas producciones pueden ser o bien habilidades motrices, como montar en bicicleta o lanzar un balón de baloncesto, o acontecimientos puramente internos, como conjugar un verbo o utilizar un algoritmo matemático para resolver un problema. El procedimiento real se hace a través de un proceso de igualación de las condiciones (Si…) en la memoria operativa con las presentes en la memoria de producción y luego, ejecutando la acción (Entonces…). Las producciones se están actualizando continuamente mediante su aplicación a nuevas situaciones. Intentar equiparar una producción a veces lleva a errores, que luego se traducen en cambios de la producción para encajar la nueva realidad. A menudo las producciones se utilizan en una serie, convirtiéndose en conjunto en un proceso único, como montar en bicicleta o atarse los zapatos. La automaticidad surge conforme el proceso declarativo inicial es sustituido gradualmente por producciones que realizan la conducta directamente (proceso de procedimentalización). La serie de producciones se desencadena a continuación como una unidad sin necesidad de atención consciente. Anderson sostiene que el ACT* tiene muchas aplicaciones. Como decíamos, una de ellas es el aprendizaje, que, según él, ha sido descuidado por muchas teorías cognitivas. También explica el conocimiento procedimental además del declarativo, y describe la transferencia del procesamiento deliberado al automático que ocurre con el aumento de la práctica. Este modelo tiene la ventaja de ser muy global, si bien es extremadamente complejo y difícil de probar o falsar definitivamente. Un modelo tan poderoso y tan generalizable de unas situaciones a otras corre el riesgo de ser inestable. No está claro si el ACT* tiene este problema en un grado crucial. Anderson revisó su modelo (ahora llamado ACT-R) para hacerlo más compatible con las posibles estructuras neuronales subyacentes (Anderson, 1993). Sin embargo, este empeño parece hoy fútil, a favor de los modelos conexionistas. 5.2. La teoría de los esquemas Un enfoque importante dentro de las teorías computacionales es la teoría de los esquemas (Alba y Hasher, 1983; Bloom, 1988; Brewer y Nakamura, 1984; Casson, 1983; Rumelhart, 1980; Thordynke, 1984; Vandierendonk y van Damme, 1988). La idea original de un esquema se remonta al psicólogo cognitivo Sir Frederick Bartlett (1932), al psicólogo Sir Henry Head (1920) y más indirectamente al filósofo Inmanuel Kant (1781), quien sostenía que todos los conceptos sólo tenían significado en tanto en cuanto podían relacionarse con conocimiento que individuo ya poseía. La teoría de los esquemas también se ha visto muy influida por el trabajo en inteligencia artificial (Abelson, 1981; Schank y Abelson, 1977) y se ha convertido en una faceta importante del enfoque cognitivo. Un esquema puede definirse de una manera informal como una estructura de conocimiento sobre algún tema o, de una manera más técnica, como una “estructura de datos para representar conceptos 112 viu Grado en Psicología.es Módulo de formación básica genéricos en la memoria” (Rumelhart, 1980, p. 34). Como tal, un esquema dirige a la vez la captación y la recuperación de la información; afecta a la manera en como procesamos la nueva información y a cómo recuperamos la información antigua de la memoria. Rumelhart (1980), en un excelente artículo sobre los esquemas, los describió con cuatro metáforas. Primero, los esquemas son como obras de teatro, que se escriben con unos personajes, una trama o acción, una ambientación, etc. Sin embargo, esta información es un mero esqueleto para la “ejemplificación concreta” que ocurrirá cuando la obra sea realmente representada con actores concretos por un director concreto y en un lugar concreto. Cada representación diferente de la misma obra podría ser notablemente diferente, aun cuando el texto escrito garantizaría alguna semejanza. Lo mismo es cierto para los esquemas en cada ejemplificación concreta. En segundo lugar, los esquemas son como teorías en el sentido de que guían la construcción de una interpretación de una interpretación y se convierten en la base para la realización de predicciones que se someten a prueba y luego se confirman o se rechazan. En tercer lugar, los esquemas son como procedimientos, como los programas de ordenador, es decir, una organización de las actividades con relaciones estructurales entre dichas actividades y otras entidades. Esto es especialmente característico del tipo de esquemas denominados guiones. Por último, un esquema es como un analizador sintáctico: descompone, organiza e interpreta los datos de entrada. Aunque hay cierta variabilidad en cuanto a cómo se utiliza el término esquema, Alba y Hasher (1983) sugieren que la mayor parte coincidiría con cuatro principios básicos de cómo los esquemas intervienen en el proceso de codificación: selección, abstracción, interpretación e integración. El principio de selección se refiere al hecho de que, de toda la información de un acontecimiento o mensaje dado, sólo parte se incorporará en la representación de la memoria que se construye. Dos factores son pertinentes para determinar la selección de la información que se codificará. Uno es simplemente si existe ya o no en la memoria un esquema apropiado. Si no se dispone de un esquema pertinente, tanto la comprensión como la memoria serán muy malas. Una segunda razón por la que un esquema podría no ser asequible sería que no se activara de la memoria a largo plazo, aun cuando pudiera existir allí. Por ejemplo, un esquema completo puede ser activado por circunstancias externas, como en los estudios de Pichert-Anderson donde se dijo a los sujetos que leyeran una historia desde el punto de vista de un ladrón o bien de un corredor de fincas. El fenómeno de la especificidad de la codificación puede reinterpretarse como la garantía de que en la recuperación estén disponibles los mismos esquemas que se produjeron en la codificación. Cuando el contexto ha situado el tema, esto le permite identificar cierta información como más importante: aquella que está muy relacionada con el tema general. Dicha información tenderá a ser procesada a un nivel más profundo y a ser mejor recordada. La información que parece irrelevante o fácilmente reconstruible será probablemente olvidada. La exactitud del recuerdo posterior será en gran medida una función de lo bien que se seleccionó la información inicial y lo exactamente que fue reconstruida después. El segundo principio de codificación es la abstracción, por medio de la cual los detalles tienden a perderse en una reducción de la información en puntos principales, por lo que los esquemas indican la importancia relativa de las distintas informaciones. Por ejemplo, un amigo puede darle una explicación exhaustiva de su cita del último sábado pero después puede recordar tan sólo que la pareja fue a ver una película y luego a la pizzería. 113 Psicología del aprendizaje viu 6ECTS.es El tercer principio, la interpretación, surge de la elaboración durante la codificación o inmediatamente después. Una característica principal de los esquemas es que tienen “variantes” en las que se archiva la información específica cuando se ejemplifica concretamente, es decir, cuando se utiliza para captar o recuperar información sobre un caso particular. Por ejemplo, podemos utilizar nuestro esquema sobre el estilo de vida en California para deducir cómo Joe, de San Diego, debe pasar su tiempo. Cuando hacemos dichas inferencias, a menudo interpretamos necesariamente más allá de la información dada. Finalmente, el cuarto principio de codificación mediante esquemas es el de integración, por medio de la cual la información se combina en representaciones relativamente holísticas. Se extraen inferencias para relacionar la información previamente no relacionada. Incluso los propios esquemas pueden ser integrados o incorporados unos en otros, permitiendo esto una estructura jerárquica de la información esquemática. Hay algunas pruebas de que las personas mayores integran la información en un grado incluso mayor que los adultos jóvenes (Woodruff, 1983). Esto podría sustentar en parte el conocido fenómeno de la ventaja de los expertos sobre los novatos a la hora de integrar y dar sentido a información abundante y compleja. Dado que la noción de esquema es muy general, los diferentes esquemas son muy variados. Pueden ser bloques generales de conocimiento sobre un área concreta, o puede haber esquemas muy específicos. A veces pueden ser de naturaleza más personal o social. Por último, un esquema puede consistir en información sobre acciones concretas o clases de acciones, a lo que se llama “guión”. 5.3. Modelos conexionistas Durante mucho tiempo el punto de vista principal en la Psicología cognitiva fue el de los sistemas simbólicos del aprendizaje y la cognición. Gran parte del atractivo del punto de vista del sistema simbólico procede de su argumento de que el pensamiento sigue unas reglas. Cuando pensamos conscientemente a menudo seguimos reglas. Incluso los psicólogos que rechazan las reglas lógicas como la base del razonamiento humano ofrecieron como sustitutos varios heurísticos que eran en sí mismos reglas. A mediados del decenio de 1980, sin embargo, la ciencia cognitiva se vio perturbada por la aparición de una nueva arquitectura cognitiva, el conexionismo, que capitalizó el descontento creciente con la hipótesis del sistema de símbolos. La tesis básica del conexionismo es que la teoría psicológica debe ser modelada a imitación del cerebro humano, no de un ordenador no humano (Rumerlhart y cols., 1986). Puesto que el conexionismo dice que el procesador intuitivo funciona como el cerebro, más que como el procesador consciente, Clark (1989) lo denomina “el punto de vista del cerebro sobre el aprendizaje y la cognición”. Aunque los ordenadores son potentes y capaces de muchas proezas impresionantes, hay buenas razones para cuestionar las teorías que los erigen como modelos para la comprensión de la mente humana (Rumerlhart y cols., 1986). Mencionaremos aquí sólo tres de ellas especialmente importantes. La primera es el hecho obvio de que el cerebro no es un dispositivo de procesamiento en serie, paso a paso, como los ordenadores convencionales. A diferencia de ellos (que sólo poseen una CPU muy potente que procesa los datos uno a uno, los cerebros están compuestos de miles de millones de unidades simples de cómputo (neuronas) que funcionan todas al mismo tiempo y están masivamente interconectadas. 114 viu Grado en Psicología.es Módulo de formación básica Esta diferencia entre ordenador y cerebro lleva a una segunda razón para dudar de la validez de la hipótesis simbólica. Aunque las CPU de los ordenadores son increíblemente rápidas, capaces de computar millares de etapas de programa por segundo, las neuronas sin embargo son relativamente lentas porque dependen de procesos químicos tanto para transportar los impulsos a lo largo de los axones como para propagar las señales a través de los canales presinápticos. Si los cerebros tuvieran que pensar llevando a cabo una etapa cada vez, tendrían muchos apuros para realizar las tareas que habitualmente realizan. Puesto que pueden pensar y reaccionar rápidamente, parece necesario que lo hagan mediante el procesamiento en paralelo, llevando a cabo muchas etapas computacionales al mismo tiempo. La tercera deficiencia del enfoque simbólico computacional en serie es empírica: existen actualmente programas de ordenador que hacen cosas que los humanos admiran porque consideran extraordinariamente difíciles. Por ejemplo, Deep Blue es un programa que juega al ajedrez al más alto nivel. Mucha gente considera genios a los grandes maestros de ajedrez. Sin embargo, ningún ordenador es capaz de realizar una amplia variedad de tareas que los humanos realizar sin pensar, como moverse por una habitación llena de objetos, leer sin dificultad un texto o reconocer la cara de un amigo. El fracaso de la inteligencia artificial tradicional para simular las habilidades humanas más simples, a pesar de los años de trabajo y la potencia creciente de los ordenadores, ha llevado a muchos psicólogos a sospechar que el modelo de procesamiento en serie del sistema simbólico de la mente humana es equivocado y que, en vez de mirar al ordenador como nuestro modelo de mente, deberíamos mirar al cerebro. En cierto modo, la arquitectura de la cognición, tal como la ven los conexionistas, es mucho más simple que la del punto de vista simbólico. Este último distingue varios sistemas de memoria y procesos de ejecución responsables de los diferentes procesos cognitivos. El conexionismo no hace distinción entre tipos de memoria o entre memoria frente a pensamiento. En cambio, su arquitectura de la cognición consiste en múltiples unidades de cómputo simples parecidas a neuronas interconectadas en una red de tipo cerebral. Cada unidad es idéntica a todas las demás unidades y el aprendizaje, la memoria y el pensamiento son todos patrones de actividad cambiantes en la red en su conjunto. En la figura 4 se muestra una unidad de cómputo conexionista típica. La inspiración conceptual para estas unidades es la neurona. Las neuronas reciben múltiples conexiones dendríticas de muchas otras neuronas del sistema nervioso; en las unidades conexionistas, esto se convierte en una serie de conexiones de entrada procedentes de otras unidades. En las neuronas, las conexiones sinápticas de una neurona a otra pueden ser excitadoras (si la neurona presináptica descarga, aumenta la posibilidad de que la neurona postsináptica descargue) o inhibidoras (si la neurona presináptica descarga, reduce la posibilidad de que la neurona postsináptica descargue). En las unidades conexionistas las conexiones pueden ser igualmente excitadoras o inhibidoras. En las neuronas reales las fuerzas sinápticas varían desde cero (el disparo de una neurona presináptica no tiene efecto sobre la actividad de la neurona postsináptica) a valores muy grandes. De igual forma, el peso o la fuerza de las conexiones entre las unidades conexionistas varía normalmente desde 0 (sin fuerza) hasta 1,00 (intensidad completa). Los pesos pueden utilizarse también para representar si una conexión es inhibidora o excitadora, tomando valores que oscilan entre -1,00 y +1,00, pasando por 0. Los 115 Psicología del aprendizaje viu 6ECTS.es potenciales de acción de disparo de las neuronas descienden por el axón, que está conectado a muchas otras neuronas. En las unidades conexionistas esto se representa por una serie de conexiones de salida (output) desde una unidad a las otras. Por último, las neuronas reaccionan a la suma de todas las descargas de entrada que reciben desde sus conexiones dendríticas de entrada (input) y si se alcanza el nivel general de excitación en la sinapsis, la neurona descargará un potencial de acción, enviando un impulso electroquímico a otras unidades con las que está conectada. Las unidades conexionistas también suman la información de entrada neta (input) que reciben y envían alguna información de salida (output) a las otras unidades. La figura 4 muestra una unidad que, como la mayoría de las neuronas, computa una función escalonada: como las neuronas, computa la información total de entrada, inhibidora y excitadora, y si el nivel general de excitación (información de entrada neta) alcanza un valor de umbral, entonces envía un mensaje o señal de intensidad total a las unidades a las cuales está conectada. Cualquier función matemática puede ser computada por una unidad conexionista. Por ejemplo, la información de salida puede ser gradual, en vez de del tipo todo o nada. Cuanto mayor es el nivel de información de entrada, mayor es la intensidad de información de salida. Si se gradúa, la información de salida puede ser una función lineal de la información de entrada o una función no lineal. Diferentes redes conexionistas utilizan diferentes reglas, dependiendo de la tarea de que se trate. Figura 4. Esquema de una unidad en una red de tipo conexionista. Se han construido redes neuronales que hacen muchas cosas (Waltz y Feldman, 1988). Por ejemplo, se han diseñado pequeñas redes neuronales para simular fenómenos del condicionamiento pauloviano (Kehoe, 1988; Rumelhart, Hinton y Williams, 1986). Son redes en capas porque las unidades se organizan en una capa de información de entrada responsable de la sensación y una capa de información de salida responsable del comportamiento. Las redes pueden también construirse sin capas, dispuestas e interconectándose las unidades casi al azar, pero la mayor parte de 116 viu Grado en Psicología.es Módulo de formación básica las redes elaboradas son en capas. Es una red alimentada en dirección anterógrada, porque la activación (los impulsos enviados desde una unidad a la siguiente) se propagan en una dirección, hacia adelante desde la capa de información de entrada a la capa de información de salida. De nuevo, hay redes en las que existen conexiones entre unidades en la misma capa, o en las que hay conexiones retrógradas desde las unidades posteriores a las unidades iniciales, pero la mayor parte de las redes neuronales son de alimentación anterógrada. Aunque redes simples de dos capas puedan simular el condicionamiento clásico, fenómenos más sofisticados están fuera de su alcance. Desde un punto de vista histórico, las primeras redes conexionistas de los decenios de 1950 y 1960 se limitaban a dos capas por razones matemáticas técnicas y, por consiguiente, fueron abandonadas a favor del enfoque del sistema simbólico. En la teoría conexionista contemporánea, sin embargo, es posible construir redes que tengan capas de unidades ocultas que intervienen entre las unidades de información de entrada y de información de salida. El entrenamiento de una red con capa oculta es más complicado que el de una red sin dicha capa, pero el proceso es básicamente el mismo. Se presentan a la red una serie de ensayos de entrenamiento que especifican las distintas informaciones de entrada posibles y las informaciones de salida que queremos que la red haga. Como consecuencia, la red cambia gradualmente las fuerzas de conexión entre sus unidades hasta que produce la información de salida apropiada. Los diagramas de las teorías conexionistas del condicionamiento pauloviano se parecen mucho a las propuestas por las teorías asociativas tradicionales que ya vimos. La estructura de las teorías asociacionistas y de las teorías conexionistas es la misma (el condicionamiento se explica cambiando la fuerza de la asociación –conexión- entre los estímulos), pero sigue habiendo importantes diferencias. En los modelos asociativos, las unidades que representan los EC y los EI son pasivas, mientras que las unidades conexionistas son procesadores computacionales activos (si son simples). Los modelos conexionistas especifican un proceso por medio del cual se cambian las fuerzas de conexión durante el aprendizaje (retropropagación o una de sus variantes), mientras que los modelos asociacionistas describen cambios en las fuerzas asociativas sin describir el mecanismo psicológico o neuronal que los efectúa. Los modelos conexionistas son incluso más diferentes de los modelos simbólicos del pensamiento. En el modelo de condicionamiento pauloviano de Holyoak, Koh y Nisbett, el aprendizaje depende de la generación y comprobación de reglas de producción lógica del tipo si… entonces. En los modelos conexionistas del condicionamiento, las reglas lógicas no desempeñan papel alguno. En cambio, el aprendizaje tiene lugar debido a cambios en conexiones similares a sinapsis entre unidades semejantes a las neuronas. Las redes neuronales conexionistas no son manipuladas por símbolos ni reglas lógicas. Finalmente, si las redes neuronales conexionistas han de emular el funcionamiento de los cerebros de los mamíferos (y no digamos del cerebro humano) se necesitarán redes de millares y centenares de millares de unidades. Aunque el conexionismo es un excitante avance reciente de la ciencia cognitiva, la teoría de las redes neuronales tiene algunos inconvenientes. Uno importante se deriva de su promesa de sustituir a las teorías de la mente de estilo inteligencia artificial (irreales) por otras de inspiración cerebral, reales. Aunque esa inspiración de las unidades conexionistas y las redes neuronales se encuentra en las neuronas biológicas y en los circuitos cerebrales, hay importantes diferencias entre ellos. Por ejemplo, 117 Psicología del aprendizaje viu 6ECTS.es los cerebros funcionan en una “sopa” bioquímica cuyos contenidos modifican las operaciones neuronales. Las neuronas se comunican enviando mensajes químicos a través de sinapsis químicamente complejas, procesos que son completamente ajenos a las redes conexionistas. En estas últimas, todas las unidades son iguales, mientras que en los cerebros reales hay muchas clases de neuronas. Los procedimientos de retropropagación estándar para cambiar los pesos de las conexiones suponen que puede retroenviarse información de error a los largo de las conexiones desde las unidades de respuesta a las unidades sensoriales. Las neuronas reales pueden transmitir información sólo en una dirección. En resumen, si bien en líneas generales las unidades y las redes conexionistas semejan la estructura de los sistemas nerviosos biológicos, su modo de funcionamiento no lo hace. Las unidades neuronales las conexiones y los pesos de conexión son ficciones matemáticas, no cosas reales incluso en el interior de los ordenadores en los que funcionan esos programas. Otro problema que plantean las redes conexionistas es que, dado que aprenden en vez de ser programadas, el funcionamiento interno de las redes neuronales es tan misterioso como el funcionamiento del cerebro y, por consiguiente, el conexionismo no contribuye a proporcionar una explicación del comportamiento humano. Como las arquitecturas de cognición de los sistemas simbólicos, las redes conexionistas han sufrido importantes reveses empíricos (Norris, 1991). Cuando un ser humano aprende dos tareas suele haber interferencia entre ella, de modo que el aprendizaje de una nueva tarea puede verse obstaculizado por el aprendizaje anterior, y la maestría en una nueva tarea puede dificultar el reaprendizaje de la primera. Pero dicha interferencia nunca es catastrófica, como sin embargo parece ser en las redes conexionistas. Si entrenamos a una red a hacer una cosa, por ejemplo, a realizar predicciones meteorológicas, y luego la entrenamos para hacer otra cosa, por ejemplo a realizar diagnósticos correctos de enfermedades, descubriremos que la primera capacidad se ha destruido (Hintzman, 1978; Norris, 1991). El reentrenamiento de la red neuronal no es distinto del entrenamiento de una red nueva, pero los seres humanos conservan el conocimiento de las habilidades aprendidas previamente a pesar del nuevo aprendizaje. 118 viu Grado en Psicología.es Módulo de formación básica Tema 6. Constructivismo: aprendizaje por reestructuración Si bien el procesamiento de la información es la corriente dominante en Psicología, no agota todas las posibilidades del enfoque cognitivo. De hecho, puede hablarse legítimamente de la existencia de dos tradiciones cognitivas distintas. Una, la dominante, de naturaleza mecanicista y asociacionista. La otra, de carácter organicista y estructuralista, se remonta a la Psicología europea de entreguerras, cuando autores como Piaget, Vygotski, Bartlett o la Escuela de la Gestalt oponían al auge del conductismo una concepción del sujeto humano radicalmente anti-asociacionista. Según Voss (1984, p. 193) “en la concepción clásica, se suponía que las asociaciones se desarrollaban y reforzaban mediante la operación de las ‘leyes’ de la asociación. Las más importantes de las cuales eran la contigüidad y la frecuencia. Hoy las leyes asociativas suelen considerarse como una explicación insuficiente del aprendizaje, sobre todo porque, en su interpretación tradicional, no tienen en cuenta la adquisición de relaciones ni el desarrollo de estructuras organizadas”. Quizá la diferencia esencial entre el procesamiento de la información y el estructuralismo cognitivo resida en la unidad básica de análisis de la que parten. Mientras el procesamiento de información es elementista y parte de las unidades mínimas, considerando que una totalidad puede descomponerse en sus partes (por ejemplo, un concepto es una lista de rasgos), el otro enfoque cognitivo parte de unidades más molares, en las que el todo no es simplemente la suma de sus partes componentes. Vygotski (1934), uno de los más lúcidos defensores de un enfoque molar en Psicología, considera que 119 Psicología del aprendizaje viu 6ECTS.es ésta debe basarse en los que él denomina “análisis por unidades”, donde las unidades serían “un producto del análisis que, contrariamente a los elementos, concentra todas las propiedades básicas del total y no puede ser dividido sin perderse”, tal como sucede al descomponer el agua en hidrógeno y oxígeno. El estudio de la formación de conceptos a partir de esas unidades o globalidades supone rechazar la idea comúnmente aceptada por las teorías asociacionistas de que los conceptos quedan definidos por los rasgos o atributos que los definen. Según este enfoque, en Psicología del aprendizaje puede diferenciarse entre la reducción de un concepto a sus rasgos componentes, defendida por los enfoques anteriores, y el establecimiento de su significado a partir de otros conceptos dentro de una teoría o estructura general, posición que adoptarán las teorías de la reestructuración. Al admitir que los conceptos no son simples listas de rasgos acumulados, sino que forman parte de teorías o estructuras más amplias, el aprendizaje de conceptos sería ante todo el proceso por el que cambian esas estructuras. Por tanto, el proceso fundamental del aprendizaje sería la reestructuración de las teorías internas de la que forman parte los conceptos. La reestructuración es un proceso de cambio cualitativo y no meramente cuantitativo. Así, las teorías de la reestructuración consideran el cambio como un proceso inherente al organismo, adoptando una posición organicista. Ello les lleva a interesarse por los procesos de desarrollo y por los cambios a largo plazo más que por los microcambios generados experimentalmente. De igual forma, al asumir unidades molares, no elementales, se ocupan de la adquisición de conocimientos complejos organizados en forma de teorías. En esta línea, los teóricos de la escuela de la Gestalt estudiarán problemas de todo tipo (desde la percepción visual a la adquisición de conceptos científicos), entendiendo que el descubrimiento de una nueva organización perceptiva o conceptual con respecto a un problema (una comprensión real del mismo) es más fácil de generalizar a otros problemas estructuralmente similares. La solución de problemas y el aprendizaje no se obtendrán por la asociación de elementos próximos, sino por la comprensión de la estructura global de las situaciones. 6.1. La Gestalt: aprendizaje por «insight» Los autores de la Gestalt realizaron un buen número de experimentos sobre percepción y pensamiento en apoyo de sus formulaciones teóricas. Algunas de ellas consistían en situaciones de aprendizaje que, en términos generales, venían a mostrar la superioridad del aprendizaje por comprensión o reestructuración sobre el simple aprendizaje memorístico o asociativo. Ahora bien, cómo se produce esa reestructuración? Los Gestaltistas creen que la reestructuración tiene lugar por insight o comprensión súbita del problema. Entre ellos están los estudios clásicos de Köhler (1921) de los que hablamos en el punto 5.1.2. A diferencia de los estudios de los conductistas, en los que los animales aprenden por ensayo y error, los monos de Köhler aprenden reorganizando los elementos del problema tras una profunda reflexión. Estas dos formas tan distintas de aprender están presentes también en los estudios con humanos. Mientras los sujetos del conductismo aprenden de modo asociativo, los de la Gestalt lo hacen por insight. Wertheimer (1945) considera que a cada uno de los mecanismos de aprendizaje asociativo le corresponde un mecanismo alternativo en las concepciones gestaltistas. Así, la asociación dejaría de ser un enlace ciego de elementos a la estructura para interpretarse como la comprensión de la relación estructural entre una serie de elementos que se requieren unos a otros. La repetición no produciría conexiones ciegas, sino que ayudaría a captar la 120 viu Grado en Psicología.es Módulo de formación básica relación estructural entre una serie de elementos que se requieren unos a otros. También el ensayo y error dejaría de ser aleatorio para convertirse en una comprobación estructural de hipótesis significativas. Una consecuencia importante es que, en el enfoque gestaltista el sujeto aprende reinterpretando sus fracasos y no sólo a través del éxito, si bien también puede aprender del éxito si es capaz de comprender las razones estructurales que lo han hecho posible. Esta contraposición radical de la Gestalt con el asociacionismo se refleja también en el tipo de investigación realizada desde ambos enfoques. Los psicólogos alemanes se ocuparon en tareas de aprendizaje mucho más complejas que las estudiadas por el conductismo. Según Wertheimer (1945), la comprensión de un problema está ligada a una toma de conciencia de sus rasgos estructurales. Una nueva estructura surge cuando se logra desequilibrar la estructura anterior. Pero, ¿cuándo sucede esto?, o en otras palabras, ¿cuáles son las condiciones necesarias para que se produzca un insight? En este punto, como en otros muchos, las formulaciones de la Gestalt resultan muy vagas. Aunque según algunas interpretaciones simplificadoras, el insight sería un proceso repentino o inmediato, algunos gestaltistas admiten que puede existir un largo periodo previo de preparación. Pero, aun así, no se especifica lo que sucede durante ese periodo de preparación y menos aún cuáles son los factores desencadenantes del insight. Es decir, que la Gestalt no proporciona una explicación sobre la influencia de la experiencia pasada en la comprensión súbita de un problema. De hecho, el efecto de la experiencia previa más estudiado por los gestaltistas, la fijeza funcional, está relacionado más bien con la influencia negativa de esa experiencia y que, en ciertas circunstancias, vendría a dificultar la reestructuración del problema, en vez de facilitarla. En términos generales, cuando una tarea o problema tenga varias estructuras posibles y alguna de ellas resulte más inmediata o fácil de percibir para el sujeto, la reestructuración resultará más difícil. Igualmente, cuando en la solución de una tarea entren en juego intereses o motivos personales, el cambio a una estructura distinta de la situación se verá obstaculizado (Wertheimer, 1945). En ambos casos la fijeza funcional o resistencia a reestructurar la tarea impedirán su correcta solución y, por tanto, el aprendizaje productivo. En resumen, aunque históricamente la Gestalt sucumbió ante el empuje del conductismo, sus ideas conserva buena parte de su vigor original. La vitalidad de la Gestalt como teoría del aprendizaje se resume, a pesar de sus limitaciones, en su insistencia en la superación de un enfoque atomista, que debería ser sustituido por un estudio molar del conocimiento y de los procesos cognitivos, en el que la unidad básica de análisis fuera la estructura. 6.2. La teoría de la equilibración de Piaget En cualquier repaso a las teorías psicológicas del aprendizaje es obligado referirse a la obra de Piaget. Y sin embargo, Piaget se ocupó en muy pocas ocasiones de los problemas del aprendizaje y casi siempre con un cierto distanciamiento, si nos atenemos a los títulos de sus obras. Pero este rechazo de Piaget por los problemas del aprendizaje es más terminológico que real. De hecho, Piaget distinguía entre aprendizaje en sentido estricto, por el que se adquiere del medio información específica, y aprendizaje en sentido amplio, que consistiría en el progreso de las estructuras cognitivas por procesos de equilibración. Piaget considera que el primer tipo de aprendizaje, representado principalmente por el condicionamiento clásico y operante (Piaget, 1970) está subordinado al segundo o, dicho de otra forma, que el aprendizaje de conocimientos específicos depende del desarrollo de estructuras cognitivas generales, que él formaliza en términos lógicos. Esta posición de 121 Psicología del aprendizaje viu 6ECTS.es Piaget respecto a las relaciones entre aprendizaje y desarrollo le lleva a negar cualquier valor explicativo al aprendizaje por asociación, ya que, según él, “para presentar una noción adecuada del aprendizaje, hay primero que explicar cómo procede el sujeto para construir e inventar, no simplemente cómo repite y copia” (Piaget, 1970, pp. 27). De momento, conviene destacar que, para Piaget, el progreso cognitivo no es consecuencia de la suma de pequeños aprendizajes puntuales, sino que está regido por un proceso de equilibración. De esta forma, Piaget se adhiere a una larga tradición en Psicología (en la que se incluyen autores como Dewey, Freud o W. James, además de la escuela de la Gestalt) que considera que el comportamiento y el aprendizaje humanos deben interpretarse en términos de equilibrio. Así, el aprendizaje se produciría cuando tuviera lugar un desequilibrio o un conflicto cognitivo. Pero, ¿qué es lo que está en equilibrio y puede entrar en conflicto? En el caso de Piaget, son dos procesos complementarios: la asimilación y la acomodación. Usando una metáfora de la biología, Piaget (1970, pp. 18) dice que “la asimilación es la integración de elementos exteriores a estructuras en evolución o ya acabadas en el organismo”. Así, en términos psicológicos, sería el proceso por el que el sujeto interpreta la información que proviene del medio, en función de sus esquemas o estructuras conceptuales disponibles. Por ejemplo, los bebés conocen el mundo a través de los esquemas de succión (Piaget, 1963). Asimilan todos los objetos a sus actividades de succión. En cambio, los adultos disponemos de esquemas más complejos para asimilar la realidad. Así, la categorización conceptual sería un claro ejemplo de asimilación de un objeto a un esquema cognitivo. Pero, si únicamente existiese la asimilación, gran parte de nuestros conocimientos o esquemas serían fabulaciones y conducirían a continuas equivocaciones. Es necesario, por ello, un proceso complementario que Piaget denomina acomodación. Gracias a él nuestros conceptos e ideas se adaptan recíprocamente a las características del mundo. La acomodación no sólo explica la tendencia de nuestros conocimientos o esquemas de asimilación a adecuarse a la realidad, sino que, sobre todo, sirve para explicar el cambio de esos esquemas cuando esa adecuación no se produce. Si mis esquemas son insuficientes para asimilar una situación determinada, probablemente modificaré alguno de mis esquemas, adaptándolo a las características de la situación. Es así como Piaget define la acomodación: “Llamaremos acomodación a cualquier modificación de un esquema asimilador o de una estructura, modificación causada por los elementos que se asimilan”. A medida que el niño aplica una y otra vez su esquema de succión a objetos diferentes, el esquema va adaptándose a los objetos chupados. Del mismo modo, el bebé que es capaz de ver pero no de mirar, adquiere los esquemas de mirada modificando sus esquemas de asimilación iniciales a medida que fija su vista en los objetos y la adapta a la forma y movimiento de éstos. La adquisición de nuevos conceptos en los adultos por modificación de otros conceptos anteriores sería también un ejemplo de acomodación. Para Piaget el proceso de equilibración entre asimilación y acomodación se ensambla en tres niveles progresivamente más complejos: El equilibrio se establece entre los esquemas del sujeto y los sucesos externos. El equilibrio se establece entre los propios esquemas del sujeto. El equilibrio se traduce en una integración jerárquica de esquemas diferenciados. 122 viu Grado en Psicología.es Módulo de formación básica Asimismo, son estas estructuras las que definen los distintos estadios de desarrollo. El proceso de desarrollo cognitivo abarca una sucesión de estadios cualitativamente diferentes (desde el sensorio-motor, pasando por la etapa pre-operacional hasta el de las operaciones concretas y posteriormente las operaciones formales). Todas estas etapas cumplen en la teoría de Piaget condiciones específicas: a) se presentan en un orden constante en todos los individuos, b) se caracterizan por una estructura que los define y que se adquiere globalmente al final de cada uno de ellos, c) cada estadio integra las características del estadio anterior, y d) cada estadio incluye una fase de preparación y otra de acabamiento. Sin embargo, la acomodación supone no sólo una modificación de los esquemas previos en función de la información asimilada, sino también una nueva asimilación o reinterpretación de los datos o conocimientos anteriores en función de los nuevos esquemas construidos. La adquisición de un nuevo concepto puede modificar toda la estructura conceptual precedente. Según la metáfora de Driver, Guesne y Tiberghien (1985), un conocimiento recién adquirido sería como un alumno nuevo que se incorpora a una clase una vez comenzado el curso. Según las características del alumno y del grupo al que va a incorporarse, su influencia sobre la clase puede ser distinta: puede no relacionarse con sus compañeros y permanecer aislado, puede juntarse con algún grupo ya formado o puede ser un líder que revolucione toda la clase. Lo mismo sucede con los conocimientos nuevos: pueden consistir en un saber aislado, integrarse en estructuras de conocimiento ya existentes, modificándolas levemente, o reestructurar por completo los conocimientos anteriores. Como se puede ver, ambos procesos (la asimilación y la acomodación) se implican necesariamente. Según Piaget, el progreso de las estructuras cognitivas se basa en la tendencia a un equilibrio creciente entre ambos procesos. Cuanto mayor sea ese equilibrio, menores serán los fracasos o errores producidos. Pero también, y esto es importante, sólo de los desequilibrios entre estos dos procesos surge el aprendizaje o el cambio cognitivo. En su última formulación, Piaget defiende que el equilibrio entre asimilación y acomodación se da en tres niveles de complejidad creciente: En el primer nivel, los esquemas que posee el sujeto deben estar en equilibrio con los objetos que asimilan. Así, cuando la “conducta” de un objeto (por ej., un objeto pesado que flota) no se ajusta a las predicciones del sujeto, se produce un desequilibrio entre sus esquemas de conocimiento (es el peso absoluto lo que determina su flotabilidad) y los hechos que asimilan. En el segundo nivel debe existir un equilibrio entre los diversos esquemas del individuo, que tienen que asimilarse y acomodarse recíprocamente. De lo contrario se produce un “conflicto cognitivo” o desequilibrio entre dos esquemas. Así sucede, por ejemplo, con los sujetos que piensan que la fuerza de la gravedad es la misma para todos los cuerpos y, sin embargo, los objetos más pesados caen más deprisa. Por último, el nivel superior del equilibrio consiste en la integración jerárquica de esquemas previamente diferenciados. Así, por ejemplo, cuando un sujeto adquiere el concepto de fuerza, debe relacionarlo con otros conceptos que ya posee (masa, movimiento, energía) integrándolo en una nueva estructura de conceptos. En este caso, la acomodación de un esquema produce cambios en el resto de esquemas asimiladores. De no ser así, se producirán continuos desequilibrios o conflictos entre esos esquemas. 123 Psicología del aprendizaje viu 6ECTS.es En los tres casos los desequilibrios muestran la insuficiencia de los esquemas disponibles para asimilar la información presentada y, por tanto, la necesidad de acomodar esos esquemas para recuperar el equilibrio. Pero, ¿cómo se superan esos desequilibrios? Según Piaget (1975) habría dos tipos globales de respuesta a las perturbaciones o estados de desequilibrio. Las respuestas no adaptativas consistirían en no tomar conciencia del conflicto existente, esto es, no elevar la perturbación a rango de contradicción. Así, al no concebir la situación como conflictiva, el sujeto no hará nada por modificar sus esquemas. Algo como lo que le sucede al atribulado Gary Olman en la película “Ronsencrantz and Guilderstern are dead” al convertirse en pasmado testigo de episodios relacionados con la física. Rosencrantz & Guilderstern –Newtonian Physics. http://www.youtube.com/watch?v=w5_ayuaCzZs En este sentido la respuesta no es adaptativa, ya que no produce ninguna acomodación y, por tanto, ningún aprendizaje, no ayudando en absoluto a superar el conflicto latente entre los esquemas y los objetos asimilados. Las respuestas adaptativas serían aquellas en las que el sujeto es consciente de la perturbación e intenta resolverla. Las respuestas adaptativas pueden ser de tres tipos: La regulación de la perturbación no se traduce en un cambio del sistema de conocimientos, ya sea porque la perturbación es muy leve y puede ser corregida sin modificar el sistema o porque, siendo fuerte, se ignora o no considera (es la respuesta tipo alpha). El elemento perturbador se integra en el sistema de conocimientos, pero como un caso más de variación en el interior de la estructura organizada (respuesta beta). Hay una anticipación de las posibles variaciones que dejan de ser perturbaciones para convertirse en parte del juego de transformaciones del sistema (respuesta gamma). De esta forma, las respuestas adaptativas al desequilibrio se corresponden, a grandes rasgos, con las tres formas de reacción de la clase al nuevo alumno que veíamos en la metáfora de Driver y cols.: no aceptarlo, integrarlo en sus estructuras o modificar sus estructuras para incorporarlo. Según Piaget (1975), estas respuestas poseen una eficacia creciente, de forma que las respuestas gamma dan lugar a una profunda reestructuración de los conocimientos y, por tanto, permiten acceder a niveles superiores de equilibrio. Pero, ¿cómo se produce esa acomodación óptima? Piaget y García (1983) encuentran que toda teoría o conjunto de esquemas organizados se ve sometida en su desarrollo a tres tipos de análisis que implica una integración jerárquica progresiva: Análisis intra-objetal, mediante el cual se descubren una serie de propiedades en los objetos o en los hechos analizados (por ejemplo, en el caso de la mecánica newtoniana el peso de los objetos, su movimiento, etc.). Análisis inter-objetal, por el cual se establecen relaciones entre los objetos o características antes descubiertos. Estas relaciones permiten explicar las transformaciones que se producen en situaciones causales (por ejemplo, la velocidad de dos móviles en un choque determina la distancia a la que se desplazan). 124 viu Grado en Psicología.es Módulo de formación básica Análisis trans-objetal, que consiste en establecer vínculos entre las diversas relaciones construidas, de forma que compongan un sistema o estructura total, reduciendo así las perturbaciones posibles (por ej., elaboración de un modelo explicativo, tal como el “modelo newtoniano de mundo”). Estos niveles de complejidad creciente implican una evolución desde el estudio de los objetos en sí mismo a la reflexión sobre la propia teoría que uno mantiene con respecto a los objetos y su comparación y posible integración con otras ideas. Este progreso se caracteriza por una toma de conciencia progresiva, inicialmente con respecto a las cualidades de los objetos y más delante con respecto a las operaciones o acciones virtuales que se pueden aplicar a esos objetos dentro de un sistema de transformaciones. Esta toma de conciencia conceptual o tematización es, sin duda, uno de los núcleos fundamentales del modelo piagetiano del cambio conceptual. Así, la toma de conciencia resulta esencial para pasar de tener éxito en un problema a comprender por qué se ha tenido éxito o se ha fracasado. En el primer caso, las acciones del sujeto se dirigen únicamente al objeto; en el segundo, cuando intenta comprender, tienen como fin principal conocer y modificar su propio pensamiento. La toma de conciencia desempeña en la teoría de Piaget una función similar al insight en la distinción de Wertheimer (1945) entre el pensamiento reproductivo, que busca repetir el éxito, y el productivo, dirigido a la comprensión. Pero, a diferencia de lo que ocurría en la teoría de la Gestalt, Piaget (1977) distingue entre la toma de conciencia de las propiedades de los objetos (abstracción empírica) y la toma de conciencia de las propias acciones o conocimientos aplicados a los objetos (abstracción reflexi

Use Quizgecko on...
Browser
Browser