Antecedentes histórico-filosóficos de la Psicología Cognitiva (UVIII) PDF
Document Details
Uploaded by HardWorkingLearning8016
UVIII
Tags
Summary
Este documento presenta un análisis de los antecedentes históricos y filosóficos de la psicología cognitiva, con especial énfasis en el surgimiento de la inteligencia artificial y la importancia del procesamiento de la información como metáfora para comprender la mente humana. El texto discute los debates históricos y las diferentes perspectivas de la época, con ejemplos de figuras influyentes.
Full Transcript
Clase 10 Tema 11: Antecedentes histórico-filosóficos de la psicología cognitiva (UVIII). T11: Leahey, T. (2006). Historia de la psicología. Cap. 12. MECANIZACIÓN DEL PENSAMIENTO La inteligencia artificial. Desde la Revolución Científica, la similitud entre persona y máquina había atraído y repeli...
Clase 10 Tema 11: Antecedentes histórico-filosóficos de la psicología cognitiva (UVIII). T11: Leahey, T. (2006). Historia de la psicología. Cap. 12. MECANIZACIÓN DEL PENSAMIENTO La inteligencia artificial. Desde la Revolución Científica, la similitud entre persona y máquina había atraído y repelido a filósofos y psicólogos. Descartes con su mecanicismo, luego Hobbes y La Mettrie habían defendido la idea de que las personas no eran más que animales-máquinas. Watson, como Hobbes y La Mettrie, proclamó que tanto humanos como animales eran máquinas, y que la salvación humana residía en aceptar esta realidad y en diseñar un futuro perfecto como el que había imaginado Skinner en Walden II. Una tendencia científica constante ha sido la mecanización de la imagen del mundo. En el siglo XX los psicólogos lucharon contra el último bastión de la teleología: la conducta propositiva animal y humana. En la maquinaria de Tolman aparece una realidad fantasma, la toma de decisiones. Los psicólogos parecían estar entre la espada y la pared: a) podían intentar explicar la conducta propositiva haciendo referencia a eventos internos, como Tolman hizo más adelante, pero corrían el riesgo de inventar un misterioso fantasma interior cuyas funciones seguirían siendo inescrutables; b) podían intentar explicar la conducta propositiva en términos estrictamente mecánicos, como Hull había hecho, o en términos de un control ambiental más sutil de la conducta, como había hecho Skinner, pero aunque esta postura era adecuadamente científica y dura, parecía negar el hecho evidente de que la conducta se dirige a metas; o c) siguiendo a Brentano y Wittgenstein, o al Tolman de los primeros años, podían aceptar el propósito como una verdad irreducible de la acción humana, que ni requiere ni necesita explicación; pero esta última opción negaba que la psicología pudiese ser una ciencia del mismo tipo que la física, algo impensable para los psicólogos que en aquella época estaban aquejados por la envidia de las ciencias físicas. La solución al problema del propósito: el concepto de retroalimentación. Rosenblueth, Wiener y Bigelow (1943/1966) articularon la retroalimentación informativa como un principio general aplicable a cualquier tipo de sistema propositivo, mecánico o viviente (ehjemplo del termostato). Tanto el «fantasma en la máquina» como el lector de mapas cognitivos de Tolman se podían sustituir por bucles complejos de retroalimentación. Y, desde un punto de vista práctico, esas máquinas capaces de hacer lo que hasta entonces sólo podían hacer las personas podrían sustituir a los sirvientes y a los trabajadores industriales. La definición de inteligencia artificial La cuestión de si los ordenadores podían ser o llegar a ser inteligentes se convirtió en el tema central de la ciencia cognitiva, y su formulación moderna se debe al brillante matemático A. M. Turing, quien había hecho una gran contribución a la teoría de los ordenadores durante la guerra. Turing proponía que se considerase que un ordenador es inteligente si consigue hacerse pasar por el ser humano en una prueba. El término inteligencia artificial (IA) lo acuñó el científico informático John McCarthy unos años más tarde. Los profesionales de la IA pretenden crear máquinas que puedan desempeñar muchas de las tareas realizadas hasta entonces sólo por seres humanos, desde jugar al ajedrez hasta ensamblar automóviles o explorar la superficie de Marte. EL TRIUNFO DEL PROCESAMIENTO DE LA INFORMACIÓN La distinción mente-cuerpo, programa-ordenador. Para Boring, un robot capaz de pensar tendría una gran significación metafísica porque confirmaría la afirmación de La Mettrie de que las personas son máquinas y garantizaría a la psicología un lugar entre las ciencias naturales. Broadbent afirmó que los psicólogos deberían considerar las entradas sensoriales no como estímulos físicos, sino como información. Este concepto de información permitió a los psicólogos respetar la naturaleza no-física del pensamiento sin las dificultades que planteaba el dualismo cartesiano. La concepción de la mente en términos de información permitió que los psicólogos tuviesen una especie de dualismo mente-cuerpo que escapaba a los límites del conductismo fisicalista. La distinción entre ordenador y programa resultó crucial para la psicología cognitiva, porque significó que la psicología cognitiva no era neurología y que las teorías cognitivas del pensamiento humano deberían versar sobre la mente humana —es decir, el programa del ser humano—, no sobre el cerebro humano. El objetivo de la psicología consistiría en especificar cómo procesan la información los seres humanos. Los conceptos de estímulo y respuesta se sustituirían con los de entrada (input) y salida (output) de la información, y las teorías sobre cadenas e-r intermedias serían sustituidas por teorías sobre computaciones internas y estados computacionales. La simulación del pensamiento En 1958, Allan Newell, J. C. Shaw y Herbert Simon formularon claramente la nueva concepción de la psicología: "El núcleo de nuestro enfoque consiste en describir la conducta del sistema mediante un programa bien especificado y definido en términos de procesos elementales de información." Dentro de la inteligencia artificial se intentaban crear programas que se comportasen como seres humanos sin que necesariamente pensaran como seres humanos. Newell, Shaw y Simon abandonaron la inteligencia artificial en favor de la simulación por ordenador porque consideraban que sus programas no sólo resolvían problemas, sino que además lo hacían del mismo modo que los humanos. La diferencia entre la IA y simulación por ordenador es importante porque la IA pura no es psicología. Los esfuerzos de la IA pueden resultar psicológicamente instructivos para sugerir los tipos de recursos cognitivos que deben poseer los humanos para llegar a ser inteligentes, pero determinar cómo actúan realmente las personas de forma inteligente exige una simulación real del pensamiento humano, no sólo de la conducta. El hombre máquina: el impacto de la metáfora del procesamiento de la información. En 1967, Ulrich Neisser escribió el más notable texto en el área: Cognitive psychology, donde le dio un nombre específico a todas esa multitud de ideas convergentes sobre la pujante ciencia cognitiva, logrando fundar su campo formalmente. Dice en el primer capítulo: «Hace una generación, un libro como este habría necesitado al menos un capítulo de autodefensa contra la corriente conductista. En la actualidad, afortunadamente, ha cambiado la opinión imperante y no se necesita hacer prácticamente ninguna autodefensa. En efecto, los teóricos mismos que buscaban explicarlo todo por medio de estímulos y respuestas están inventando con vigor y entusiasmo mecanismos hipotéticos y con muy pocos remordimientos de consciencia. La razón fundamental para estudiar los procesos cognitivos es tan clara como la razón para estudiar cualquier otra cosa: porque están ahí. No cabe duda de que los procesos cognitivos existen, así que difícilmente puede ser poco científico estudiarlos». Era fácil considerar a las personas como sistemas de procesamiento de información que reciben entradas del entorno (percepción), procesan esa información (pensamiento) y actúan según las decisiones que toman (conducta). La imagen general de los seres humanos como procesadores de información resultaba enormemente atractiva. La aceptación del punto de vista del procesamiento de la información en la psicología cognitiva se vio facilitada por los psicólogos que ya aceptaban la idea de procesos mediadores entre estímulos y respuestas, y a lo largo de los años cincuenta habían «inventado mecanismos hipotéticos», principalmente en forma de eslabones de unión r - e entre las conexiones E-R observables. La derrota o marginación del conductismo Durante los años sesenta y principios de los años setenta, la teoría del procesamiento de la información fue sustituyendo gradualmente a la teoría mediacional. El conductismo mediacional dejó de existir y los conductistas radicales quedaron confinados a una especie de «gueto mediático». Tema 11: Psicología cognitiva: Influencia de las nuevas tecnologías del conocimiento y de la información en su surgimiento (UVIII). T11: Tortosa Gil, F. (1998). Una historia de la psicología moderna. Cap. 22. INTRODUCCIÓN Como la psicología cognitiva actual se basa en la metáfora del ordenador, para entender su concepto y metodología se debe situar en el contexto en el cual se lo propusieron. Durante la segunda guerra mundial se crearon las primeras máquinas (ordenadores) capaces de hacer cálculos y solucionar problemas. Esto llevó a crear nuevas disciplinas, pero también a influir decisivamente en otras ya existentes, como la psicología. Antecedentes remotos: La lógica binaria de Boole El sistema binario es fundamental en los actuales ordenadores, es la base para el diseño de circuitos digitales y para muchas técnicas de programación. Antecedentes próximos: el periodo cibernético Entre los 30 y 40, un grupo de científicos de múltiples disciplinas tenían el interés común de desarrollar una máquina que puedan tratar información, y muestren alguna forma de comportamiento similar al de las personas. Esta etapa previa se conoce como periodo cibernético. Turing y la computación en máquinas. Alan Turing tuvo un papel central. En 1937 publica un artículo que formaliza la noción de computación y adapta la noción de algoritmo a la computación de funciones. Este articulo propone la “maquina Turing”, una máquina ideal o abstracta capaz de computar cualquier función calculable. Diez años más tarde, Turing propone que pueden diseñarse máquinas que tengan un comportamiento inteligente, utilizando el cerebro humano como analogía. Sugiere que circuitos electrónicos de las máquinas de computación podían imitar el sistema nervioso, pues son capaces de transmitir información de un lugar a otro y luego almacenarla. En 1950 publica otro trabajo que se pregunta si pueden pensar las máquinas, para ello propone el test de Turing que consta de los siguientes elementos: La persona que evalúa y un ente, el evaluador no sabe que es máquina, no la puede ver pero se comunica con él. Si el interrogador no puede decir con certeza si se está comunicando con una persona o con una máquina, entonces se puede decir que el ente piensa. Turing le da un giro al desarrollo de máquinas de computación gracias a sus propuestas de universalidad de diseño, énfasis en la programación, importancia de las aplicaciones no numéricas y por reclamar la posibilidad de mecanizar la inteligencia en un plano más general o filosófico, su influencia no fue menos importante: “Los planteamientos de Turing suponen un cambio revolucionario en el análisis de la inteligencia y los sistemas inteligentes. Al fundamental el isomorfismo entre la máquina y el humano, supone los cimientos de la psicología cognitiva, liberándola de los métodos especulativos e introspeccionistas. Supone la ruptura total del dualismo cartesiano, aunque sea la culminación del sueño racionalista. Sustituye la investigación ontológica por la funcional, abriendo así la posibilidad de introducir principios lógico-matemáticos y técnicos para explicar la mente. Shannon y la teoría de la información y la retroalimentación. Claude Shannon en su tesis doctorar hace una aportación importante para el desarrollo de los ordenadores: introduce la lógica binaria en el diseño de circuitos eléctricos, demostrando que la maquina podía manipular información. Dejó claro que toda información podía traducirse a un código binario y en este formato se podía manipular y almacenar información en circuitos eléctricos. Más tarde introduciría la teoría matemática de la información, donde la información es la reducción de la incertidumbre. Norbert Wiener y la cibernética Wiener y sus colaboradores se introducen en un campo de investigación nuevo sobre comunicación y control, tanto en máquinas como en animales, la cibernética. En cierto modo se produce un cambio de paradigma en las ciencias naturales, desplazando el concepto de energía, propio de la mecánica newtoniana y centrándose en el concepto de información y feedback. Tiene como concepto central la retroalimentación, y proponía que se podía analizar el pensamiento humano simulando el funcionamiento de los sistemas neuronales: un sistema biestable, tanto en la neurona como en el conmutador eléctrico. Modelos abstractos del SN: McCulloch y Fitts Estos autores norteamericanos, desarrollaron un modelo lógico matemático del comportamiento de las redes neuronales y del funcionamiento de la neurona, entendiendo que se trata de operaciones lógicas para la trasmisión o inhibición de impulsos nerviosos. La neurona es un sistema que transmite información, con una entrada y una salida, siguiendo la ley del todo o nada 1 pasa información, 0 no pasa información, y con ello es susceptible a la lógica binaria. McCorduck señala que estos autores le dieron una nueva definición de la máquina computadora que permitía interpretar el cerebro como una máquina en un sentido mucho más preciso que antes. Riviere añade que, según ellos, todas las funciones computables de la máquina de Turing podrían ser realizadas por redes neuronales, abriendo así futuras vías de investigación: 1) utilización del concepto proposición como herramienta simbólica se una mente sin soporte biológico o al menos funcionalmente independiente de él. Y 2) el sistema nervios podía entenderse a un nivel abstracto como sistema de cómputo. El primero sirvió para el desarrollo de los modelos de inteligencia artificial y la psicología cognitiva, y el segundo para los modelos conexionistas o de redes neuronales artificiales. LOS DESCUBRIMIENTOS TÉCNICOS: LOS PRIMEROS ORDENADORES Las máquinas de cálculo y los autómatas (Siglo XIX hasta los 30s) A lo largo de la historia encontramos intentos por crear máquinas de cálculo. En cuanto a máquinas complejas con algún tipo de pensamiento, fueron imaginadas por autores como Descartes y La Mettrie. Otros como Leonardo Torres Quevedo, lograron realizar artesanalmente autómatas que jugasen ajedrez. Charles Babbage sostuvo la idea de que la información se podía conservar en números para manipularla, para ello propuso el diseño de la máquina analítica (1833), que aunque nunca llegó a culminarla se considera el primer ordenador de propósto general. De él partió la idea de programa como conjunto de instrucciones que controlan las operaciones de un ordenador- Los avances de la electrónica y las necesidades derivadas de la guerra (1936-1946) Época de los primeros ordenadores y las primeras teorías lógico matemática de la computación y de la información.. La arquitectura funcional del ordenador a partir de Von Neumann (1947 – 70s) Incluye el surgimiento de la inteligencia artificial, la psicología cognitiva y el desarrollo de sucesivas generaciones de ordenadores y programas. Lo decisivo en esta generación de ordenadores fue el cambio de su arquitectura, fue clave el matemático John Von Neumann, pues supo asimilar los principales avances teóricos de la época y ser capaz de participar en el diseño de las maquinas más avanzadas. La arquitectura propuesta por él consta de tres partes: La memoria central, en la que se almacenan los programa. Un dispositivo ene le que se guardan los datos, las instrucciones y los resultados parciales y finales de la operación. El procesador (CPU), que manipula la información. Se componía de una unidad aritmética, que procesa los datos numéricos por medio de operaciones matemáticas y una unidad de control, que dirige todo el proceso interpretando los elementos binarios sde memoria por medio de los cuales se codifican tanto los datos como las instrucciones para después ejecutarlas. Los dispositivos periféricos que controlan la entrada y salida de información. Se trata pues de máquinas controladas por programas en código binario. Toma de la memoria el dato sobre el que hay que operar. Crevier dice: que el operador Von Neuman opera de acuerdo con ciclos definidos con precisión. Ejecuta la operación, toma de la memoria la siguiente instrucción, y así… Después de esta primera generación de ordenadores, es en 1959 cuando aparece la segunda generación con circuitos transistores, con menor costo y más pequeños. La tercera generación llevaba circuitos integrados. Por último, con la introducción del microprocesador en 1974 entra la cuarta generación. MOMENTOS CLAVE EN EL SURGIMIENTO DE LA PSICOLOGÍA COGNITIVA Y LA IA La utilización del ordenador para realizar tareas inteligentes Los nuevos ordenadores de la década de los 40 eran consideados cerebros gigantes, máquinas de computar. Von Neuman consideraba que la comparación cerebro- ordenador no debía hacerse en cuanto a sus soportes físicos, sino en sus aspectos funcionales: lo que hace el ordenador y lo que hace la mente puede ser algo más o menos similar. Poco a poco después de las ideas de los primeros autores sirvieron no solo para crear los primeros ordenadores, sino también como herramientas para estudiar procesos mentales. Por primera vez se disponía de una metodología rigurosa y objetiva para estudiar el intelecto humano. Fue importante el aspecto funcional de los ordenadores de manipular y computar símbolos. La posibilidad de analizar la mente como un sistema de cómputo. Haría posible rescatar el estudio respetable de la mente: los productos mentales ahora son objetos computables o resultados de algoritmos de cómputo. La mente deja de ser vista separa de la mente como una entidad no física, y pasa a ser al cerebro, como lo es un programa a un ordenador, y con ello se puede simular su procesamiento por medio de algoritmos. Centros de investigación y reuniones científicas sobre estos nuevos temas Los centros que comienzan a trabajar en estos temas: Princeton, en el instituto de Estudios Avanzados. Los Laborsatorios Lincoln, en el MIT. El Instituto Carnegie Universidad de Harvard La Rand Corporation. Se pueden mencionar dos reuniones: En 1948, el Simposio de Hixon tenía como tema el control de la conducta a través del cerebro o sistema nervioso. Las conclusiones rezumaban críticas al conductismo, era necesario estudiar conductas organizadas complejas tales como juegos, tocar instrumentos músicales, y que requieran lenguaje; para su estudio podían ser útiles el análisis matemático de las funciones neuronales o la analogía con los nuevos dispositivos de comunicación y cálculo de ingeniería, las ideas de planificación, intención, información y feedback. En 1956 la Conferencia de Dartmouth, que se considera como inicio oficial de la IA. Su objetivo fue hablar sobre el trabajo que estaban haciendo de cara a construir máquinas que se comportan inteligente El primer programa operativo de procesamiento de información. La presentación del primer programa de simulación a cargo de Newel, Saw y Simon una aportación operativa. Los avances técnicos eran necesarios para poder utilizar el ordenador para computar o procesar dígitos: almacenamiento de memoria y un lenguaje de programación de alto nivel, desde los cuales los programas pudieran trasladarse automáticamente de forma que la máquina pudiera seguir instrucciones. Estos autores son considerados como pioneros de la psicología cognitiva. Sus años de trabajo les permitieron elaborar en 1956 un nuevo lenguaje de programación, denominado IPL. Lo principal de este lenguaje es que funcionaba mediante procesamientos de listas. Aunque ya se trabajaba con lenguajes, estos autores decían que no les servirían por no poder modelizar dos características fundamentales, que según ellos, tenía la mente: 1. El pensamiento consiste en la constante creación, mutación y destrucción de estructuras simbólicas que actúan sobre otras. 2. La mente humana, la forma en que la memoria aprende o percibe, es o tiene importantes propiedades asociativas. Necesitaban pues modelizar este carácter asociativo de la mente humana: cada idea o recuerdo puede llevarnos a otros símbolos que están ligados con el primero, y estos vínculos se pueden adquirir mediante el aprendizaje. La técnica del procesamiento de listas creada por ellos, podía recoger en lenguaje informático la capacidad para asociar y modificar estructuras simbólicas: cada vez que una unidad de información se almacena en la memoria, hay que almacenar con ella información adicional que nos diga dónde podemos encontrar la siguiente unidad de información asociada. Podríamos organizar de esta forma, la memoria como una larga cadena de eslabones. La secuencialidad no está determinada físicamente, sino que viene dada por una dirección o puntero almacenado con cada elemento. Así se puede quitar o añadir un eslabón sin modificar el resto de la memoria. La introducción de la teoría matemática de la información en psicología Esto fue gracias a la formación matemática que exigía el neoconductismo, psicólogos influyentes en estas nuevas teorías fueron George Miller y Jerome Bruner. Conceptos como transmisión de información, cantidad de información, redundancia, capacidad del canal, codificación, etc, fueron introducidos. En la década de los 70 la psicología experimental pasa a denominarse psicología cognitiva su precursora es la teoría de la información, la expresión procesamiento de información viene de esta teoría y la encontramos por primera vez en Newell y Simon. La psicología cognitiva se deriva en dos enfoques: la versión débil, que solo utiliza la teorías y conceptos de analogía mente-ordenador y sigue utilizando métodos de la psicología experimental; y la versión fuerte que deriva de Newel y simon, que se concentrará en la ciencia cognitiva y aplicará métodos de programación de ordenador para simular en ellos determinados procesos mentales. Clase 11 Tema 11: Psicología cognitiva: Desarrollo y consolidación (UVIII) T11: Tortosa Gil, F. (1998). Una historia de la psicología moderna. Cap. 26. INTROUCCIÓN Se denominan cognitivos por el rechazo de los conductistas a la mente, si no hubiese existido el conductismo no hubiera hecho falta añadirle lo cognitivo a la psicología. Riviere dice: “La psicología cognitiva pretende ser una ciencia objetiva de la mente, a la que concibe como sistema de conocimiento”. Es aquella que se apoya en la metáfora mente-ordenador. Utiliza los conceptos y los procesos relacionados con los ordenadores para comprender la mente humana. EL CONTEXTO EN LOS INICIOS DE LA PSICOLOGÍA COGNITIVA La crisis del conductismo le dio la oportunidad, los avances teóricos y tecnológicos relativos a los ordenadores pusieron los medios; la cortada ideológica le dieron los cambios a la filosofía de la mente; y el móvil puede ser la recuperación de lo mental. De la crisis del conductismo podemos destacar: a) Su incapacidad teórica para dar cuenta de las conductas humanas complejas. Los principios de asociacionismo, periferialismo, dependencia de la respuesta respecto al estímulo etc., no permiten explicar conductas de alto grado de complejidad, rapidez y creatividad. En esta línea, Lashley hace una crítica en Hixon, poniendo en evidencia que conductas como tocar instrumentos musicales no pueden explicarse en base a estímulo- respuesta, sino que requieren un plan precio y coordinado del sistema nervioso central. b) El ambientalismo extremo, que conduce a la concepción del organismo como tabula rasa y al olvido de las diferencias entre especies Una lectura parcial e inadecuada del evolucionismo les llevó a buscar leyes aplicables para todas las especies. Cada especie tiene un bagaje hereditario que va a determinar los límites y posibilidades de su aprendizaje. Los medios para formular una psicología cognitiva fueron en su mayor parte los desarrollos científicos y tecnológicos: Boole sentó las bases con su lógica binaria, basada en verdadero y falso; Turing se apoyó en esa lógica para proponer una máquina ideal capaz de realizar cualquier operación que pudiera especificarse en pasos bien definidos, un émulo mecánico de la razón universal cartesiana; Otros autores exploraron el paralelismo entre la lógica de Boole y el estado de los circuitos eléctricos (Shannon, 1938) y de la neuronas (McCulloch y Pitts, 1943), creando así modelos idealizados del sistema nervioso que realizarían computaciones. Gracias a estos avances científicos se formularon unas ideas que son señas de identidad de la psicología cognitiva: que la mente es un sistema de cómputo y que precisamente por eso cabe establecer un paralelismo, una metáfora mente-ordenador. “Entendemos por computación” el realizar operaciones sobre símbolos en base a una serie de reglas. El programa de ordenador y la mente humana tienen en común el ser capaces de transformar símbolos a reglas (computaciones). Los ordenadores ayudan a comprender el funcionamiento de la mente: a) Nos proporciona un lenguaje con el que expresar metafóricamente la realidad mental, b) Nos permite simular artificialmente el funcionamiento mental La recuperación de la mente no quiere decir devolverse al viejo mentalismo. Para la psicología pre conductista mente equivale a conciencia, por lo que se puede estudiar bajo la introspección. Para la psicología postconductista la mente es un sistema de cómputo, cuyas operaciones son habitualmente inaccesibles a la conciencia del sujeto, por lo que es estudiada desde afuera, por inferencias a partir de la conducta observable. Antes de la psicología cognitiva habían dos vías para conceptualizar la mente: o se acentuaba su independencia respecto al mundo físico y sus leyes, o se la reducía a lo físico. La psicología cognitiva supondrá una tercera vía porque lo mental es considerado como un nivel de análisis independiente, no reducido a lo físico; pero los procesos mentales pueden ser simulados mecánicamente. Con esto se alcanza la culminación el proyecto mecanicista, por la conquista de la mente humana. Putnam, plantea el funcionalismo: la relación entre mente y cerebro es comparable a la que existe entre programa y ordenador. Y el surgimiento de esta nueva doctrina cognitiva, concuerda con el surgimiento del postpositivismo en la filosofía de la ciencia. La psicología cognitiva supondrá una tercera vía porque: a) lo mental es considero como un nivel de análisis independiente, no reductible a lo físico; pero b) los procesos mentales pueden ser simulados mecánicamente. Podemos decir que esta psicología culmina con el proyecto mecanicista dela revolución científica, conquistando la mente humana. Pero este mecanicismo ya no será material, sino un mecanicismo abstracto (símbolos, reglas, cómputos). Con la mente mecanizada la psicología podía entrar en el mismo marco conceptual que el resto de las ciencias duras: Estes y Newelll nos dicen que la hipótesis que vincula la inteligencia artificial con la cognición humana es que toda inteligencia surge de la habilidad de manejar símbolos. Al vincular las ideas de símbolos y sistemas de símbolos al mundo físico mediante su realización en computadoras, esta hipótesis une el estudio de todos los procesos superiores de la mente al mundo científico del resto de las ciencias naturales. Cambios en la epistemología y la filosofía de la mente que corren paralelos a los cambios psicológicos. Putnam llega a plantear una posición que será conocida como funcionalismo: la relación entre mente y cerebro es comparable a la que existe entre el programa de instrucciones y el ordenador. Mientras algunos autores defienden una interpretación literal de esta realidad, otros la niegan. Al mismo tiempo que decae el conductismo, se debilita el positivismo, surgiendo el postpositivismo (Kuhn, Lakatos, Feyerabent, etc…) La idea positivista de que la ciencia se construye a partir de datos objetivos e indiscutibles queda desacreditada; para la filosofía postpositivista, no existen datos neutros, porque la propia teoría condiciona desde el principio la forma de ver el mundo. Esta crisis fue derivando hacia posiciones más racionalistas, se otorga menos importancia a la inducción y más a la deducción. La psicología cognitiva se ve estimulada por esta versión más flexible de la ciencia para reafirmar su dominación teórica. Además hay un claro paralelismo: El sujeto del conductismo depende de estímulos externos, al igual que el sujeto del positivismo depende de datos observacionales. El sujeto del cognitivismo capta y elabora información en base a sus propias estructuras internas, mientras el científico postpositivista mira la realidad desde su marco teórico previo. EL LENTO DESARROLLO INICIAL La década de los cincuenta En los cincuenta hubo una marcada actividad en la psicología matemática, la gente buscaba metáforas y formalismos con los que describir y explicar la conducta y la mente humana. La teoría matemática de la comunicación de Shannon y Weaver ejerció mucha influencia. Aún no hay una elaboración disciplinar conjunta, ni siquiera un uso del término de psicología cognitiva. Los primeros trabajos con la etiqueta de cognitiva fueron muy variados: aprendizaje animal, percepción del color, test de inteligencia, capacidad musical, etc., casi todos giraban en torno a temas de pensamiento y razonamiento, aunque también se encontraban los trabajos de psicología social como el de la disonancia cognitiva de Festinger. Es los años sesenta dos grandes enfoques mayoritarios de la psicología cognitiva basada en lo computacional: la versión débil, consistente en introducir la terminología y conceptos de la anlaogí con el ordenador, y la versión fuerte, también llamada enfoque de cómputos sobre representaciones (C-R), que según Riviere, es consistente en asumir con todas las consecuencias teóricas y metodológicas que ya ofrecían las ciencias de computación dentro de la teorización y métodos de investigación sobre la actividad mental. La tendencia metafórica (la débil) ha sido la que primeramente más se extendió en la psicología experimental por varios motivos: El escaso nivel técnico en la primera época. La fuerza de la tradición neoconductista y de los métodos de la psicología experimental en humanos. Se estudia así el aprendizaje verbal, la percepción visual, la atención, el recuerdo, la resolución de problemas, etc., con técnicas y métodos ya conocidos pero aplicando modelos teóricos provenientes de los nuevos ámbitos de la teoría de la información y la comunicación. La introducción de la teoría de la información en la psicología experimental. El primer grupo empezó a salirse de la órbita cerrada neoconductistas a raíz de dos influencias: 1) las lecturas sobre la teoría de la información de Shannon y otros, y 2) la observación en las nacientes tecnologías de los ordeñadores y las IA. Miller fue el primero y principal responsable de la introducción de esta teoría, por sus trabajos en 1949 y 1951, donde introducen medidas de información para describir la conducta de las ratas en un experimento de condicionamiento operante. También en 1951 Garner y Hake utilizan medidas de información para determinar el número de categorías que pueden tomarse sin error en una tarjeta de juicios absolutos. En estos años aparecen los primeros artículos de investigación experimental que incorporan esta teoría, y también se celebran simposios al respecto (Harvard 1951 y MIT 1954) Por otra parte, Hick en 1952 demostró que el tiempo de reacción está íntimamente relacionados con el logaritmo del número de estímulos alternativos, lo cual es la medida de la cantidad de información: la ley de Hick dice que el tiempo de reacción es función de la cantidad de información. Otras áreas de investigación fueron en lenguaje, percepción de patrones, aprendizaje de conceptos o destrezas motoras. Así tenemos avances con la introducción de la teoría de la información en la psicología experimental y otros enfoques como la psicología matemática, psicofísica, inteligencia artificial y ordenadores o psicolingüística. USA: El año mágico en 1956 Algunos autores lo consideran el año del nacimiento de la psicología cognitiva. Este año se realizó el simposio del MIT, donde se dieron a conocer muchos trabajos, y oras novedades: a) Miller en su trabajo sobre “el mágico número 72” demostró como habían ciertas limitaciones en la capacidad de procesar información 7+- 2 Chunks. Todo esto condujo a al interés por estudiar estructuras y propiedades del procesamiento de la información. Otro hito fue el libro A study of thinking. De Bruner, Goodnow y Austin, en el que se analizaban la formación de conceptos y la categorización una perspectiva más activa que la de Hull, pues consideraba las respuestas del sujeto no meramente en función de los estímulos, sino que los sujetos elaboran estrategias para resolver el problema. b) En el ámbito de las ciencias de los ordenadores surge la primera aportación de tipo computacional al estudio de la mente con técnicas de simulación El trabajo de resolución de problemas de Newell, Shaw y Simon. Donde presentaron su “Teórico lógico”, un programa de ordenador capaz de hacer demostraciones de teoremas matemáticos. Pretendían simular el comportamiento inteligente humano, no solo en resultados, sino en la forma como opera. c) En la lingüística, en concreto Chomsky, defienden la necesaria participación de los procesos mentales en las actividades lingüísticas. Chomsky presentó su lingüística transformacional. Su teoría se centraba en la sintaxis del lenguaje. La concepción del lenguaje como un conjunto de reglas que operan sobre representaciones, la consideración de la sintaxis con dependencia de contenido, la búsqueda de un sistema formal, son rasgos cognitivos en Chomsky. Criticó el trabajo de Skinner, Conducta verbal, ya que según él, el lenguaje no podía ser explicado en términos conductistas, puesto que ignoraban las tres principales características del lenguaje: su carácter reglado, sistemático y productivo. Desde el trabajo de Chomsky queda claro que El lenguaje posee una organización y estructura interna gobernada por reglas abstractas. En Gran Bretaña: el inicio de los modelos etápicos del procesamiento de la información Los investigadores experimentales de la década de los 50 estaban influenciados por la segunda guerra, en especial por los problemas de atención ligados a la vigilancia, la comunicación y la comprensión de códigos, detección de señales por radar, etc. Cherry (1953) investigó cómo los individos atiendedn a mensajes en condiciones dificultosas, utilizando al esucha dicótica los resultados se relacionaban con la limitación del sistema plantada por Miller. Broadbent (discípulo de Barlett) incluso participó como piloto de la Air Force. En 1958 publicó Preception and Communication, que se adaptaba bastante bien a la tradición empirista inglesa, puesto que: 1) la información llega por los sentidos, 2) luego asume una capacidad limitada para la reelección y almacenamiento, y 3) no es una limitación estática sino que varía con la práctica. Lo más importante fue un modelo integrador que presentó en el último capítulo, como intento por explicar el procesamiento de información mediante etapas. Broadbent fue el primer psicólogo que incorporó diagramas de flujo para representar estas etapas. Estableció en su modelo la existencia de almacenes de memoria a corto y largo plazo, de un canal de procesamiento de capacidad limitada y de un filtro que limitaba la información que accedería a este canal. Su influencia fue notable en el ámbito de memoria, y sobre los procesos atencionales su influencia se dejó notar más tarde debido a dos ideas importantes: 1. Caracterizar el procesamiento según distintos valores en la dimensión automatismo-control, y 2. Coincidiendo con Miller, el sistema de procesamiento de información es el de capacidad limitada, jugando la atención un papel fundamental en la distribución de los recursos. La década de los sesenta Los primeros desarrollos institucionales de la psicología cognitiva En esta década se consolida el paradigma clásico de la psicología cognitiva, pero habrá que esperar a finales de esta década para que se extienda su desarrollo disciplinar. Una institución pionera fue el Centro de Estudios Cognitivos en Harvard, fundado por George Miller y Jerome Bruner. Incluso Robert Oppenheimer tenía la opinión de que la psicología podía ayudar en problemas de la física y la historial. En el centro hubo conferencias de von Neumann, Shannon, Wiener o Chomsky y se formaron investigadores como Sperling y Neisser El tema psicológico central era el lenguaje, pero también se trabajaban otros como la memoria, percepción, formación de conceptos, pensamiento, psicología evolutiva, teoría de la decisión, etc. La conducta propositiva a través de la cibernética: Miller, Galanter y Pribram. Estos tres psicólogos introducen en su obra de 1960 Plans and the structure of behavior, otras innovaciones de la ciencia de la computación, como los procesos de autorregulación y feedback. El matemático Wiener pasó a interesarse los procesos de autorregulación y feedback, creando la Cibernética: “la teoría del control y la comunicación, ya se trate de la máquina o del animal”. Wiener y sus colegas expresaron sus puntos de vista en un trabajo de 1943, “Conducta, propósito y teleología”, en el que afirmaron que si una máquina está dotada de retroalimentación, se puede decir legítimamente que persigue metas y está dotada de propósitos esto hace posible una explicación objetiva de la conducta propositiva y dirigida a metas en seres humano (Porque hay una máquina capaz de hacerlo). Esta posibilidad fue recogida en una unidad de conducta tipo cibernético: la unidad TOTE, una secuencia de operaciones, denominada por sus siglas inglesas Test-Operate-Test-Exit El organismo evalúa la situación con referencia a una meta que quiere conseguir, después interviene para acercarse al objetivo, evalúa de nuevo la situación y si alcanza el objetivo interrumpe la conducta, en caso contario opera de nuevo. (El termostato de una casa sigue una secuencia TOTE). Distintas unidades TOTE podrían enlazarse entre sí, formando parte de un plan más amplio. Aunque los autores de esta obra no se consideren como cognitivos sino como “conductistas subjetivos”, como señala De Vega esta obra constituyó un auténtico manifiesto fundacional de la nueva psicología , pues elaboraba ampliamente la analogía mente-ordenador e introducía ya sin ambages terminología claramente mentalista, como imagen mental, planes, estrategias, etc. Los modelos etápicos del procesamiento de la información en las investigaciones sobre la memoria en los años sesenta. Se desplaza al tema del aprendizaje, puesto en una posición central por el conductismo, con la introducción de conceptos de procesamiento de información en el tema de memoria y esté será precisamente el tema clave del enfoque cognitivo. Antes el tema de la memoria estaba ligado al del aprendizaje verbal y ambos se regían por principios asociacionistas, siguiendo la tradición de Ebbinghaus. Se buscaba salir de este esquema asociacionista neoconductista, para remplazarlo por el procesamiento de la información. Para ello en la propia tradición experimental del aprendizaje verbal comienzan a surgir novedades metodológicas tales como la reintroducción de la técnica de recuerdo libre a partir de los trabajos de Bartlett (free recall) y los más recientes de Bousfield. Por otro lado el trabajo de Broadbent acaba de introducir casi implícitamente a la psicología experimental la metáfora del ordenador en los términos clásicos de entender la actividad mental como procesamiento de la información a través de distintas etapas configuradas por diferentes tipos e memoria. Eysenck y Keane dicen que la cognición consistía en seis secuenciales de etapas de procesamiento, de tal modo que: Al presentar el estímulo, Ocurre o se activan posesos perceptivos, Le siguen procesos atencionales, Que transfieren parte de sus productos al almacén de memoria a corto plazo, y Después el repaso sirve para transferir parte de esa información a la memoria a largo plazo. En el trabajo de Peterson y Peterson se evidencia la importancia de los procesos de repaso y selección atencional en la memoria a corto plazo, pues demostraron que la interpolación de una tarea que impedía al sujeto el repaso de un material era suficiente para que una simple secuencia de tres ítems se olvidara a los veinte segundos. Sperling demuestra la existencia de una memoria sensorial (o memoria icónica para los visuales y ecoica para los auditivos), que significa que la información no desaparece instantáneamente con la desaparición del estímulo, si no que se va degradando progresivamente (medio segundo aprox.) Esta idea de las etapas de procesamiento equiparables a tipos sucesivos de almacenes o memorias, tras varias investigaciones parciales, tiene su culminación en el modelo etápico de la memoria de Atkinson y Shiffrin (1968). Siguiendo la analogía blnada o débil del ordenador, introduce tres novedades: 1. Los conceptos de procesos de control y el de limitaciones estructurales de los almacenes sensoriales. 2. Propone dividir el sistema de memoria en tres componentes básicos: registro sensorial, almacén a corto plazo y almacén a largo plazo 3. Distingue entre estructuras y procesos de control en cada estructura. Con este modelo, la idea de procesamiento de la información se convierte en central dentro de la psicología cognitiva, un proceso secuencial, que padece de limitaciones de capacidad y que nos dibuja un ser humano que, al igual que un ordenador, es recipiente que recoge información y maneja una cierta cantidad de ella en un lapso determinado. o Neisser y el bautismo de la psicología cognitiva en 1967 Miller dijó que al usar la palabra cognición estábamos colocándonos fuera del conductismo. Buscábamos algo mental, pero “psicología mental” parecía muy redundante. El primer manual de psicología con el título de psicología cognitiva aparece en 1967 escrito por Ulric Neisser (Discípulo de Miller). Este libro contribuyó a darle una identidad a la disciplina, añ apostar por el concepto de información aplicado a la actividad mental Los primeros modelos computacionales de la actividad mental. La brecha abierta por Newel y Simon en 1956, referente a la simulación de procesos mentales en el ordenador, va señalando el camino a la aplicación “dura” de la metáfora computacional en el estudio de la mente. Esta tarea no fue llevada por psicólogos, si no por físicos, matemáticos e ingenieros. Newel y Simon siguieron esta línea tanto en programas concretos de simulación de tareas de resolución de problemas, como con conceptualizaciones teóricas sobre el procesamiento de información. A diferencia de los modelos neuronales, estos autores siguieron une squema más macroscópico para realizar programas informáticos que simularan mecanismos computacionales simbólicos del uso general para la resolución de problemas. Este proyecto de mecanismos generales demostró su ineficacia y fue sustituido por otros programas como los basados en sistemas expertos o los de representación de red Semántica. También fracasaron los modelos de redes neuronales. La demoledora crítica de Minsky y Papert en 1968 provocó el abandono de esta línea hasta los años ochenta. LA DÉCADA DE LOS SETENTA: CONSOLIDACIÓN DISCIPLINAR Y PRIMERAS CRISIS INTERNAS Primeros intentos de sistematización disciplinar de la psicología cognitiva. Una típica definición de la disciplina que se genera en este periodo es la de Lachman: esta ciencia estudia el modo en que las personas captan información, la recodifican y recuerdan, toman decisiones, transforman sus estados cognitivos internos y los traducen al exterior en conductas. Aunque el objetivo último es el estudio de los procesos mentales internos, el método para estudiarlos es a partir de las conductas observables de los sujetos y haciendo inferencias desde ellas, lo cual ha sido una herencia del conductismo. A partir de Lachman también se pueden sintetizar los principales supuestos: o Presupuesto mentalista: La actividad humana no puede ser entendida ni explicada científicamente sin utilizar constructos internos mentales. De ahí que las personas se conciben como seres autónomos e intencionales que interactúan con el mundo externo. o Presupuesto computacional: La actividad mental consiste en un sistema de procesamiento simbólico de propósito general, computa símbolos del mismo modo en que lo hacen los ordenadores sea de modo idéntico (fuerte), o de modo análogo (débil.) Los símbolos son activados por varios procesos que los manipulan y transforman en otros símbolos que finalmente se relaciona con las cosas del mundo externo. El propósito de la investigación psicológica es especificar los procesos y representaciones simbólicas que subyacen a la ejecución en todas las tareas cognitivas. o Presupuesto restrictivo: El procesamiento de la información presenta diversas constricciones internas en el ser humano: los procesos cognitivos tienen una duración determinada, la mente es un procesador de capacidad limitada. o Presupuesto funcionalista: El sistema simbólico depende de un sustrato neurológico, pero no está totalmente constreñido por él, ni puede explicarse en el nivel de análisis neurológico. En contraposición al dualismo cartesiano mente-cuerpo, la mente ya no es la res cogitans, sino más bien un nivel de análisis funcional de una parte de la res extensa, de una parte del cuerpo que no es otra que el cerebro; la mente es pues, un nivel de descripción distinto del físico: no se puede identificar con el cerebro, sino con el resultado de su organización funcional. El llamado dualismo funcionalista de la psicología cognitiva, implica que la mente es al cerebro como el software al ordenador. El supuesto mentalista diferencia a la psicología cognitiva del conductismo, que intentó reducir lo mental a conductas descriptibles en términos físicos; el supuesto computacional la distingue de las psicologías mentalistas anteriores al conductismo y que se ocuparon de la mente mediante la introspección. Entender la mente como un sistema de cómputo que opera con símbolos o representaciones implica un mecanismo abstracto y formal. La psicología cognitiva extendía el mecanicismo al dominio de la mente humana; pero no uno basado en la materia y la energía, sino en símbolos y las reglas para operar con ellos. Se trata de un mecanicismo abstracto. Hablamos también de mecanicismo formal porque las explicaciones de los procesos cognitivos atienden a su forma y no a su contenido. Las teorías cognitivas se ocupan preferentemente de las reglas, de las sintaxis del funcionamiento mental y no de su contenido concreto. De ahí la poca cabida que han tenido en la psicología cognitiva los aspectos afectivos, emocionales, sociales o culturales que podrían ir más ligados al contenido de nuestra experiencia mental y afectar su funcionamiento. En general ha abstraído al sujeto de sus condiciones sociales y biológicas, y esto será criticado con crudeza. La teoría del procesamiento de la información adopta una versión “débil” de la metáfora mente-ordenador: esto significa que defienden el uso del ordenador como modelo útil para la teorización y para la simulación de procesos, y toman muchos términos de la tecnología de los ordenadores; pero no se asumen literalmente a la identidad de máquina. Se trabaja con situaciones experimentales e instrumentos que tienen ya una tradición en psicología (como tiempo de reacción) y se pone el acento en los procedimientos de obtención de datos y contrastación con la teoría. Por los procesos psicológicos en estudio, pero si diagramas de flujo para expresar las etapas principales del procesamiento. Primeros intentos de reconstruir el pasado de la psicología cognitiva Utilizando la terminología de Kuhn, se plantean como un nuevo paradigma, que ha venido a desbancar al conductista como una revolución científica. Estos conceptos se utilizan para justificar la ventaja de la propia posición teórica del mismo modo que el manifiesto de Watson. Sin embargo, recogiendo lo análisis de Caparros y Gabucio, y Leahey, habría que considerar que no es una revolución científica, porque: o Según Kuhn, un nuevo paradigma tenía que empezar por resolver las anomalías que hicieron fracasar al anterior; el cognitivismo, sin embargo, se ha desarrollado paralelamente a la crisis del conductismo, sin que hubiera mucha relación entre ambos. o El conductismo no ha desaparecido enteramente: sigue vivo en algunos sectores académicos y en amplios sectores profesionales. o Hay algunos supuestos básicos de carácter teórico y metodológico que comparten ambas corrientes. Debido a la constante crítica del cognitivismo hacia el conductismo, se ha desviado la atención de las cosas que tienen en común. El cognitivismo se considera a sí mismo como heredero de las escuelas de psicología pasadas que fueron dejadas en segundo plano por la doctrina conductista. La escuela de Wuzburgo es reconocida por sus estudios sobre el pensamiento, en los que se interesa por los aspectos procesuales de éste, y no por el contenido. También se valoran las contribuciones de la Gestalt al terreno d ela solución de problemas en especial la aportación de Karl Duncker. Otro autor es F. Barlet por su teoría de los esquemas, conforme a la cual recordamos las cosas porque las reconstruimos integrándolas en esquemas que provienen de nuestra experiencia pasada. Son considerados también antecedentes Helmhotz: que en su teoría de interferencia inconsciente plantea que procesamos información de manera inconsciente, plantea que procesamos información de manera inconsciente, puesto que lo que percibimos es un resultado no sólo del estímulo, sino de nuestro conocimiento anterior también. Se han destacado también las teorías de Piaget y Vygotski: ambos elaboraron teorías sobre la mente en las que el sujeto no reacciona pasivamente a estímulos, sino que adquiere conocimiento mediante su propia actividad. Sin embargo, a la influencia de estos autores se ha limitado a la psicología evolutiva, teniendo poco eco en la psicología cognitiva de corte experimental. Algo similar ocurre con Tolman, al que frecuentemente se le caracteriza como cognitivista, pero que apenas tiene puntos de contacto con la psicología cognitiva de hoy. Las primeras críticas internas a los modelos y métodos cognitivos Pronto aparecieron críticas de diversos aspectos del modelo de Atkinson y Shiffrin. Eysenck y Keane dicen que este enfoque del procesamiento de como secuencia de etapas es un “esquema coherente para escritores de manuales” e incluso es posible que algunos estímulos simples se procesen así, pero no en tareas más complejas, y además presenta simplificaciones equivocadas, tales como suponer erróneamente que los estímulos inciden en un organismo inactivo y no preparado, cuando la realidad es que la experiencia pasada o las expectativas juegan un papel crucial. Allport llegó a sugerir que no hay tal procesamiento secuencial, sino más bien una entrada de información por diversos canales paralelos. Shiffrin y Schneider propusieron que las limitaciones de capacidad de procesamiento podían ser debidas, no a limitaciones estructurales del sistema de procesamiento humano, sino a dinámica funcional del mismo, es decir, a la mayor o menor automaticidad que se puede lograr en ejecución de ciertos procesos mentales. Craik y Lockhart propusieron un modelo alternativo en el cual lo importante son los niveles de procesamiento, en mayor o en menor profundidad, que requiere el material que se tiene que recordar. Baddeley y colaboradores demostraron la preponderancia en el procesamiento de la anteriormente denominada memoria a corto plazo y ahora rebautizada como memoria de trabajo. Otro aspecto que se critica, y que está en relación con los anteriores es la escaza validez ecológica de las teorías debido a que su contrastación empírica se realiza generalmente en ambientes artificiales de laboratorio. Una alternativa es la teoría de la información de Gibson en la que se pretende estudiar la manera en la que los seres humanos ven el mundo que los rodea al desplazarse por él e interactuar con los objetos. La nueva importancia de la representación del conocimiento de la memoria La insuficiencia de los modelos etápico que se han dedicado a una investigación sintáctica, lleva a los investigadores a retomar los aspectos semánticos. La actividad mental no consiste solo en procesar estímulos, sino en entenderlos y dotarlos de significado. Por lo tanto, las teorías no es suficiente quedarse en la sintaxis del pensamiento, hay que prestar atención también al contenido del mismo. Se puede observar en las investigaciones de Bransford sobre los efectos del conocimiento del conocimiento previo en la comprensión o en la recuperación del concepto de esquema a partir de Rumelhart, o más en los procesos de contenidos a partir de los niveles de procesamiento en Craik y Lockhart. Esta preocupación por el significado lleva también a un estudio más sistemático de la memoria a largo plazo, su estructura, organización y función en el procesamiento. Así aparece la teoría de Tulving sobre los tipos y funciones de la memoria a largo plazo. En los formatos de representación del conocimiento son cruciales las investigaciones de Quillian y su grupo sobre la memoria semántica en términos de redes proposicionales de conocimiento como nivel de análisis diferenciado y más amplio que el de la memoria, permitiendo tratar temas de pensamiento y lenguaje. Además tiene una amplia repercusión en todos los sectores de la psicología cognitiva e incluso en la inteligencia artificial: En la psicología cognitiva experimental, se comienzan a realizar estudios que utilizan materiales estimulantes complejos (textos, narraciones, imágenes complejas) y se producen modelos interesantes sobre comprensión del lenguaje. También hay que incluir los estudios sobre representación analógica o por imágenes. En el ámbito de la psicología cognitiva más computacional (basada en simulación) apareen diversas arquitecturas computacionales de representación simbólica, como el modelo asociativo de la memoria de Anderson. También se adapta al contexto computacional el concepto de esquema. AÑOS OCHENTA: LA EVOLUCIÓN DE LA PSICOLOGÍA COGNITIVA Y LA APARICIÓN DEL CONEXIONISMO En estos años encontramos varias tendencias: Por un lado la consolidación del enfoque computacional fuerte ciencia cognitiva. Por otra parte, en la psicología experimental se introducen nuevas influencias, como las euro ciencias. La segregación disciplinar de la ciencia cognitiva Aunque los modelos computacionales aparecieran desde 1956, la consolidación institucional y la sistematización disciplinar viene a ocurrir a finales de los 70s y principio de los 80s. A partir de aquí comienzan a diferenciarse la ciencia cognitiva y la psicología cognitiva. Los científicos cognitivos siguen fielmente la metáfora computacional y su objetivo es la construcción de modelos unificados o arquitecturas de la cognición mediante herramien5as informáticas, asumen que la construcción de sistemas formales es lo mejor para el estudio de la mente. A partir de entonces comienzan a diferenciarse la psicología cognitiva y la ciencia cognitiva. En la primera se encuentran los psicólogos cognitivos experimentales, que se dedican al estudio de los procesos cognitivos y utilizan una metodología experimental en laboratorios. En la segunda se estudian los sistemas inteligentes, entendiendo con Simon, que la inteligencia es mente implementada con cualquier tipo de materia diseñable. Según Bajo y Cañas hay tres supuestos propios de la ciencia cognitiva: o Los sistemas cognitivos son sistemas de símbolos o Los sistemas cognitivos básicos comparten un conjunto de procesos manipuladores de símbolos. o Una teoría de la cognición se puede implementar en un programa de ordenador con un formalismo simbólico adecuado. Para Gardner, la ciencia cognitiva posee cinco rasgos principales: 1. La consideración de las representaciones como un nivel de análisis independiente. 2. La computación y la metáfora del ordenador. (tomada literalmente en serio) 3. Desinterés por los afectos el contexto y la historia. La metáfora del ordenador implica dejar de lado los aspectos que no encajan en ella. Se trata de conocer, además, los procesos mentales en general sin atender a su realización en una cultura. 4. Interdisciplinariedad. Las disciplinas básicas serían: la inteligencia artificial, la psicología, al antropología, la filosofía, la lingüística y la neurociencia. 5. Raíces filosóficas epistemológicas. Un modo científico de abordar la pregunta ¿cómo conocemos la realidad? Que se remonta a Platón y a Descartes. Además, la pretensión racionalista de Descartes y Leibnz, en la búsqueda de un lenguaje formalizado y completo que expresase el razonamiento humano. El ordenador sirve de soporte para poner a funcionar un modelo explicito; ya que para su plasmación en un lenguaje de programación es preciso especificar todos y cada uno de los detalles del procesamiento. Esto trae dos ventajas: por un lado permiten conocer con máximo grado de detalle todos los aspectos de su implementación, y por el otro, las predicciones que se derivan de ellos vienen evidenciadas en su propio funcionamiento de simulaciones. Crisis y alternativas a las arquitecturas cognitivas simbólicas: arquitecturas modulares y conexionistas El enfoque computacional clásico comenzaba a presentar limitacione: La dificultad para simular tareas comunes y las dificultades de los modelos C-R para dar cuenta del fenómeno de la plasticidad cerebral De este modo, comienzan a surgir propuestas de arquitecturas alternativas. Las más significativas son arquitectura modular y la conexionista. La primera sigue siendo simbólica mientras que la segunda es de naturaleza subsimbólica y distribuida, cambia la metáfora del ordenador por la del cerebro o red neuronal, se presentó incluso como un paradigma alternativo y sigue siendo un importante revulsivo en la psicología y ciencia cognitiva. Arquitectura modular Según Mateos, fue la propuesta modular principalmente por Fodor y por Chomsky, Marr y Morton, y afirma que a diferencia del modelo clásico, en el que todos los procesos y estructuras cognitivas son horizontales (es decir, interactúan al procesar cualquier tarea) la mente no forma un todo unitario, sino compartimientos estancos o mecanismos verticales especializados para determinadas funciones. La arquitectura conexionista Sus antecedentes se encuentran en los modelos de redes neuronales de McCulloch Y Pitts o Hebb. También se encuentran antecedentes inmediatos a finales de los 70s y principios de los 80s: Redes neuronales del procesamiento visual, investigaciones matemáticas de detección de rasgos y clasificación en redes adaptativas o el desarrollo de un modelo de red de activación interactiva de procesos de lectura. El primer modelo conexionista fue el de “procesamiento distribuido en paralelo” de James L. MacClelland, David Rumelhart y su grupo. La estructura clásica de este tipo de modelos consiste en un conjunto de elementos o unidades de procesamiento que mantienen conexiones con el resto de elementos. Las conexiones son utilizadas para la transmisión de información entre unidades, transmisión que viene moduladas por unas ponderaciones asociadas a cada conexión. Estos modelos disponen de dos fuentes diferenciadas de conocimiento: Representacional, que viene determinado por la actividad de las unidades de la red, y el relacional, que está representado por el conjunto de ponderaciones asociadas a las conexiones entre unidades. El paso de la metáfora del ordenador a la metáfora del cerebro implica algunos cambios básicos en la concepción de procesamiento de la información a) Por un lado, se produce un cambio en el tipo de símbolos representacionales que manejan los sistemas de procesamientos de la información que va de las representaciones locales, características del paradigma cognitivo computacional simbólico, a las representaciones distribuidas. b) Por otro lado, en las redes conexionistas el procesamiento de la información se efectúa en paralelo. Desaparece la necesidad de un sistema de control central que organice las superaciones y el flujo de la información dentro del sistema presente de forma más o menos explícita en todos los modelos cognitivos. c) Adicionalmente, estos modelos suelen incluir una explicación del proceso de adquisición o aprendizaje de la conducta que pretenden modelar. Este modelo se ha planteado como un cambio de paradigma. El ordenador ya no es un modelo de la mente, sino un medio para construir o implementar modelos de ella. Poseen la característica esencial de la plausibilidad neuronal. Sin embargo, los modelos conexionistas mantienen el supuesto central de la psicología cognitiva en tanto proponen mecanismos que realizan computaciones sobre representaciones para tratar de explicar la conducta. El choque fundamental se produce con el enfoque dominante: el del procesamiento de la información. Dentro de la psicología cognitiva se ha producido un relevo en el que la teoría dominante ha sido sustituida por otra: el (neo) conexionismo. Diversificación básica y aplicada de la psicología cognitiva experimental. El predominio del enfoque cognitivo es prácticamente total desde los años ochenta. Una influencia importante se observa también en la neurociencia, hasta el punto de que algunos psicólogos cognitivos tales como Eysenck no dudan en considerar a la neuropsicología como el tercer paradigma de la psicología cognitiva (junto con la ciencia cognitiva y la psicología cognitiva experimental). Críticas globales a la psicología del procesamiento de la información. Si lo que se quiere es estudiar la mente humana, no basta con el estudio aislado de procesos computacionales del procesamiento de la información. Críticas más importantes: o Temas difíciles de tratar dentro del marco clásico del procesamiento de la información: el problema de la conciencia, la intencionalidad y los propósitos. o La influencia de los factores sociales y culturales, retomando si a Vygotski o El concepto de información: como elaboración del conocimiento. o La relación representación/computación, representación de contenidos en situaciones cotidianas. o Las insuficiencias del asociacionismo computacional y necesidad de postular modelos constructivistas, sobre todo en ciertos procesos tales como el aprendizaje. Algunas críticas cuestionan sus fundamentos básicos y proponen una alternativa global. Still y Costall, introduciendo una serie de trabajos sobre el tema, la caracterizan tres rasgos: antidualismo (frente a la separación cognitivista mente y materia), mutualismo (frente a la dicotomía entre organismo y ambiente) y rechazo a la abstracción que acaba por cobrar existencia independiente del mundo real (como ha hecho la psicología cognitiva al reducir la actividad humana a reglas mecánicas) FUNDAMENTOS DEL COGNITIVISMO Alan Turing (1950)- Maquinaria computacional e Inteligencia 1. El juego de la imitación ¿Pueden pensar las máquinas? Es difícil responder a la pregunta si se utiliza el significado común de las palabras máquina y pensar. Turing propone cambiare esta pregunta por otra. El nuevo problema sea el juego de la imitación. Se juega con tres personas, un hombre, una mujer y un interrogador de cualquier sexo. El objetivo del interrogador es averiguar cuál participante es hombre y cual es mujer. Las respuestas deben ser escritas para que el tono de la voz no interfiera con la respuesta. El objetivo de A es tratar que el interrogador se equivoque, y el objetivo de B es ayudar al interrogador. Ahora, qué pasa si una máquina asuma el rol de A en el juego, ¿él interrogador se daría cuenta? Concepciones Cognitivas del ser humano – Pascual F. Martinez-Freire I- LA DESCRIPCIÓN ABSTRACTA DEL SUJETO COGNITIVO HUMANO La inteligencia artificial y la psicología cognitiva son las dos ciencias que componen en núcleo en la investigación e la noción del procesamiento de la información. Newel y Simon declaran que su sistema de procesamiento de la información es apropiado para el estudio de la conducta humana. Dicen que su teoría del pensamiento y de resolución de problemas humanos postula que los humanos operan como un SPI, un sistema que consta de memoria que contiene estructuras de símbolos, de un procesador; efectores y receptores. Los autores hacen abstracción de las complejidades del procesamiento sensorial y motor, de los que establecen las siguientes definiciones y postulados: 1. Hay un conjunto de elementos llamados símbolos 2. Una estructura de símbolos consta de un conjunto de muestras, instancias u ocurrencias de símbolos conectados mediante un conjunto de relaciones, 3. Una memoria es un componente de un SPI capaz de almacenar y retener estructuras de símbolos. 4. Un proceso de información es un proceso que tiene estructuras de símbolos en algunas de sus entradas y salidas. 5. Un procesador es un componente de un SPI que consta de: a) un conjunto fijo de procesos de información elementales; una memoria a corto plazo que mantiene las estructuras de símbolos de entrada y salida; c) un intérprete que determina las secuencias a ejecutar por el SPI como una función de las estructuras de símbolos de la MCP 6. Una estructura de símbolos designa, se refiere a (o señala) un objeto si existen procesos de información que admiten la estructura de símbolos como entrada y o afectan al objeto o producen estructuras de salida. 7. Una estructura de símbolos es un programa si el objeto que designa es un procesador de información y si, dado el programa, el intérprete puede ejecutar el proceso designado. 8. Un símbolo es primitivo si su designación está fijada por los procesos de información elementales o por el ambiente externo del SPI. Para Newel y Simon esta abstracción, aunque queda lejos de las descripciones cotidianas, antropológicas, biológicas o filosóficas del ser humano, proporciona realmente una captación de la conducta simbólica que no estaba disponible hasta el momento. El SPI tiene cuatro componentes básicos: memoria, procesador, receptores y efectores. Símbolo se puede entender como cualquier ítem de carácter representacional. Los símbolos simples se organizan en estructuras de símbolos y un proceso de información tiene estructuras de símbolos como entradas y salidas. Frecuentemente se ha sostenido que un SPI solo tiene aspectos intacticos, pero las estructuras de símbolos pueden designar objetos, por lo que adoptan un aspecto semántico. II- UNA DESCRIPCIÓN CONCRETA DEL SUJETO COGNITIVO HUMANO. En el libro de George Miller del Mágico número 7 (1956), se destacan tres aspectos: 1) que existen severas limitaciones sobre la cantidad de información que los humanos somos capaces de recibir, procesar y recordar; 2) el proceso de recodificar (agrupar y organizar la secuencia de entrada en unidades) es muy importante para la psicología humana; y 3) los conceptos y medidas proporcionados por la teoría de la información suministran un medio cuantitativo de abordar los problemas psicológicos. Bruner, Goodnow y Austin en Study of Thinking (1956) se refieren a procesos cognitivos como todos aquellos mediante los cuales los humanos obtienen, retienen y transforman información. Esto viene a sustituir la vieja cadena conductista de e-r por un modelo de mediación. Miller, Galante y Pribram en Plans and Structure of Behavior (1960) parten de la noción de imagen y la completan con la noción de plan que guía la conducta, similar al programa de computador. Estos autores también proponen la simulación de los procesos psicológicos mediante el computador, tomando como referencia los programas de simulación psicológica de Newell, Shaw y Simon. Para Neisser, el termino cognición se refiere a todos los procesos mediante los cuales la entrada sensorial es transformada, reducida, elaborada, almacenada, recobrada o utilizada. En consecuencia, la sensación, percepción imaginación, recuerdo, solución de problemas y pensamiento son etapas de la cognición. Esta definición tan amplia involucra a la cognición en todo lo que puede hacer el ser humano. Según este autor, el termino psicología cognitiva puede emplearse en dos modos; como denominación amplia del estudio de los mecanismos cognitivos o como una teoría particular con interpretación precisa. Reconoce la deuda con Broadbent por hablar de flujo de información en el organismo. Por otro lado, Neisser muestra la incompatibilidad del conductismo con su psicología. El conductismo ha defendido que las acciones del ser humano se pueden explicar solo en términos de variables observables; es legítimo hablar de estímulos, respuestas y reforamientos, pero no es legítimo hablar de ideas, imágenes o categorías. Este autor destaca la similitud de los programas con la teoría de la cognición. Pero, un programa no es una máquina, sino una serie de instrucciones para manejar símbolos. Para Neisser la mente humana es comparable a un programa no a un computador. La primera ventaja de esta analogía es la confianza filosófica que proporciona; aunque un programa es solo un flujo de símbolos es lo bastante real como para controlar las ejecuciones de una maquinaria física. En segundo lugar, la analogía es una fuente de hipótesis. Sin embargo, Neisser señala que los programas informáticos de simulación, no hacen ni la más remota justicia a la complejidad de los procesos mentales humanos, ya que estos no pueden distraerse ni experimentar emociones. También, se plantea la validez y relevancia del estudio de los procesos fisiológicos. Reconoce que la cognición puede ser estudiada válidamente en térmicos de los eventos nerviosos subyacentes. Pero, aunque no duda de que la conducta humana depende de la actividad del cerebro, cree que la fisiología y la bioquímica tienen actualmente poco que aportar para la psicología. Pues según él a la psicología le interesa más los eventos que su naturaleza física. Steven Prinker - Cómo funciona la mente. ☆ Esta nueva perspectiva fue expresada en primer lugar por el matemático Alan Turing, los cibernéticos Alan Newell, Herbert Simón y Marvin Minsky, así como por los filósofos Hilan Putnam y Jerry Fodor, y, en la actualidad, recibe el nombre de teoría computacional de la mente. La teoría computacional de la mente resuelve la paradoja mente cuerpo: afirma que las creencias y los deseos son información, encarnada como configuraciones de símbolos, los cuales son estados físicos de fragmentos de materia, como chips de un ordenador o neuronas en el cerebro, y simbolizan cosas del m u n d o porque son activados por esas cosas a través de nuestros órganos sensoriales y por lo que hacen una vez que han sido activados. El contenido de un libro o una película descansa en la configuración de marcas de tinta o de cargas magnéticas, y aparece sólo cuando la obra es leída o visionada. De un modo similar, el contenido de la actividad del cerebro descansa en las configuraciones de conexiones y actividad entre las neuronas. La información es una correlación entre dos cosas y se produce por un proceso conforme a leyes. Decimos que los anillos de un tocón tienen información acerca de la edad del árbol porque su número es correlativo a la edad del árbol Steven Pinker - La lingüística como ventana a nuestra mente