El instinto del lenguaje: Cómo crea la mente el lenguaje - PDF

Summary

Este documento analiza el funcionamiento del lenguaje, destacando su aspecto lógico y estructural a través de ejemplos y explicaciones concisa. La obra explora las relaciones entre palabras, la gramática y la mente. Se discuten las ideas de Ferdinand de Saussure y Wilhelm von Humboldt, resaltando la capacidad del lenguaje para transmitir información compleja.

Full Transcript

## El Instinto del Lenguaje ### Capítulo 4 ### CÓMO FUNCIONA EL LENGUAJE Los periodistas acostumbran a decir que el que un perro muerda a un hombre no es noticia, mientras que el que un hombre muerda a un perro sí lo es. Ésta es la esencia del instinto de lenguaje: el lenguaje transmite noticias....

## El Instinto del Lenguaje ### Capítulo 4 ### CÓMO FUNCIONA EL LENGUAJE Los periodistas acostumbran a decir que el que un perro muerda a un hombre no es noticia, mientras que el que un hombre muerda a un perro sí lo es. Ésta es la esencia del instinto de lenguaje: el lenguaje transmite noticias. Las ristras de palabras que denominamos «frases>> no son meros acicates de la memoria para que podamos recordar quién es el mejor amigo del hombre y luego agreguemos el resto de la información, sino que están ahí para decirnos quién hizo qué a quién. De modo que el lenguaje nos proporciona más información de la que Woody Allen obtuvo de *Guerra y Paz*, obra que leyó en un par de horas después de haber recibido clases de lectura rápida. Lo más que llegó a recordar fue que «trataba sobre unos rusos». El lenguaje nos permite averiguar cómo se aparean los pulpos, cómo quitar las manchas de cereza, por qué Tad se quedó desconsolado, si el Real Madrid ganará por fin la Liga aunque no tenga un goleador en sus filas, cómo fabricar una bomba atómica casera y cómo murió Catalina la Grande, entre otras muchas cosas. Cuando los científicos descubren lo que aparenta ser un truco de magia de la naturaleza, como por ejemplo el hecho de que los murciélagos se dirijan con enorme precisión hacia un insecto en medio de la más profunda oscuridad o que los salmones regresen cada primavera a desovar en su arroyo natal, se ponen a buscar los principios de ingeniería que hay detrás de esos hechos. ¿Cuál es el truco que explica la capacidad del *Homo sapiens* de informar a los demás de que un hombre mordió a un perro? En realidad no se trata de un solo truco, sino de dos, que además están asociados con los nombres de dos grandes pensadores europeos del siglo XIX. El primero de estos principios, enunciado por el lingüista suizo Ferdinand de Saussure, es el de la «arbitrariedad del signo», o sea, la relación convencional que existe entre sonidos y significados. La palabra perro no se parece a un perro, ni camina como un perro, ni ladra como un perro, pero aun así significa «perro», y ello debido a que todos los hablantes del español han tenido en su infancia una experiencia idéntica de aprendizaje por repetición que ha servido para asociar esos sonidos con el correspondiente significado. A cambio de este acto de memorización, los hablantes de una comunidad lingüística reciben un enorme beneficio: la capacidad para transmitir un concepto casi instantáneamente de una mente a otra. A veces el maridaje a la fuerza entre sonidos y significados da unos resultados absurdos. Algún ingenioso comentarista, como Richard Lederer en su libro *Crazy English* («Inglés absurdo»), ha llamado la atención sobre ciertas curiosidades lingüísticas como las siguientes: que una «cama elástica» no es ningún tipo de cama, el «potro de tortura» no pertenece a ninguna especie equina, los «sauces llorones» no derraman lágrimas, las películas «verdes», el cine «negro» o la prensa «amarilla» no son realmente de esos colores, las «patatas bravas>> no embisten y el «pan de oro» no es comestible. Pero no por ello debemos dejar de apreciar el hecho más habitual, aunque no menos asombroso, que supone recrear un concepto en la mente de un interlocutor con sólo pronunciar una ristra de sonidos. Curiosamente, esta sencilla habilidad es capaz de poner en evidencia a nuestro ingenio cuando se nos exige expresar conceptos por medio de la mímica, como en el popular juego del *Pictionary*. El segundo truco que esconde el instinto del lenguaje se halla proverbialmente expresado en una frase de Wilhelm von Humboldt, auténtico precursor de las ideas de Chomsky: el lenguaje «hace un uso infinito de medios finitos». Apreciamos la diferencia entre la previsible frase *Un perro muerde a un hombre* y la sorprendente *Un hombre muerde a un perro* debido, entre otras cosas, al orden en que aparecen combinadas las palabras *perro, hombre* y *muerde*, es decir, empleamos un código para traducir combinaciones de ideas a combinaciones de palabras. Este código o conjunto de reglas se denomina «gramática generativa», y como ya he señalado, no debe confundirse con las gramáticas pedagógica y estilística que se enseñan en las escuelas. El principio que rige el funcionamiento de la gramática no es muy frecuente en la naturaleza. La gramática constituye un ejemplo de «sistema combinatorio discreto», en el que un número finito de elementos discretos (palabras, en este caso) son objeto de selección, combinación y permutación para crear estructuras más extensas (frases, en este caso) que presentan propiedades muy distintas de las de sus elementos constitutivos. Por ejemplo, el significado de *Un hombre muerde a un perro* es diferente del de cualquiera de las palabras que forman esa frase, y también del de esas mismas palabras cuando se combinan en un orden distinto. En un sistema combinatorio discreto como el lenguaje, puede darse un número ilimitado de combinaciones completamente distintas con un rango infinito de propiedades. Otro sistema combinatorio digno de mención que existe en el mundo natural es el código genético del ADN, en el que cuatro clases de nucleótidos se combinan para formar sesenta y cuatro tipos de codones que a su vez pueden organizarse en un número ilimitado de genes diferentes. Muchos biólogos han aprovechado este paralelismo entre los principios combinatorios de la gramática y de la genética. Así, en el lenguaje de la genética se dice que las secuencias de ADN contienen <<«letras>> y «signos de puntuación», que estas secuencias pueden ser «palindrómicas», «carentes de significado» o «sinónimas», que se pueden <<<transcribir» y «traducir», y que incluso se pueden almacenar en «bibliotecas». El inmunólogo Niels Jerne puso a su discurso de recepción del Premio Nobel el título de «La Gramática Generativa del Sistema Inmunológico». En cambio, la mayoría de los sistemas complejos que hay en el mundo son sistemas de fusión, y de ellos podemos hallar ejemplos en campos como la geología o la gastronomía y en fenómenos como el sonido, la luz o la mezcla de pinturas. En un sistema de fusión, las propiedades de la combinación se hallan presentes en las de sus elementos constitutivos, las cuales se pierden al mezclarse unos elementos con otros. Por ejemplo, la combinación de pintura roja y pintura blanca produce pintura rosa. Así pues, la gama de propiedades que puede ofrecer un sistema de fusión es mucho más limitada, y sólo es posible distinguir entre grandes cantidades de combinaciones a base de discriminar diferencias cada vez más pequeñas. No es coincidencia que los dos sistemas del universo que más nos impresionan por el carácter abierto de su complejo diseño, la vida y la mente, sean sistemas combinatorios discretos. Muchos biólogos sostienen que si la herencia no fuera un fenómeno discreto, la evolución, tal y como la conocemos, no podría haber ocurrido. En definitiva, el lenguaje consta de un léxico compuesto de palabras y de conceptos que éstas representan (es decir, un «diccionario mental») y de un conjunto de reglas que combinan las palabras para expresar relaciones entre los conceptos (o sea, una «gramática mental»), y ambos se hallan representados en el cerebro de cada hablante. En el próximo capítulo haremos un recorrido por el mundo de las palabras. Éste va a estar dedicado al diseño de la gramática. El hecho de que la gramática sea un sistema combinatorio discreto tiene dos importantes consecuencias. La primera es la enorme extensión del lenguaje. Si uno va a cualquier biblioteca y elige al azar una frase de un libro cualquiera, es casi seguro que no logrará encontrar otra frase exactamente igual a esa por mucho que se empeñe en buscarla. Las estimaciones del número de frases que una persona normal es capaz de producir alcanzan proporciones colosales. Si se interrumpe a un hablante en un punto cualquiera de una frase, hay, por término medio, diez palabras diferentes que podrían insertarse en ese lugar de la frase para continuarla de forma correcta y con sentido. (En algunos puntos de la frase sólo se puede poner una determinada palabra, mientras que en otros, podrían valer miles; el promedio es de diez.) Supongamos que una persona es capaz de producir frases de una longitud de hasta veinte palabras. Teniendo en cuenta que el número de palabras que se pueden insertar en cada punto de cada frase es de diez, la cantidad de frases que esa persona podría producir y entender sería como mínimo de 102 (un uno seguido de veinte ceros o, lo que es lo mismo, cien trillones). A una velocidad de cinco segundos por frase, esa persona necesitaría una infancia de cien billones de años (sin detenerse a comer ni a dormir) para memorizarlas todas. Sin embargo, limitar la longitud media de las frases a veinte palabras es una estimación bastante conservadora. Así, por ejemplo, la frase de George Bernard Shaw que se transcribe a continuación tiene 110 palabras y es perfectamente comprensible: > Más extraño aún es que Jacques Dalcroze, como todos estos grandes maestros, es un tirano de pies a cabeza, de esos que siempre saben lo que está bien, y de los que hay que darles la lección como ellos quieren, o si no se les rompe el corazón (el suyo, se entiende, no el de otros), y a pesar de todo su escuela es tan fascinante que todas las mujeres que la ven exclaman: «¡Ay, Dios mío!, ¿por qué no me educarían a mí de esta manera?», y hasta los ancianos se inscriben en ella como estudiantes y confunden a los párvulos con sus desesperados intentos de llevar el compás del dos por tres con una mano y el de tres por cuatro con la otra, y corretean felices por las aulas dando un saltito cada vez que el Sr. Dalcroze,dice «¡Hop!». Sin tener en cuenta que la esperanza de vida actual se cifra en los setenta y tantos años, cualquier persona sería capaz de producir un número infinito de frases diferentes. Del mismo modo que hay un número infinito de números enteros (si uno cree que ha llegado al final de la cuenta, basta con afiadir un 1 para aumentarla), tendrá que haber también un número infinito de frases. En cierta ocasión, el *Libro Guinness de los Récords* afirmó haber encontrado la frase más larga en lengua inglesa: un párrafo de 1.300 palabras en la novela *Absalón, Absalón*, de William Faulkner, que comienza así: > Ambos lo llevaban como presas de una flagelante exaltación deliberada... Me veo tentado de pasar a la posteridad rompiendo ése récord con una frase como > Faulkner escribió: «Ambos lo llevaban como presas de una flagelante exaltación deliberada...». Sin embargo, mi fama sería efímera. pues cualquiera podría batir mi propia marca escribiendo > Pinker escribió que Faulkner escribió: «Ambos lo llevaban como presas de una flagelante exaltación deliberada...». Y esa marca, a su vez, caería de inmediato en cuanto alguien escribiera > ¿A quién le importa que Pinker escribiera que Faulkner escribió: «Ambos lo llevaban como presas de una flagelante exaltación deliberada...»? Y así hasta el infinito. El uso infinito de medios finitos distingue al cerebro humano de la mayoría de los sistemas artificiales, de lenguaje que encontramos habitualmente, como las muñecas parlantes, los coches que te recuerdan que tienes que cerrar la puerta y las educadas máquinas de tabaco que te saludan en su tono monocorde «Su tabaco, gracias», pues todos estos sistemas utilizan una lista de emisiones prefabricadas. La segunda consecuencia del diseño de la gramática es que se trata de un código autónomo con respecto a las demás capacidades cognitivas. Una gramática establece de qué modo deben combinarse las palabras para expresar significados, y ese modo es independiente de los significados particulares que solemos comunicar y que esperamos que otros nos comuniquen. Por ello, a menudo encontramos frases que aun cuando no se ajusten a las reglas de la gramática, no por ello dejan de tener una interpretación de sentido común. He aquí unas cuantas frases que son fáciles de interpretar aunque no se hallen correctamente formadas: >- Bienvenido a restaurante chino. Por favor, prueba nuestra deliciosa comida china con palillos: la tradicional y típica de la gloriosa historia y cultual china. >- Es un gorrión voladores, eso son. >- El niño parece durmiendo. >- Es lloviendo. Julia esparció la pared con pintura. ¿Sobre quién te impresionó el libro? Patinazo estrella contra hospital. Trabajador enciende cigarrillo vapor del bidón ¡bum! >- Esta frase no verbo. >- Esta frase tiene contiene dos verbos. >- Esta frase tiene repollo seis palabras. >- Esta no es una completa. Esta tampoco lo. Estas frases son «agramaticales», y no sólo porque transgredan los principios gramaticales que nos enseñaron en la escuela, sino porque cualquier persona normal que hable el lenguaje de la calle nota que hay algo raro en ellas, pese a que sean interpretables. La agramaticalidad no es más que la consecuencia de que haya un código fijo para interpretar frases. En algunos casos, es posible adivinar el significado, pero aun así dudamos que el hablante haya empleado el mismo código al producir la frase que el que nosotros hemos usado al comprenderla. Por parecidas razones, los ordenadores, que no acostumbran a ser tan clementes como los seres humanos con los errores gramaticales, expresan su disgusto en diálogos sobradamente conocidos como el siguiente: > PRINT (X+1 > *****SYNTAX ERROR***** Sin embargo, también puede suceder lo contrario. Puede haber frases carentes de sentido que, en cambio, se reconozcan como perfectamnente gramaticales. Un típico ejemplo es la conocida frase de Chomsky > Las verdes ideas incoloras duermen furiosamente. Chomsky inventó esa frase para mostrar que la sintaxis y el significado pueden ser mutuamente independientes. No obstante, este argumento ya había sido empleado mucho antes de Chomsky, puesto que constituye el principio fundamental de la literatura del sinsentido, que fue muy popular en el siglo XIX. Veamos un ejemplo de Edward Lear, el reputado maestro del absurdo: > Es un hecho conocido, > Que es más feliz quien no ha nacido. En cierta ocasión, Mark Twain hizo una parodia de las descripciones románticas de la naturaleza, que se caracterizan más por su carácter melo-fluo que por su contenido: > Era una fresca mañana de principios de octubre. Las lilas y los codesos, encendidos con el glorioso resplandor del otoño, ardían chispeantes en el aire claro, tendiendo un mágico puente a la Naturaleza para que las blandas criaturas terrestres que tienen su hogar en lo alto de las ramas tuvieran franco el camino; el alerce y el granado lanzaban alegres llamaradas púrpuras y amarillas, salpi-cando con brillantes fogonazos la umbría oscuridad del bosque; la sensual fragancia de innumerables flores marchitas embriagaba la pálida atmósfera; allá en lo alto del cielo, un solitario esófago dormitaba impávido sobre alas inmóviles; por doquier reinaban la quietud, la serenidad y la paz de Dios. ¿Y quién no conoce el poema de Lewis Carroll en *A través del espejo* que termina con estos versos? > Y estando sumido en irribumdos pensamientos > surgió, con ojos de fuego, > bafeando, el Jerigóndor del túlgido bosque, > y burbulló al llegar. > ¡Zis, zas! ¡Zis, zas! ¡Una y otra vez > tajó y hendió la hoja vorpal! > Cayó sin vida, y con su cabeza, > emprendió galofante su regreso. > <<¿Has matado al Jerigóndor? > Ven a mis brazos, sonrillante chiquillo, > ¡Ah, frazoso día! ¡Calós! ¡Calay!,>>> > mientras él resorreía de gozo. > Cocillaba el día, las tovas agilimosas > giroscopaban y barrenaban en el larde. > Todos debirables estaban los burgovos, > y silbramaban las alecas rastas. > [Alicia anotada, edición de Martin Gardner, 1960; trad. cast. Francisco Torres Oliver, Editorial Akal, Madrid 1984.] Como dijo Alicia, «En cierto modo, parece llenarme la cabeza de ideas... ¡sólo que no sé exactamente cuáles son!» De todos modos, aunque el sentido común y el conocimiento ordinario no sirvan de mucho para entender estos versos, cualquier hablante del español reconocerá que son gramaticalmente correctos, y merced a sus reglas mentales podrá incluso extraer marcos de interpretación muy precisos, aunque también muy abstractos. Por ejemplo, Alicia llegó a deducir que «Alguien mató algo, en todo caso, eso está claro». Y al leer la frase *Chomsky*, cualquiera podría responder a preguntas como «¿Qué. es lo que dormía. y cómo?», «¿era una sola cosa o varias?», «¿qué clase de ideas eran?». ¿Cómo funciona la gramática combinatoria. que subyace. al lenguaje humano? En la novela de Michael Frayn *The Tin Men* (Los hombres de hojalata) se expone. la manera. más inmediata. de combinar. palabras. en un orden apropiado. El protagonista, Goldwasser, es un ingeniero que trabaja. en. un instituto de sistemas automáticos a quien se encarga. que diseñe un ordenador capaz de generar el tipo de historias que suelen aparecer en los periódicos, como aquella que llevaba por título «Niña paralítica decidida a aprender a bailar». En el episodio que se reproduce a continuación, Goldwasser está probando un programa que compone historias sobre acontecimientos de la realeza: > Abrió el archivador y sacó la primera tarjeta. En ella estaba escrita la palabra Tradicionalmente. A partir de ahí, se podía elegir al azar entre varias tarjetas con inscripciones como coronaciones, compromisos, funerales, bodas, mayorías de edad, nacimientos, óbitos u ordenación de mujeres. El día anterior, al elegir funerales, había sido dirigido hacia una tarjeta que decía son motivo de duelo. Hoy, en cambio, cerrando los ojos, escogió bodas, y la tarjeta que le seguía llevaba escrito son motivo de regocijo. > La siguiente secuencia comenzaba con La boda de Xe Y y continuaba con una alternativa entre no es una excepción y constituye un buen ejemplo. Entonces Goldwasser descubrió, no sin un íntimo placer matemático, que siempre conducía todo ordenadamente a este mismo callejón sin salida, al margen de cuál hubiera sido la elección inicial, ya fuera una coronación, un óbito o un nacimiento. Se detuvo en desde luego, y a continuación sacó en rápida sucesión las tarjetas con las inscripciones constituye un acontecimiento especialmente feliz, rara vez y se ha podido encontrar una joven pareja tan popular. > Al pasar a la siguiente selección, Goldwasser extrajo una tarjeta que decía X ha sabido ganarse el afecto de los ciudadanos, lo que le obligó a seguir con y es evidente que el pueblo británico también ha acogido a Y en su corazón. > A Goldwasser le sorprendía sobremanera que aún no hubiera aparecido la palabra «apropiado». Sin embargo, esta palabra salió en la siguiente tarjeta, que rezaba resulta particularmente apropiado que. > A continuación apareció la inscripción la novia/el novio y después, cuatro posi- > bles opciones: descienda de tan noble e ilustre linaje, no sea de sangre azul como > corresponde a los actuales usos democráticos, proceda de un país al que desde > hace tiempo nos unen estrechos lazos de amistad y respeto, y proceda de un país > con el que hemos mantenido unas relaciones no exentus de cierta tensión. > En vista del éxito que anteriormente le había proporcionado la palabra «apro- > piado», Goldwasser volvió a seleccionarla, aunque esta vez a propósito. Resul- > ta asimismo apropiado que, decía la tarjeta, y en rápida sucesión aparecieron > otras con las palabras recordemos y X e Y no son meros símbolos, sino un jo- > ven muy dinámico y una encantadora señorita. > Goldwasser cerró los ojos y extrajo la siguiente tarjeta. Decía así: en una épo- > ca como la actual en que. Dudó un momento entre se ha puesto de moda criti- > car la moralidad tradicional del matrimonio y la vida familiar y ha dejado de > estar de moda oponerse a la moralidad tradicional del matrimonio y la vida fa- > miliar. Esta última tenía sin duda un aire de esplendor barroco, pensó. Llamemos a este programa «sistema de encadenamiento de palabras>>> (aunque su nombre técnico es «modelo de estados finitos» o «modelo de Markov»). Un sistema de encadenamiento de palabras comprende montones de listas de palabras (o frases prefabricadas) y un conjunto de instrucciones para. pasar de una lista a otra. Un procesador construye una oración a base. de seleccionar una palabra de una lista, luego otra de otra lista, y así sucesivamente. Y para reconocer una frase, lo que hace es localizar de una en una cada palabra en su correspondiente lista. Los sistemas de encadenamiento de palabras aparecen frecuentemente en obras satíricas como la de Frayn y se utilizan como recetas de cocina. para componer discursos más o menos pomposos. Veamos, por ejemplo, lo que podría denominarse un *Generador de Jerga de Ciencias Sociales*. El lector lo puede utilizar escogiendo al azar. una palabra cualquiera de la primera columna, después otra de la segunda, y luego otra de la tercera. Al juntarlas aparecerá una expresión altisonante como *interdependencia agregadora integrada*: | | | | | -------------------- | -------------------------- | -------------------- | | interdependencia | participativa | dialéctica | | difusión | degenerativa | disfuncionalizada | | periodicidad | agregadora | positivista | | síntesis | apropiativa | predicativa | | suficiencia | simulada | multilateral | | equivalencia | homogénea | cuantitativa | | expectación | transfigurativa | divergente | | plasticidad | diversificadora | sincrónica | | epigénesis | cooperativa | diferenciada | | deformación | complementaria | integrada | | solidificación | eliminativa | distributiva | Hace poco tuve ocasión de ver un sistema de encadenamiento de palabras diseñado para construir reclamos publicitarios como los que aparecen en las solapas de los libros y otro para componer letras de canciones de Bob Dylan. Un sistema de encadenamiento de palabras es el caso más sencillo de sistema combinatorio discreto, toda vez que es capaz de crear un número ilimitado de combinaciones diferentes a partir de un conjunto finito de elementos. Parodias aparte, un sistema de encadenamiento de palabras puede generar infinitas oraciones correctas del español. Por ejemplo, un esquema tan elemental como el que aparece a continuación > el > > Un > > algún > > feliz > > niño > > hombre come > > perro > > helados > > salchichas > > caramelos permite producir muchísimas oraciones, como por ejemplo *Un hombre come helados* o *Algún perro feliz come caramelos*. El número de ellas puede ser infinito, puesto que el bucle que hay sobre la palabra *feliz* implica que la cadena puede volver una y-otra vez sobre la lista en la que se halla esta palabra, lo cual permite crear no sólo oraciones como *Algún perro feliz come caramelos*, sino también *Algún perro feliz feliz come caramelos*, y así sucesivamente. Cuando un ingeniero se pone a pensar en un sistema que permita combinar palabras en diferentes órdenes, lo primero que se le ocurre es un sistema de encadenamiento. La grabación que facilita los números de teléfono. cuando se marca el número de información de Telefónica constituye un buen ejemplo de ello. Se graba la voz de un locutor o locutora pronunciando. los diez. dígitos y se repite cada uno de ellos siete veces con una entonación distinta para cada una. de las siete posiciones que puede ocupar. Con estas setenta unidades grabadas es posible componer diez millones de números de teléfono; si a eso le añadiéramos los dos o tres números que tienen los prefijos de provincias, podríamos llegar a componer hasta un billón de números diferentes (aunque en la práctica haya muchos menos, ya que los prefijos provinciales empiezan siempre por 9 y los números locales no suelen comenzar con un. 0 o un 1). Procedimientos parecidos de encadenamiento de palabras se han empleado también para modelar lenguas naturales como el inglés. Con objeto de aproximarse en lo posible a la realidad, se ha intentado que las transiciones de una lista de palabras a otra reflejen las probabilidades reales de asociaciones entre palabras contiguas en el lenguaje (por ejemplo, la palabra *eso* suele ir seguida por la palabra *es* con mucha más probabilidad que por la palabra *indica*. Se han compilado gigantescas bases de datos con estas «probabilidades transicionales» entre palabras a base de someter extensas muestras de lenguaje a análisis por ordenador, o también pidiendo a hablantes seleccionados que respondieran con la primera palabra que les viniera a la cabeza tras oír una determinada secuencia de palabras. Algunos psicólogos han manifestado que el lenguaje humano consiste en una interminable cadena de palabras almacenada en el cerebro. Esta hipótesis congenia muy bien con las teorías estímulo-respuesta, según las cuales un estímulo elicita una determinada palabra como respuesta, que al ser percibida por el hablante le sirve a su vez como estímulo para elicitar otra palabra, y así sucesivamente. No obstante, no deja de ser sospechoso que los sistemas de encadenamiento de palabras resulten tan apropiados para generar secuencias de lenguaje «enlatado» como la de la novela de Frayn. Lo que caracteriza a este tipo de literatura es que el lenguaje que se satiriza es tan vacío y tópico que no resulta chocante saber que ha sido construido por un ingenio mecánico que produce ristras anodinas de palabras que sólo remedan el auténtico lenguaje. Lo que hace que esas ristras resulten cómicas es precisamente su discrepancia con respecto al lenguaje real. Todo el mundo sabe que las personas, incluso los sociólogos y los periodistas, no son sistemas de encadenamiento de palabras, por mucho que a veces se esfuercen en parecerlo. El estudio moderno de la gramática comenzó cuando Chomsky demostró que los sistemas de encadenamiento de palabras no sólo resultan un tanto sospechosos, sino que son explicaciones radical y esencialmente incorrectas sobre el funcionamiento del lenguaje. Si bien son sistemas combinatorios discretos, lo son de naturaleza errónea. Tienen tres problemas fundamentales, cada uno de los cuales sirve para ilustrar un aspecto distinto de la auténtica naturaleza del lenguaje. Para empezar, una oración es algo que no tiene nada que ver con una cadena de palabras asociadas unas con otras en función de probabilidades transicionales. Pensemos en el famoso ejemplo de Chomsky *Las verdes ideas incoloras duermen furiosamente*. Chomsky inventó esa frase no sólo con objeto de demostrar que las oraciones sin sentido pueden ser gramaticalmente correctas, sino también. para dar a entender que las secuencias altamente improbables de palabras también lo pueden ser. En un texto cualquiera, la probabilidad de que la palabra *ideas* vaya seguida por la palabra *incoloras* es prácticamente nula, y lo mismo la probabilidad de que *duermen* siga a *incoloras* y de que a esta palabra le siga *furiosamente*. Però con todo y con eso, esta secuencia de palabras es una oración gramaticalmente correcta. Y a la inversa, cuando se ensamblan cadenas de palabras usando tablas de probabilidades, las secuencias de palabras resultantes distan mucho de ser oraciones gramaticalmente bien formadas. Supongamos, por ejemplo, que hacemos estimaciones de las palabras que con más probabilidad seguirían a una secuencia de cuatro palabras, y que utilizamos esas estimaciones para construir una cadena palabra por palabra, teniendo siempre en cuenta cuáles son las cuatro últimas palabras a la hora de determinar qué palabra ha de seguirlas. El texto resultante, al que pertenece el siguiente ejemplo, sonaría tan extraño como *Casa para buscar es ganarse la vida trabajando por una meta para su equipo en el viejo Madrid era una ciudad maravillosa no es cierto incluso agradable para hablar de ella y reírse mucho cuando cuenta mentiras que no debería decirme el motivo por el que tú eres es evidente*. De las diferencias entre las oraciones reales de una lengua y las cadenas artificiales de palabras se pueden sacar dos enseñanzas. Cuando una persona aprende una lengua, aprende a poner las palabras. en orden, aunque. no a base de registrar qué palabra. sigue a cuál otra, sino registrando qué categoría de palabra (nombre, verbo y demás) sigue a qué otra categoría. Así, la secuencia *verdes ideas incoloras* es reconocible porque sigue el mismo orden de nombres y adjetivos que vemos en secuencias más típicas, como *veloces automóviles modernos*. La segunda enseñanza que podemos extraer es que los nombres, los verbos y los adjetivos. no se hallan ensartados unos con otros formando una cadena, sino que existe un plan general de la frase en el que cada palabra se asigna a un determinado hueco. Si se designa un sistema de encadenamiento de palabras con suficiente ingenio, es muy posible que el sistema sea capaz de resolver estos problemas. Sin embargo, Chomsky tenía un argumento para refutar definitivamente la idea de que el lenguaje humano es una cadena de palabras. Demostró que ciertos tipos de oraciones del inglés no pueden, ni siquiera en principio, producirse mediante un sistema de encadenamiento de palabras, con independencia del tamaño que un sistema tal pueda tener o de lo fiel que pueda ser a las tablas de probabilidad que maneje. Pongamos por caso oraciones como las siguientes: >- O'la niña come helados o la niña come caramelos. >- Si la niña come helados, entonces el niño come bocadillos. A primera vista, no parece muy difícil acomodar estas frases a un sistema de encadenamiento de palabras. Así, > - la > - el > - sí > - un/una > - niña > - niño > - perro > - helado > - come caramelos > - bocadillos > - o > - entonces Sin embargo, el sistema no funciona del todo bien. La palabra *o* ha de ir seguida. más adelante en la oración por otro *o*. No es correcto decir *O la niña come helados, entonces la niña come caramelos*. Asimismo, la palabra *si* requiere que luego aparezca la palabra *entonces*. No es correcto decir *Si la niña come helados, o la niña come bocadillos*. Así pues, para satisfacer la obligación de que a una palabra de la frase le siga más adelante otra determinada palabra, el sistema de encadenamiento deberá recordar la primera de estas palabras mientras esté produciendo las palabras que la separan de la segunda. Pero el problema es que los sistemas de encadenamiento de palabras son amnésicos, pues sólo recuerdan la última palabra que han seleccionado, y no las que le preceden. Para cuando llega a la lista que contiene las palabras *o* y *entonces*, no hay forma de recordar si al principio había elegido *o* o *si*. En cambio, si miramos todo el recorrido en perspectiva, podremos recordar qué elección hizo el sistema en la primera bifurcación con que se encontró. En cambio, con su cansino caminar de palabra en palabra, nuestro desmemoriado sistema no puede. A la vista de esto, cabría proponer la sencilla solución de rediseñar el sistema de tal forma que no tuviera que recordar decisiones tempranas en puntos tardíos de la oración. Por ejemplo, podría unirse *o* y *o* con todas las posibles secuencias intermedias en una secuencia gigante, e igualmente *si* y *entonces* con todas las posibles secuencias intermedias en otra secuencia gigante, de tal modo que hubiera que hacer un recorrido completo antes de pasar a la secuencia final de la oración. Esto daría lugar a una cadena tan larga como la que aparece colocada de soslayo en la página siguiente. Algo particularmente perturbador en esta solución es que requiere la repetición de tres subredes casi idénticas. Es evidente que lo que uno pueda decir entre un *o* y otro *o* es exactamente lo mismo que podría decir entre un *si* y un *entonces*, y también. después de un *o* o de un *entonces*. Sin embargo, esta peculiaridad del lenguaje debería surgir de forma natural del propio diseño del sistema mental que nos permite usar el lenguaje, y no debería depender de la habilidad del diseñador. a la hora de escribir tres conjuntos idénticos de instrucciones (o peor aún, de la necesidad de que el niño aprenda la estructura de la misma frase en tres ocasiones distintas, una vez para frases del tipo *si-entonces*, otra para frases del tipo *o-o* y otra para frases que empiecen. por *o* o por *entonces*). Con todo, Chomsky demostró. que el problema es aún más grave, ya que cada una de estas oraciones puede estar incrustada en cualquiera de las otras, o incluso dentro de sí misma. Así: >- Si la niña come helados o la niña come caramelos, entonces el niño come bocadillos. >- O si la niña come helados, entonces el niño come helados, o si la niña come helados, entonces el niño come caramelos. En la primera oración, el sistema tiene que recordar *si* para poder continuar luego con *o* y *entonces* en ese mismo orden. En la segunda oración, el sistema tiene que recordar *o* y *si* para poder completar después la oración con *entonces* y con *o*. Y así sucesivamente. Dado que en principio no hay ninguna limitación en el número de *sies* y *oes* con que se puede empezar una oración, y. que cada uno de estos *sies* y *oes* requiere otros tantos *oes* o *entonces* para poder completarla, de. nada servirá crear diferentes secuencias o cadenas de palabras para memorizar, toda vez que haría. falta memorizar un número infinito de cadenas, y. esto es, obviamente, algo. que ningún cerebro puede hacer. El argumento que acabo de exponer puede parecer algo escolástico. A nadie se le ocurriría jamás empezar una frase diciendo *O o si o si si*, por lo que no parece. que tenga mucho interés explicar. cómo se podría completar semejante frase con *entonces entonces... o... entonces... o... o*. No obstante, al exponer. este ejemplo, no hacemos sino emplear la misma lógica que emplea el matemático con el propósito de ilustrar una propiedad del lenguaje, la del uso de «dependencias a larga distancia», que los sistemas de encadenamiento de palabras no están en condiciones de utilizar. Las dependencias son moneda de uso corriente en todas las lenguas, y hasta el más común de los mortales las emplea constantemente en su lenguaje, incluso sobre distancias. considerables. y manejando varias a la vez, cosa que. los sistemas de encadenamiento. de palabras son incapaces de hacer. Hay, por ejemplo, un acertijo muy. conocido. entre los gramáticos que consiste en preguntar qué frase del inglés. podría terminar con cinco preposiciones seguidas. El papá sube'resignado a la habitación del niño. a leerle un cuento antes de dormir. Al ver el libro, el niño protesta diciendo: «Papá, ¿para qué me has traído ese libro del que no quiero que se me lea nada?» (La frase en inglés reza: «Daddy, what did you bring that book that I don't want to be read to out of up for?», y su traducción literal sería «Papá, ¿qué me has. traído ese libro que yo no quiero ser leído a fuera de arriba para?».) Para cuando el niño llega a decir *read* (lea), se encuentra sumido en cuatro dependencias sintácticas incrustadas unas dentro de otras. Así, *to be read* (que se me lea) requiere la preposición *to* (a), *that book that* (ese libro del que) exige las preposiciones *out

Use Quizgecko on...
Browser
Browser