PATROCINADORES
INSTITUCIONES
Junta castilla
jcm

Archiletras

Archiletras es posible gracias al apoyo de las siguientes empresas e instituciones

Junta castilla jcm
27 Jul 2020
Compartir
Entrevista

Noam Chomsky: «El objetivo en ciencia es descubrir la teoría más simple para el dominio en cuestión»

Ana Cruzat y Elena Álvarez Mellado

Entrevista con el lingüista estadounidense, el autor vivo más citado en la actualidad

Por qué es tan importante la figura de Noam Chomsky? Esta pregunta, que se han hecho a lo largo de las últimas décadas cientos de lingüistas, estudiosos y amantes de la lengua, sigue siendo hoy tan relevante como cuando un joven Chomsky —que aún no llegaba a la treintena— planteaba por primera vez, a finales de los años cincuenta del pasado siglo, su teoría de la gramática generativa. La gran aportación del autor, que acaba de cumplir 91 años, es haber introducido una visión de la cognición humana opuesta al empirismo de Hume y Locke para explicar cómo se produce la adquisición del lenguaje, esa capacidad única de los seres humanos.

Esta revolución cognitiva dio paso a la lingüística moderna, pero trasciende esta disciplina. Chomsky partía de una sencilla base: cada lenguaje agrupa un serie de expresiones estructuradas de forma jerárquica, expresadas a través de la voz o la escritura e interpretadas como manifestaciones del pensamiento. Las palabras no se limitan a sucederse unas a otras sino que se agrupan en sintagmas y establecen relaciones, lo que sitúa al lenguaje en un nivel muy alto de complejidad respecto a cualquier otro fenómeno secuencial conocido o concebible. Lo explica bien el lingüista de la Universidad de Oviedo Guillermo J. Lorenzo: «Debemos a Chomsky la cuantificación precisa de todas estas propiedades en términos matemáticos, y le debemos también el argumento de que esta simple observación obliga a considerar el lenguaje como un dispositivo mental interno al hablante».

Pero ¿cómo puede entender alguien no experto en lingüística la importancia de la figura de Chomsky? El profesor de Lingüística de la Universidad de Santiago de Compostela Víctor M. Longa nos ayuda a acercarnos a su visión: «Buena parte del pensamiento y la producción de Chomsky se ha dedicado a dos problemas, el problema de Platón y el problema de Orwell». Según explica el propio Chomsky, en El conocimiento del lenguaje (1989), el problema de Platón «consiste en explicar cómo conocemos tanto teniendo en cuenta que los datos de los que disponemos son tan escasos», mientras que el de Orwell «consiste en explicar cómo conocemos y comprendemos tan poco, a pesar de que disponemos de unos datos tan ricos».

El primer problema alude directamente al pensamiento lingüístico de Chomsky, mientras que el segundo tiene relación con su activismo político y su denuncia de la ocultación de información por parte de sociedades supuestamente democráticas. Del problema de Platón se desprenden los principales aspectos del pensamiento lingüístico de Chomsky: «Frente a la etapa previa, donde el lenguaje en Norteamérica se contemplaba como una conducta, él sostuvo que el lenguaje era una ventana a la mente, susceptible de ser tratado mediante la metodología de las ciencias cognitivas y de las ciencias naturales», explica Longa.

Chomsky ha sido, y sigue siendo, una figura esencial de la lingüística. Los postulados de la generativa —entre los que está la teoría del innatismo o la gramática universal— son comprensibles para una gran mayoría, aunque su aparato teórico y formal es complejo y abstracto. Además, el propio Chomsky ha pasado décadas afinando y modificando su teoría, y su figura ha desatado tanto firmes adhesiones como encendidos ataques. ¿Habrá algún día consenso sobre su aportación a la lingüística?

Archiletras entrevistó a Chomsky en diciembre pasado mediante un cuestionario escrito en inglés que el lingüista contesta también por escrito y en inglés.

Si tuviera que explicar de qué se trata la gramática generativa a alguien que no sabe nada de lingüística, ¿cómo lo haría?A principios de la revolución científica del siglo XVII, Galileo y otros expresaron su asombro y admiración por una propiedad fascinante del lenguaje humano: con unas pocas docenas de sonidos, podemos construir una variedad infinita de expresiones de pensamiento y transmitir a los demás los aspectos más íntimos del funcionamiento de nuestras mentes. A esta observación a veces se la llama el Desafío Galileano. Una gramática generativa del lenguaje aborda este desafío. Busca formular explícitamente las operaciones mentales que explican este logro notable. Proporciona un conjunto finito de reglas y principios que determinan un conjunto infinito de estructuras lingüísticas, cada una de las cuales expresa un pensamiento y proporciona la base para la externalización mediante el sonido (o los signos, que es básicamente equivalente), lo que a veces se llama la Propiedad Básica del lenguaje.

¿Qué hace que la facultad del lenguaje humano sea única?
El lenguaje es, ante todo, un sistema de infinito discreto: hay oraciones de cinco palabras y oraciones de seis palabras, pero no oraciones de cinco palabras y media. Tales sistemas son muy raros en el mundo orgánico. No hay nada como ellos en la comunicación animal. Además, los elementos con significado atómico que entran en el cálculo lingüístico no tienen contrapartida en el mundo animal. Y no hay una versión equivalente al Desafío Galileano entre los animales no humanos.

Usted ha argumentado que el lenguaje humano no es en absoluto comparable a la comunicación animal (como los cantos de los pájaros, etc.). ¿Por qué no? ¿Puede la investigación en comunicación animal darnos una idea de las capacidades lingüísticas de los humanos?
Los cantos de los pájaros tienen algunos puntos de contacto débiles con los procesos de externalización del lenguaje, probablemente relacionados con una evolución convergente de la organización de los sistemas articulatorios. Pero no tienen nada ni siquiera remotamente parecido a la Propiedad Básica. La investigación en comunicación animal ha revelado mucho acerca de la comunicación e inteligencia animal, pero es poco probable que proporcione información sobre el lenguaje humano, al igual que es poco probable que la investigación sobre el lenguaje humano proporcione información sobre las llamadas de los simios o el notable sistema de comunicación de algunas especies de abejas. Uno podría, sin duda, entrenar a los humanos para imitar algunos aspectos de la famosa danza del movimiento (de las abejas), pero no aprenderíamos nada, a partir de eso, sobre las capacidades de las abejas o de los humanos. Lo mismo ocurre con los intentos de entrenar a los simios para imitar algunos aspectos del comportamiento lingüístico humano.

Fue el primero en afirmar que la facultad del lenguaje es un rasgo único de los humanos (parte de nuestra dotación biológica). ¿Cuánto sabemos sobre su evolución?
No fui el primero, ni mucho menos. Es una observación tradicional. Descartes, por elegir un caso famoso. Generalmente, la evolución de los sistemas cognitivos es un tema extremadamente difícil. Tomemos a las abejas. Hay cientos de especies, por lo que hay una gran cantidad de evidencia comparativa. Sus cerebros son pequeños, del tamaño de una semilla de hierba. Podemos hacer cualquier experimento invasivo que nos guste. Aun así, se entiende muy poco sobre la neurofisiología o evolución de su comunicación u otros sistemas cognitivos. El problema con los humanos es incomparablemente más difícil, por razones obvias, no solo por la inmensa diferencia de escala y las barreras para experimentar directamente, sino también por la falta de contrapartidas relevantes más allá del nivel más superficial. Pese a ello, algo se entiende. Hay muy poca evidencia en el registro fósil del que disponemos sobre el uso complejo de símbolos antes de la aparición del Homo sapiens, pero aparece poco después (en términos evolutivos). Existe una fuerte evidencia genética de que los humanos comenzaron a separarse poco después de la aparición del Homo sapiens, y todos parecen tener las mismas capacidades lingüísticas. Si es así, entonces esperaríamos que la capacidad lingüística fundamental, tal vez la Propiedad Básica y las características del Desafío Galileano, hubiesen surgido más o menos junto con los humanos modernos, muy rápidamente (de nuevo, en términos evolutivos). Eso sugeriría que los mecanismos de la gramática generativa son bastante simples, al menos para las propiedades centrales del lenguaje. El trabajo lingüístico está, por otras vías, llegando a conclusiones similares.

La noción de gramática universal (la capacidad cognitiva que nos «separa» de otros animales) ha sido objeto de reevaluación, y ha pasado de un sistema complejo (como en el modelo de Principios y Parámetros, con diferentes operaciones, niveles de representaciones, etc.) a uno más simple (solo con la operación básica Ensamble). ¿Es eso toda la facultad del lenguaje está dotado? ¿Es eso suficiente para caracterizar todas las lenguas humanas?
Como en la ciencia en general —de hecho, en toda investigación racional—, el objetivo es descubrir la teoría más simple para los dominios bajo investigación, aquellos que dan las explicaciones más profundas. Esa es una búsqueda larga y difícil. La gramática universal (en el sentido moderno) comenzó a estudiarse intensamente a mediados del siglo XX, y revivió una tradición olvidada desde hacía mucho tiempo con nuevas herramientas cruciales, proporcionadas por grandes avances en la teoría matemática de la computación. Al principio parecía que se necesitaban mecanismos bastante complejos para dar cuenta de las propiedades observadas, incluso de los idiomas individuales, no digamos de los de la amplia variedad tipológica que comenzaron a estudiarse de inmediato. Con los años, la investigación empírica y la comprensión teórica han llevado a teorías mucho más mejoradas y mucho más simples, en última instancia, a la reducción a la operación computacional más simple, el Ensamble, que, como se ha demostrado, es suficiente para explicar algunas de las propiedades más profundas y sorprendentes del lenguaje. Pero para dar cuenta de la Propiedad Básica y otros aspectos del lenguaje, el Ensamble por sí solo claramente no es suficiente. Un proyecto de investigación muy activo que está en marcha consiste en ver cuánto podemos explicar del lenguaje mediante el Ensamble y principios generales de eficiencia computacional, que pueden considerarse como leyes de la naturaleza, utilizadas por la gramática generativa. Por supuesto, no podemos decir hasta dónde puede llegar esta investigación, pero ha habido algunos logros notorios y las perspectivas parecen mucho más prometedoras que hace unos pocos años.

Algunas voces han criticado la falta de respaldo experimental de algunas de las ideas centrales detrás de la gramática generativa (como la de que todas las lenguas comparten algunas propiedades centrales o que existe una base genética para las habilidades lingüísticas). ¿Se pueden evaluar estas ideas experimentalmente? ¿Cómo?
Es bien sabido entre los biólogos evolutivos que la tarea de encontrar una base genética incluso para rasgos simples es, en sus palabras, «endiabladamente difícil». Mucho más, por supuesto, para un sistema rico, complejo y, al parecer, biológicamente aislado como el lenguaje humano. En cuanto a la evidencia experimental de que todos los idiomas comparten propiedades centrales, tenemos amplia evidencia de una investigación extensa y de gran alcance en idiomas de gran variedad tipológica. Por tomar solo un caso llamativo, durante algún tiempo se creyó que el idioma australiano warlpiri, estudiado por uno de los lingüistas más destacados, el fallecido Kenneth Hale, difería muy radicalmente de los idiomas europeos en cuanto que poseía un orden de palabras verdaderamente libre, carente de la organización estructural de idiomas familiares. El excelente trabajo de la alumna de Hale, Julie Legate, demostró que, a un nivel más profundo, no visible en la superficie, el warlpiri tiene la misma organización estructural que otras lenguas. Hay muchos ejemplos similares.

Vivimos en una era en la que hay grandes cantidades de datos disponibles. Eso incluye corpus gigantescos y capacidades computacionales masivas como nunca antes en la historia. ¿Cree que esos datos pueden ayudarnos a comprender mejor cómo funciona el lenguaje? Si no, ¿qué nos dicen? ¿Cómo se pueden usar?
Los datos masivos y los centros de computación no nos dicen nada en sí mismos, por supuesto. La pregunta es si se pueden formular preguntas críticas para las cuales esos centros son útiles. Hasta ahora, al menos, los resultados son muy escasos.

¿Qué piensa sobre la tecnología y su impacto en la lingüística? El aprendizaje automático y los enfoques estadísticos (en lugar de enfoques basados ​​en reglas) han producido desarrollos importantes en el área de la tecnología del lenguaje en las últimas décadas. ¿Cree que la tecnología en general (y el aprendizaje automático en particular) nos ayudarán a obtener información sobre cómo funciona el lenguaje?
El aprendizaje automático ha producido algunos dispositivos útiles, prácticamente por fuerza bruta. Tenemos que preguntarnos si el propósito de los proyectos de aprendizaje automático es la ingeniería —la construcción de algo que sea útil— o la ciencia para ganar comprensión. Si es lo primero, no hay nada que decir; eso está bien, pero no tiene más interés. Si es esto último, surgen preguntas de inmediato. Tomemos como ejemplo el parser de Google, que se acompaña de afirmaciones triunfantes de que el problema del análisis (el problema de la percepción del lenguaje) se ha resuelto. ¿Es así? En realidad, el analizador Google no nos dice absolutamente nada sobre cómo los humanos perciben e interpretan el lenguaje, y el proyecto está diseñado de una manera que no tiene ninguna relación con la ciencia. Lo mismo es cierto para muchas otras afirmaciones que pretenden causar impresión. Los enfoques estadísticos son otra cosa. Sugerí tales enfoques a mediados de los años cincuenta para determinar las palabras de los textos, lo cual no funcionó como esperaba, y sostuve en ese momento que tales enfoques deberían ser valiosos para el estudio de la adquisición y la percepción (parsing). Ese ha resultado ser el caso. Los ejemplos más llamativos que conozco son el trabajo de Charles Yang sobre modelos probabilísticos de adquisición y, en particular, sobre la determinación del límite entre sistemas basados ​​en reglas y listas de irregularidades, una contribución importante para distinguir lo que se había llamado núcleo del lenguaje (que se contraponía a la periferia). Pero hay que tener cuidado, particularmente en estas áreas, para distinguir la propaganda, que abunda, del logro, que es más limitado.

 

Inagotable lingüista, intelectual y activista político

Chomsky

Es el autor vivo más citado en la actualidad y ocupa el séptimo lugar entre los de todos los tiempos, por detrás de Marx, Lenin, Shakespeare, Aristóteles, Platón y Freud. Noam Chomsky es una figura central de la lingüística y un gran referente en otras áreas del conocimiento como la filosofía, la política, las matemáticas, la comunicación, el pensamiento o el activismo.

Avram Noam Chomsky nació el 7 de diciembre de 1928 en Filadelfia, en el seno de una familia judía. Fue su padre quien dirigió sus pasos hacia la lingüística y Noam estudió en la Universidad de Pensilvania, donde se doctoró en Filosofía y Lingüística en 1955, el mismo año que ingresó en el Massachusetts Institute of Technology (MIT), donde tiene una cátedra en Lingüística y Filosofía desde 1961. Chomsky es poco mitómano, pero admira a Bertrand Russell, de hecho su despacho del MIT estaba presidido por un gran póster del matemático británico. Militante de la izquierda intelectual, se ha destacado por su decidida oposición a la política exterior de EE. UU., lo que le ha llevado a protagonizar sonadas polémicas. Además de por su extensa obra —lengua, política, psicología, comunicación…— es reconocido en todo el mundo por el valor de sus opiniones políticas, reflejadas en obras como Los guardianes de la libertad (1990) o Estados canallas: el imperio de la fuerza en los asuntos mundiales (2002).

Ha escrito más de un centenar de obras, y sigue muy activo pese a haber cumplido ya 91 años. Ahora vive en Arizona, en plena naturaleza aunque en permanente contacto con la actualidad política y social. No usa móvil, aunque se comunica a través del correo electrónico con otros lingüistas e intelectuales, con quienes sigue escribiendo artículos y participando en congresos. En 2019 recibió el premio Fronteras del Conocimiento de la Fundación BBVA. Sería imposible entender la historia de la lingüística sin la aportación de Chomsky —aunque cuente también con muchos detractores—. Y él sigue imparable, escribiendo, respondiendo entrevistas… y actuando ante cualquier causa que considera injusta.

Leer a Chomsky

libro

‘Estructuras sintácticas’
La primera obra de Noam Chomsky fue una auténtica revolución en la lingüística y en la ciencia cognitiva. Cuestiona los fundamentos de la lingüística y propone un modelo en el que la gramática está directamente conectada con la creatividad del hablante, cuya intuición de la estructura de la lengua le permite distinguir las construcciones correctas y crear infinidad de nuevas frases.
Editorial De Gruyter
Páginas: 117

 

‘La arquitectura del lenguaje’

libro

En esta obra Chomsky reflexiona sobre la historia de la gramática generativa e integra en su relato cuestiones filosóficas y conceptuales, además de investigaciones empíricas. Incluye un interesante debate entre reputados profesores universitarios que debaten sobre cuestiones como la adquisición del lenguaje, la teoría del lenguaje o la capacidad de la mente para procesarlo.
Editorial Kairos
Páginas: 114

 

La opinión de Ángel J. Gallego: El legado de Chomsky -o cómo (aprender a) sorprenderse de lo cotidiano

Esta entrevista es uno de los contenidos del número 7 de la publicación trimestral impresa Archiletras / Revista de Lengua y Letras.
Si desea suscribirse o adquirir números sueltos de la revista, puede hacerlo aquí https://suscripciones. archiletras.com/