(El capítulo anterior de esta serie puede leerse aquí)
La búsqueda de gramáticas que describieran formalmente el lenguaje tomó impulso con los trabajos de Noam Chomsky (en la fotografía superior) en los años cincuenta y sesenta del siglo XX.
Hasta entonces, la gramática era descriptiva. Las técnicas del análisis sintáctico definían cada componente de la frase pero no se abordaba la cuestión fundamental: ¿Cómo el hablante ha conseguido crear una frase correcta, incluso cuando jamás antes ha escuchado la misma?. Un asunto que, como señalaba Chomsky, era algo auténticamente misterioso. Chomsky se percató, también, de que el individuo es capaz de generar infinitas frases diferentes a partir de un conjunto finito de palabras y construcciones fundamentales. De hecho esta capacidad es el fundamento de la literatura. Como hablantes o escritores no nos limitamos a repetir frases que ya hemos escuchado, sino que las creamos en función de las necesidades de cada momento. Y, a la inversa, como oyentes, sabemos que son correctas y entendemos las oraciones que los otros enuncian, o escriben, a pesar de no haberlas leído o escuchado antes.
Estas reflexiones condujeron a desarrollar gramáticas que ya no eran explicativas sino que debían dar cuenta de la generación de oraciones correctas, es decir condujeron a las gramáticas generativas. Asimismo, introdujo una visión conceptual muy distinta sobre el lenguaje. Mientras que, hasta Chomsky, predominaba la idea de que la mente del niño era una pizarra en blanco que iba llenándose con los modelos que escuchaba a su alrededor (visión conductista del lenguaje), Chomsky afirma que debe existir un conocimiento formal, previo a la experiencia, que permite al cerebro manejar la lengua correctamente aún cuando no haya oído la gran mayoría de las frases posibles con anterioridad. También, todo esto implicaba que la gramática podía dejar de estudiar extensos corpus de una lengua para centrarse en las reglas internas inherentes.
En los años sesenta del siglo pasado se asiste a una revolución en cómo se entiende el lenguaje y la gramática. El propio Chomsky desarrolla el primer modelo – llamado estándar- que rápidamente se ramifica en otros varios. Desde entonces, se han desarrollado muchos otros, entre los que se pueden destacar:
Gramáticas generativas o sintagmáticas
Estas se pueden subdividir en dos grandes grupos, como son las gramáticas de transformación y las de unificación y rasgos.
- Gramáticas de estados finitos.
- La teoría estándar (ST o TGG) y la estándar extendida basadas en las ideas iniciales de Chomsky.
- La teoría minimalista (MP).
- La teoría GB (Government and Binding), traducida al español de forma un tanto forzada, por teoría de rección y ligamiento.
- Semántica generativa (GS).
- La gramática relacional (RG).
- La gramática APG (Arc Pair gramar).
- La gramática LFG (Lexical- functional Grammar).
- La gramática GPSG (Generalised Phrase Structure Grammar) o gramática de estructura sintagmática generalizada.
- La gramática HPSG (Head driven Phrase Structure Grammar) p gramática sintagmática nuclear.
- Gramática FUG(Functional Unification Grammar)
- Gramática TAG (Tree-adjoining grammar).
- Gramáticas IG (Indexed Grammars).
Gramáticas estocásticas
- Gramática OT (Optimality Theory).
- Gramática SCFG.
Gramáticas de dependencias
- Sintaxis algebraica.
- Gramática de las palabras.
- Gramática operativa.
Gramáticas funcionalistas
- Gramática funcional.
- Gramática de Praga.
- Gramática cognitiva.
- Gramática funcional sistémica.
- Gramática constructivista.
- Gramática de rol.
Queda fuera del alcance de estos posts el profundizar en cada una de ellas (y, con seguridad, más allá de mis conocimientos) pero podremos indicar algunos conceptos básicos.
La jerarquía de Chomsky
Chomsky definió la jerarquía de gramáticas del siguiente modo:
Gramáticas del tipo 0
Son aquellas que no tienen ninguna restricción y que engloban a todas las demás. Permiten toda clase de flexibilidades expresivas, recursividad, frases complejas, solventan la ambigüedad, etc.
Gramáticas del tipo 1
Son gramáticas que permiten reglas de formación del tipo
aAb -> agb
donde A es un elemento no terminal (es decir que requiere ser desglosado en subtérminos como le puede ocurrir, por ejemplo, a un SN) y las letras minúsculas son o no son terminales. "g" debe ser no vacío.
Este tipo de gramáticas del tipo 1 se llaman dependientes del contexto porque, - a partir de la ecuación que define la regla-, A puede ser sustituido por g si y sólo si A y g están acompañadas por a por la izquierda y b por la derecha (no existe la propiedad conmutativa). Es decir, no siempre puede darse la sustitución sino sólo en ciertos contextos.
Gramáticas del tipo 2
Son gramáticas que permiten reglas de formación del tipo
A->g
Donde A es un elemento no terminal y g es una cadena combinada de términos terminales y no terminales (por ejemplo, “N SV SP”).
Estas gramáticas del tipo 2 se llaman independientes del contexto porque como se observa, – a partir de la ecuación que define la regla-, A puede ser sustituido por g cualquiera que sea lo que lo rodea (de hecho, no hay nada rodeando a la cadena).
Gramáticas del tipo 3
Son gramáticas que permiten reglas de formación del tipo
A->tB
A->t
Donde las letras mayúsculas (A, B) indican elementos no terminales (es decir que requieren ser subdivididas en otros elementos ) y las minúsculas indican elementos terminales (que ya no requieren subdivisión).
Estas gramáticas de tipo 3 se llaman regulares y son las que pueden ser evaluadas por un algoritmo sencillo del tipo autómata finito.
Gráficamente, las gramáticas de tipo 0 engloban a las del tipo 1, estas a las del 2 y así sucesivamente.
Ni que decir tiene que las más sencillas de implementar en un ordenador son las del tipo 3 y las más complicadas las del tipo 0.
Hoy en día se piensa que las gramáticas del tipo 2, independientes del contexto, son suficientes para analizar y generar una amplia cantidad de casos que aparecen en una lengua sin necesitar recurrir a gramáticas superiores mucho más complejas y, por ello, han recibido un alto grado de atención y desarrollo.
Gramáticas de estados finitos
También llamadas gramáticas de cadenas de Markov, redes de transición o gramáticas regulares. Son las más sencillas, como se ha visto en la jerarquía anterior. Se trata de gramáticas que pueden ser plasmadas en algoritmos sencillos secuenciales (máquina de estados finitos) en un ordenador y que se fundamentan en ir recorriendo una cadena de reglas, cumpliéndolas hasta dar con una frase generada correcta.
En estas gramáticas, como dijimos, las reglas son del tipo:
A->tB
A->t
Donde las letras mayúsculas (A, B) indican elementos no terminales (es decir que requieren otro elemento posterior) y las minúsculas indican elementos terminales (que ya no requieren nada después). Por ejemplo, una regla de este tipo sería:
O->"una" NON
El programa iniciaría su búsqueda de frases con “una” y buscaría después una regla NON que forzosamente ha de seguirla.
Veamos un conjunto de reglas de una gramática de este tipo, a título de ejemplo:
O->una NOM
NOM-> mujer VER
NOM-> vaca VER
VER -> muge END
VER-> habla END
END ->
Este conjunto de reglas puede también plasmarse mediante un grafo:
¿Cómo funcionaría un ordenador generando frases con esta gramática de estados finitos?
Supongamos que introducimos la primera semilla, “una”.
El algoritmo encontraría que en su base de datos hay reglas que permiten comenzar por la palabra “una”. Arrancaría el proceso, llegaría al primer nodo (NOM) y encontraría dos rutas a seguir, añadiendo “mujer” y “vaca” a la frase que está construyendo. Continuaría su recorrido y llegaría al nodo VER en donde volvería a encontrar dos ramales y podría generar:
Una mujer habla
Una vaca muge
Una mujer muge
Una vaca habla
Ya vemos que un ordenador dejado al albur de un algoritmo tan sencillo puede generar muchas frases lícitas pero también muchas ilícitas por lo que pecaría de sobregeneración. Además, si la semilla inicial hubiese sido “un”, el algoritmo se hubiera detenido nada más comenzar al no hallar regla alguna que empezara con “un”.
Es evidente que los grafos pueden ser mucho más complejos y no limitarse a dos ramales por nodo. Por ejemplo:
Una red de este tipo puede llegar a ser realmente amplia e intratable para un ser humano. Pero para un ordenador es precisamente una tarea idónea que se puede calcular en microsegundos.
Los algoritmos de este tipo no pueden procesar la recursividad que vimos en el capítulo anterior ya que, una vez situados en un nodo, deben seguir hacia adelante sin ser capaces de evaluar cuántas veces se ha de retroceder. Asimismo, tienen dificultades para tratar oraciones que no están secuencialmente ligadas, como son las de relativo.
Aunque desde un punto de vista teórico estas gramáticas tienen demasiados puntos débiles al no poder categorizar muchas posibles estructuras gramaticales, son ampliamente usadas dado que, en la práctica, el habla cotidiana se ciñe precisamente a estructuras sencillas. La aplicación de este tipo de programas en el análisis morfológico es ya común y puede presentar resultados razonables.
Evidentemente, si pensamos en literatura digital de calidad, necesitaríamos precisamente sentencias menos comunes, más elaboradas, ricas, y esta gramática se nos quedará corta.
Gramática TGG estándar
A partir de los postulados anteriormente citados, Chomsky propugnó el concepto de que todos los lenguajes deberían tener una estructura neuronal similar, aún cuando la manifestación superior, externa, sea bien distinta entre unos idiomas y otros. Sólo así podría explicarse la capacidad de un niño para adquirir un lenguaje, cualquier lenguaje. Estrictamente, no defendió que todos los idiomas compartieran las mismas reglas (una gramática universal) sino que, si se llegara a comprender el nivel profundo de todos ellos, se encontrarían considerables similitudes y propiedades comunes.
Según Chomsky, en el dominio de una lengua hay que distinguir entre la competencia y la actuación de hablantes y de oyentes. La competencia es el conocimiento que se posee de la lengua y que permite emitir y entender mensajes. Por otro lado, la actuación es el empleo concreto que hace de tal competencia. Así, Chomsky señala que la gramática debe ser una teoría de la competencia de los hablantes. Es decir, la gramática debe explicar y formalizar las reglas gramaticales que aplica implícitamente el hablante-oyente aunque no sea consciente de que existe.
En el modelo estándar, la gramática tiene dos niveles bien diferenciados.
Por un lado, el nivel profundo (d-structure) que contiene las reglas sintácticas innatas mediante oraciones activas, declarativas, positivas y canónicas a partir de las cuales se realiza la interpretación semántica. Es decir, en este estructura profunda, el conocimiento se expresa de manera sencilla, diríamos que sin matices, directamente relacionado con los sentidos.
Por otro lado, se tendría un nivel superficial (s-structure) que expresaría el nivel profundo de una manera particular y diferenciada de acuerdo a cada idioma (como dónde se coloca el sujeto o los complementos, la flexión verbal,…). Colgando de este nivel – que es el que el individuo aprecia- se encuentran la fonética y la forma lógica que finalmente tomaría la frase.
La forma en que la estructura profunda se manifiesta en la superficial se concibe a través de transformaciones lo que da origen al nombre de esta gramática TGG (Transformational Generative Grammar).
Para comprender mejor este doble nivel propuesto por la teoría estándar, veamos un ejemplo. Sean las frases:
- El muy intenso frío heló los ríos
- El frío, que era intensísimo, heló el agua de los ríos
- El frío fue intensísimo. Los ríos se helaron.
- La razón de que se helará el río es que el frío fue muy intenso.
Aquí, las dos ideas claves en la estructura profunda son que el frío era intenso y que se helaron los ríos. Sobre estas dos ideas expresadas de manera directa, declarativa y positiva, que contienen el auténtico significado de la oración, pueden aplicarse transformaciones que muestran tales ideas de manera superficial muy distinta.
La idea de Chomsky es que esa expresión directa y declarativa de la idea será igual en todas las lenguas y sólo las diferentes transformaciones de cada una de ellas las hará aparecer diferente en la estructura superficial. Un hablante chino entenderá también en su innata estructura profunda que los ríos se helaron y que el frío era intenso.
La gramática TTG entiende que en la estructura profunda hay dos componentes: uno sintáctico y otro semántico. El componente sintáctico determina las reglas básicas del lenguaje, al estilo de las que hemos visto en capítulos anteriores: O-> SN SV; SN->DET N; etc. El semántico, por su parte, determina cuál es la interpretación profunda de expresiones superficiales distintas pero que tienen el mismo significado.
También es posible el caso inverso. Que a una única estructura superficial correspondan varias estructuras profundas en cuyo caso el oyente no sabrá exactamente con cuál quedarse y la apreciara como ambigua. Por ejemplo, si en español escuchamos Tomás encontró a María estudiando en la universidad, esta estructura superficial puede responder a todas estas estructuras profundas:
- Tomás estaba estudiando en la Universidad. María llegó y le encontró
- María estaba estudiando en la Universidad. Tomás llegó y la encontró
- Tomás y María eran estudiantes en la Universidad. Se encontraron durante sus estudios.
Es evidente que el éxito de una gramática estándar depende muy mucho de que todas las transformaciones posibles hayan sido formalizadas correctamente.
Las transformaciones sencillas son las que equiparan biunívocamente un concepto mental con una palabra (el léxico). Por ejemplo, un hablante alemán al ver una mesa tomará de su léxixo aquel que expresa ese concepto como “tisch” mientras que un hablante inglés activará el que la exprese como “table”. Otra transformación sencilla será la fonética (que en la teoría estándar se considera un sub-módulo independiente) que hará que un hablante inglés verbalice “teibel” al pensar en “table”. Otras serían las transformaciones que obligan, en ciertos idiomas, a la concordancia de género y número o a la flexión verbal. Igualmente, una transformación sencilla será la formación del interrogativo simple:
d-structure Pedro lee un libro de física
La regla de transformación para formar el interrogativo simple en español podría ser intercambiar las dos primeras palabras, con lo que tendríamos:
s-structure ¿Lee Pedro un libro de física?
Pero incluso en este sencillo ejemplo, sería preciso refinar la regla y complicarla ya que si tuviéramos la frase:
d-structure un hombre lee un libro de física
La regla de intercambio anterior fallaría:
s-structure ¿Hombre un lee un libro de física? , evidentemente errónea.
Si para algo tan elemental como el interrogativo se nos complica la transformación que no ocurrirá en las potenciales miríadas de transformaciones mucho más complejas. Por ejemplo, en el ejemplo anterior del intenso frío que hiela los ríos, ¿dónde se colocará el núcleo?. En español la transformación obligará al hablante a colocarlo normalmente al inicio de la oración: El frío era intenso pero en japonés sería al revés. O bien, la frase Mañana, cuando acabe la clase, iré a ver una película se transformaría en chino a Wŏ míngtiān xià le kè yĭhòu qù kàn diànyĭng (yo mañana acabar clase, (futuro) ir ver película . En la estructura profunda, tanto el individuo chino como el español tienen “mañana”, “tras la clase”, ”ver película”; pero la transformación es tan distinta que la estructura visible superficial es bien diferente.
En la práctica, las gramáticas de este tipo tienen una enorme cantidad de reglas transformacionales. De hecho, cada construcción sintáctica (oración pasiva, imperativos, colocación del núcleo, formación del infinitivo, relativos, etc.) necesita una distinta. Esta explosión de reglas tiene tres problemas. Por un lado, se hace difícil de entender, depurar y crear los algoritmos. Por otro, genera hipergeneración. Hay tantas reglas que la gramática genera multitud de frases que, en la realidad, nunca se dan. Y por último, y sobre todo, pone en duda el propio concepto chomskiano sobre la existencia de unas reglas profundas directas y universales ya que para modelar adecuadamente un idioma parece ser más importante el desarrollar todas las transformaciones que en plasmar la estructura profunda.
En algunos casos, se han propuesto siete grandes grupos de reglas y modelos universales que actuarían en la transformación desde el nivel profundo al lógico final. Sólo para citarlos, son:
- En todas las lenguas se cumple la teoría de X-barra (que veremos un poco más en detalle, en capítulos posteriores) que da cuenta de la configuración estructural de las frases.
- Se cumple la teoría de los paneles temáticos que da cuenta de qué elemento es activo y qué elemento es paciente en cualquier oración
- Se cumple la teoría de la rección que da cuenta de las dependencias entre las diversas palabras de la oración. Lo analizaremos también más adelante al revisar la teoría GB.
- Se cumple la teoría del Ligamiento que da cuenta de las relaciones autorreferentes de la frase.
- Se cumple la teoría de la Subyacencia que da cuenta de las restricciones que se aplican a la formación de frases
- Se cumple la teoría de control que explica la relación que se establece entre el sujeto de un verbo conjugado y un verbo en infinitivo
- Se cumple la teoría del caso que define el caso (nominativo, ablativo, acusativo, etc) de las palabras que integran la oración.
La teoría minimalista (MP)
El propio Chomsky se percató de estos problemas y, a partir de 1990, desarrolló una simplificación del modelo estándar para disminuir el número de transformaciones necesarias. Así, por ejemplo, se determina que las transformaciones sólo ocurren cuando son absolutamente necesarias. Igualmente, se define que las estructuras gramaticales deben tener una razón para ser usadas. Una estructura de una oración no debería ser más compleja que lo estrictamente requerido para cubrir las necesidades gramaticales. Por fin, en MP, la derivación de estructuras sintácticas debe ser uniforme, sin arbitrariedades.
Estos principios minimalistas, sin embargo, no son universalmente aceptados y menos cuando tratamos de textos literarios donde se dan transformaciones no necesarias o estrictamente requeridas a propósito, con un fin expresivo.
To be continued
(El capítulo siguiente de esta serie puede leerse en este enlace)
Los postulados de Chomsky tienen ya casi medio siglo y la gramática teórica necesita saltar otro escalón porque, de hecho, las gramáticas generativas aún no han podido logar un traductor correcto o un generador de novelas que valga la pena.
ResponderEliminar