(El capítulo anterior de la serie puede leerse aquí)
Como ya vimos en capítulos anteriores, la clasificación de Chomsky de las gramáticas situaba a las de libres de contexto (de tipo 2) en un orden inferior a las transformacionales ya que, según él, no permitían la generación de todas las oraciones de los idiomas naturales y no permitían capturar generalizaciones.
Los trabajos de Pullum y Gazdar vinieron a contradecir este concepto. Hicieron ver que no existían pruebas de que frases de las lenguas naturales no pudieran ser descritas con gramáticas libres de contexto y, cuando menos, que la enorme mayoría de las expresiones podían generarse con las mismas. Siendo las gramáticas libres de contexto más sencillas de tratar informáticamente, el que eventualmente algún extraño caso quedara fuera de las mismas no disminuía su valor práctico.
Una de las primeras gramáticas libres de contexto desarrolladas fue la Generalized Phrase Structure Grammar o GPSG que en español suele denominarse Gramática de estructura sintagmática generalizada
GPSG rechaza los dos niveles, profundo y superficial, que propugnaban las gramáticas transformacionales que para esta teoría no dejan de ser cábalas no justificadas científicamente. Es por lo tanto, monoestratal. Cada oración tiene una única representación sintáctica. Para explicar la enorme casuística del idioma, Gazdar, Gunji y Pullum recurrieron a introducir la recursividad, es decir, en vez de definir el lenguaje mediante una serie de reglas fijas y transformaciones, se establecen una serie de principios que describen las generalizaciones posibles. En concreto, GPSG crea el formato ID/LP (Inmediate Dominance, Lineal Precedence) e introduce las metarreglas, un concepto que llegaba de los sistemas expertos de la inteligencia artificial. La gramática GPSG adopta la Teoría X-barra que ya hemos visto en capítulos anteriores.
A diferencia de las gramáticas transformacionales que defendían una innata capacidad sicológica para le lenguaje y una norma universal subyacente en todos los idiomas, la GPSG rechaza toda interpretación neuronal y hace énfasis en el lenguaje formal que describe la gramática que constituye, de hecho, el elemento universal más que una gramática innata.
ID/LP
En español se denomina como formato Dominio inmediato/Precedencia lineal.
Se define Dominio Inmediato como la relación existente entre un nodo del árbol sintáctico y sus nodos hijos que están inmediatamente debajo de él. Su nomenclatura es:
A -> B, C, D ( y se admite que alguno de los componentes de la derecha pueda no existir)
Que gráficamente equivaldría a:
Las reglas ID especifican los términos de una oración y las relaciones de dominancia entre ellas.
Se define Precedencia lineal como el orden posible entre categorías hermanas, es decir entre las que aparecen en un nivel del árbol. Se nombra con el símbolo “<”: A<B (A precede a B)
La precedencia lineal no está ligada a reglas concretas sino que es válida para toda la gramática.
Expliquemos cómo afectaría una regla LP a una ID . Sea la regla GPSG:
A->B,C,D (por ejemplo SN-> DET, N, Adj
Con esta reglas podemos crear seis árboles que corresponden a las posibles permutaciones de los componentes del lado derecho de la regla.
Primero, vemos que respecto a otro tipo de gramáticas hemos conseguido una simplificación notable ya que esa sola regla sustituye a seis. Pero, además, es evidente que la regla es tan potente que genera oraciones cuyo orden es incorrecto. ¿Cómo limitarla? Con las reglas LD. Si, por ejemplo, tenemos, una regla LD del tipo:
B<C
Que recordemos se aplicaría a todas las reglas generadas desde el nivel ID. Como, de acuerdo a esta última regla LD, “B” siempre debe preceder a “C” , los únicos árboles válidos serán estos tres:
Apliquemos estos conceptos. Sea la regla ID:
SN-> Art, N, Adj, SP, OREL
y las reglas LD:
N<SP
N<OREL
Observamos que estas tres reglas nos producen muchas oraciones válidas (que antes habría que haber escrito una a una), como:
SN->Art+N
SN->Art+N+Adj
SN->Art+N+OREL
Pero es que además, permite el sintagma nominal:
SN->Art+Adj+N+Adj ya que se permite la ubicación de los componentes en cualquier lugar siempre que lo permitan las reglas de precedencia lineal. Y en el ejemplo no hay ninguna regla LD que diga que no puede haber un adjetivo antes que el nombre
Y, claro, no permite, por ejemplo:
SN->SP+N+Adj
Se observa que esta forma de definir la gramática sí está permitiendo generalizaciones. Que el nombre deba preceder a la oración de relativo (en el ejemplo) es una generalización que puede aplicarse a cualquier otra regla sin necesidad de escribir todas las combinaciones posibles,
Las metarreglas
Las metarreglas son reglas que reflejan generalizaciones sobre las relaciones entre estructuras. Una metarregla proyecta un conjunto de reglas ID sobre otro conjunto.
Supongamos, por ejemplo, que tenemos un conjunto de de reglas que generan las oraciones activas. Podemos tener, asimismo, otro conjunto de reglas que generan esas mismas oraciones en pasiva. Ahora bien, si analizamos ambos conjuntos veremos que muchos des sus constituyentes se repiten y que, muchas veces, sólo cambia el orden o pequeños detalles. Entonces, en vez de tener dos conjuntos complejos podríamos disponer de sólo el conjunto que describe la voz pasiva y definir unas metarreglas externas que indiquen cómo se construye la reglas pasivas desde las reglas activas, sin necesidad de duplicarlas.
Las metarreglas no son transformaciones. Aquellas proyectan reglas sobre reglas; estas describen el paso de una sentencia a otra.
Un ejemplo de esto es el tratamiento de las pasivas en inglés:
John sells a book
A book is sold by John
SV-> X, SN
SV(PASIVA)-> X, (“by”, SV)
O lo que es lo mismo: si existe una regla que define el sintagma verbal transitivo activo como una serie de componentes X seguido de un sintagma nominal, entonces la metarregla dice que habrá un sintagma verbal pasivo que tome esa misma serie de componentes y las haga eventualmente seguir por “by” y el sintagma verbal, para formar la pasiva. Así, de He sells the book” podríamos llegar a The book is sold by him
Instanciación
La instanciación de rasgos, tal como se entiende en GPSG, establece la relación existente entre árboles locales y reglas ID. No hay que confundirla con la unificación que vimos en un capítulo anterior aunque se le parece. La instanciación asigna rasgos a las categorías de un árbol siempre que no se violen otras reglas de la gramática.
El rasgo HEAD
En español, se le suele llamar Núcleo. Se trata de la categoría que rige la oración. Del núcleo se traspasan rasgos hacia arriba en el árbol. A la hora de interpretar una regla ID es vital determinar cómo se relacionan los rasgos de las categorías madres con los de las categorías hijas. Por ejemplo, las características de un sintagma nominal vienen determinadas en gran medida por los rasgos del nombre (núcleo nominal); las de un sintagma verbal por los rasgos de su verbo, etc. Así.
Cabría pensar que, para cada regla, sería preciso definir estas matrices que determinan qué rasgos se comparten. Esto sería muy engorroso de tratar informáticamente y, por ende, precisaría una gran cantidad de memoria.
La gramática GPSG toma a este núcleo como un rasgo complejo especial (al que llamaremos HEAD) que contenga todos esos rasgos esenciales podremos generalizar diciendo que para todo sintagma los rasgos de su núcleo deben ser compartidos entre el nodo madre y los nodos hijos. Nos ahorraremos así tener que rescribir cada uno de ellos. El núcleo determinará el resto, esté explicitado o no.
GPSG define que los valores de los rasgos en HEAD del nodo núcleo tienen que coincidir con los valores de los rasgos respectivos en HEAD del nodo madre. Es lo que se llama Convención del rasgo HEAD. O dicho de un modo simplificado, en una regla que termine el sintagma nominal SN-> DET,N en donde la categoría N tiene unos rasgos determinados (es sustantivo, no es verbo, caso nominativo, número plural, género femenino, etc), la categoría madre SN tendrá exactamente las mismas especificaciones de rasgos que el núcleo N.
El rasgo complejo HEAD suele contener los rasgos de concordancia y de tiempo entre otros. Esta convención impone la identidad por defecto pero pueden existir otras reglas o metarreglas que hagan que la convención pueda no cumplirse. Es decir, es por defecto, secundaria respecto a otras directivas.
Llamemos al núcleo H (de HEAD) y supongamos las reglas:
O->SN, H[-SUBJ] (el rasgo SUBJ define si puede ser sujeto (+) o no puede serlo (-))
SN->DET, H
N->H
La regla O[+PLU]->SN[+PLU], H[-SUBJ, +PLU] sería correcta porque por un lado hereda los rasgos del head y por otro es coherente en el rasgo PLU, pero la regla O[-SUBJ]->SN, H[-SUBJ] sería incorrecta porque el rasgo del núcleo se instancia hacia arriba y sólo puede serlo hacia abajo.
Existen, en GPSG, restricciones a la forma en que los rasgos se instancian. Por ejemplo, se tiene el FCR (Feature co-occurence Restriction) y el FSD (Feature Specification Default). Unas restricciones de este tipo podrían ser:
FCR1: [VFORM] <- a="" afecte="" al="" bien="" como="" con="" cual="" de="" debe="" deber="" ejemplo="" el="" es="" estar="" fcr4:="" instanciaci="" l="" la="" lo="" n="" nombre="" o="" obvio="" por="" que="" rasgo="" rasgos="" referirse="" relacionado="" restringir="" se="" span="" tiempo="" un="" verbal.="" verbal="" verbo.="" y="" ya="">->
El léxico en GPSG
GPSG asume que una entrada léxica debe contener información sobre las forma fonológica, la categoría sintáctica, el significado y las formas amorfas existentes. Para empezar, GPSG asume que las categorías principales sintácticas pueden ser expresadas por la combinación de dos rasgos (features) llamados nominal y verbal del modo siguiente:
GPSG asume que una entrada léxica debe contener información sobre las forma fonológica, la categoría sintáctica, el significado y las formas amorfas existentes. Para empezar, GPSG asume que las categorías principales sintácticas pueden ser expresadas por la combinación de dos rasgos (features) llamados nominal y verbal del modo siguiente:
GPSG define una treintena de rasgos fundamentales (N, V, PER, CASE, COMP, ADV. AUX, SLASH, SUBCAT, VFORM, WH, POSS; NULL, NEG, GER, etc) que se reservan para determinar cada entrada léxica y que, para entendernos, vienen a ser como las palabras reservadas de un lenguaje de programación de ordenadores (recordemos, por ejemplo, en BASIC las palabras GOTO, PRINT, REM, END, WRITE, OPEN…). Queda fuera de este post explicar cada uno de ellos.
Por ejemplo, una forma de expresar las entradas léxicas de manera entendible por una computadora sería:
<vender, [[-N][+V][BAR 0][SUBCAT 1]],{}, ‘vender’>
<libro, [[+N][-V][BAR 0][SUBCAT 3]],{},’libro’>
<dar,[[-N][+V][BAR 0][VFORM BSE][SUBCAT 3]],’dar’>
Dependencias a larga distancia
GPSG puede dar también cuenta de las dependencias a larga distancia. Estas dependencias se controlan por los rasgos SLASH; WH y RE y con el principio FFP (Foot Features Principle) similar a la Convención Head pero siendo el foot transmitido des los nodos adyacentes al núcleo.
Críticas a la GPSG
Actualmente, bastantes autores critican la gramática GPSG como no suficientemente potente para describir las lenguas naturales. Así, Berwick, Weinberg, Ristad, Barto, etc. O González Escribano cuando que escribe en términos generales, no parece que hoy por hoy la GPSG pueda ser seriamente considerada como una alternativa viable al paradigma chomskiano, pese al indudable atractivo preliminar […] el formato ID+LP no es siquiera una estrategia descriptiva eficiente para lenguas como el español
No obstante, la GPSG ha producido interesante software.
To be continued….
(El capítulo siguiente de esta serie puede leerse en este enlace)
0 comentarios :
Publicar un comentario