Diferencia entre revisiones de «Modelos Formales No Transformacionales 2021»
Línea 165: | Línea 165: | ||
− | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Chomsky, N. 1957. </span><span style="color:#000000;">''Estructuras sintácticas.</span><span style="color:#000000;"> </span>México, SigloXXI<span style="color:#000000;">. (hay diversas ediciones en español) | + | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Chomsky, N. 1957. </span><span style="color:#000000;">''Estructuras sintácticas.</span><span style="color:#000000;"> </span>México, SigloXXI<span style="color:#000000;">. (hay diversas ediciones en español)</span></div><div style="margin-left:0in;margin-right:0in;"> |
+ | |||
+ | <span style="color:#000000;">Eguren</span>, L. y Fernández Soriano, O. 2004. ''Introducción a una sintaxis minimista''. Madrid, Gredos. Cap.1'''</div> | ||
<div style="margin-left:0in;margin-right:0in;"><span style="background-color:#ffffff;color:#000000;">Grune, D. y Jacobs, C</span><span style="background-color:#ffffff;color:#000000;">'''. '''</span><span style="color:#5a5a5a;"><span style="background-color:#ffffff;color:#000000;">''Parsing Techniques. A practical guide''</span></span><span style="background-color:#ffffff;color:#000000;">.Amsterdam, Springer, 2008</span></div> | <div style="margin-left:0in;margin-right:0in;"><span style="background-color:#ffffff;color:#000000;">Grune, D. y Jacobs, C</span><span style="background-color:#ffffff;color:#000000;">'''. '''</span><span style="color:#5a5a5a;"><span style="background-color:#ffffff;color:#000000;">''Parsing Techniques. A practical guide''</span></span><span style="background-color:#ffffff;color:#000000;">.Amsterdam, Springer, 2008</span></div> | ||
<div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;">Jurafsky, D y Martin, J. 2000. </span><span style="color:#000000;">''Speech and language processing''</span><span style="color:#000000;">. New Jersey. </span><span style="color:#000000;">Prentice-Hall. caps. 2 y 9</span></div> | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;">Jurafsky, D y Martin, J. 2000. </span><span style="color:#000000;">''Speech and language processing''</span><span style="color:#000000;">. New Jersey. </span><span style="color:#000000;">Prentice-Hall. caps. 2 y 9</span></div> | ||
Línea 218: | Línea 220: | ||
<div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Jurafsky, D y Martin, J. 2000. </span><span style="color:#000000;">''Speech and Language Processing''</span><span style="color:#000000;">. New Jersey. Prentice-Hall. caps. 1, 10, 15, 21'''</span></div> | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Jurafsky, D y Martin, J. 2000. </span><span style="color:#000000;">''Speech and Language Processing''</span><span style="color:#000000;">. New Jersey. Prentice-Hall. caps. 1, 10, 15, 21'''</span></div> | ||
− | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Manning, C. y Schütze H. 1999. </span><span style="color:#000000;">''Foundations of Statistical Natural Language Processing''</span><span style="color:#000000;">. The MIT Press. Cambridge (Massachusetts). cap. 1</span><span style="color:#000000;"> | + | <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;"></span><span style="color:#000000;"> </span><span style="color:#000000;">Manning, C. y Schütze H. 1999. </span><span style="color:#000000;">''Foundations of Statistical Natural Language Processing''</span><span style="color:#000000;">. The MIT Press. Cambridge (Massachusetts). cap. 1</span><span style="color:#000000;"> </span></div>* <div style="margin-left:0in;margin-right:0in;"><span style="color:#000000;">Redington M. et al. 1998. "Distributional information: a powerful cue for acquiring syntactic categories". En </span><span style="color:#000000;">''Cognitive Science''</span><span style="color:#000000;"> Vol 22 (4) 1998. pp. 425-469.</span></div> |
Revisión del 20:10 8 ago 2021
UNIVERSIDAD DE BUENOS AIRES
FACULTAD DE FILOSOFÍA Y LETRAS
DEPARTAMENTO DE LETRAS
MATERIA: MODELOS FORMALES NO TRANSFORMACIONALES
RÉGIMEN DE PROMOCIÓN: EF
CUATRIMESTRE y AÑO: 2º CUATRIMESTRE DE 2021
CÓDIGO N° 0581
PROFESOR: MIGUEL VEDDA (DIRECTOR DEL DEPARTAMENTO)
EQUIPO DOCENTE:
JEFE DE TRABAJOS PRÁCTICOS REGULAR: BALBACHAN, FERNANDO
AYUDANTE DE 1º CATEGORÍA REGULAR: CARRANZA, FERNANDO
a. Fundamentación y descripción
En la tradición de la lingüística formal, se le reconoce a la obra de Chomsky Estructuras Sintácticas (1957) un rol fundacional. Una de las principales tesis del modelo del ´57 se refiere a la complejidad de los lenguajes naturales, proponiendo a la sintaxis como un componente autónomo que genera oraciones mediante reglas de estructura de frase –también conocidas como Gramática Independientes de Contexto (Context Free Grammar, CFG) – y la aplicación a posteriori de reglas transformacionales.
El presente programa ha sido pensado para alumnos tanto de la carrera de Letras de la orientación en Lingüística como de la carrera de Filosofía con orientación en Lógica, y para todos aquellos que tengan un fuerte interés en el estudio de la estructura sintáctica y del lenguaje natural y, en especial, en los alcances de la utilización de los modelos formales para el abordaje del mismo.
b. Objetivos
El objetivo fundamental de este curso es centrarse en el relevamiento minucioso de las teorías gramaticales NO transformacionales que evolucionaron a partir de la primera gramática chomskyana y que representan una importante línea de investigación en Procesamiento de Lenguaje Natural o Natural Language Processing (NLP), poniendo especial énfasis en las propiedades formales, poder expresivo y limitaciones de cada modelo en el estado del arte. Asimismo, se busca que el alumno trabaje con los rudimentos de implementaciones de dichas gramáticas bajo la forma de parsers (analizadores sintácticos), demostrando aplicaciones prácticas en español de los modelos teóricos.
c. Contenidos
La materia será dictada en 5 unidades que delinean un preciso recorrido teórico a través de los Modelos Formales No Transformaciones, desde sus orígenes en la lingüística chomskyana hasta las propuestas más recientes que evidencian marcadas mejoras en el Procesamiento de Lenguaje Natural y que atestiguan un cambio de paradigma científico desde los modelos simbólicos a los enfoques estadísticos y, más recientemente, hasta los modelos basados redes neuronales. Adicionalmente, el curso inlcuye una reflexión integral acerca de las implicancias lingüísticas y epistemológicas de una teoría gramatical.
Unidad I: Bajo la égida de Chomsky
Se introducirán la obra fundacional de Chomsky y las nociones formales con las que se ha de trabajar más adelante. Puntualmente se expondrá la jerarquía chomskyana respecto de las gramáticas (desde las más simples modelos de autómata a las Máquinas de Turing, pasando por las Gramáticas Independientes de Contexto CFG). A su vez se expondrán las limitaciones en el poder expresivo de cada una de las Gramáticas, recurriendo tanto a lenguajes formales como a lenguajes naturales: por ej. el problema de la recursividad en la gramáticas de autómata y la concordancia básica sujeto-verbo y el orden variable de constituyentes en las CFGs.
Unidad II: La superación del modelo chomskyano
Se desarrollarán modelos formales alternativos a la CFG que trabajan con predicados lógicos de primer orden y el operador lógico Unificación. En particular se presentará la Gramática de Cláusula Definida – Definite Clause Grammar (DCG). Se puntualizará su utilidad como la primera propuesta de superación de las limitaciones expresivas de las Gramáticas Independientes de Contexto, aunque también se marcarán los problemas detectados en este tipo de modelos: por ej. la concordancia sujeto-verbo y la subcategorización verbal en español.
Unidad III: Modelos optimizados fuera del área de injerencia chomskyana
Se abordarán las gramáticas basadas en la estructura de rasgos (features). El gran salto cualitativo que representan estas gramáticas respecto del paradigma chomskyano es que intentan resolver los problemas tradicionales de los lenguajes naturales -como constituyentes discontinuos u orden variable en español- a través de operaciones de unificación de matrices de features, propiedades de herencia y restricciones de linealidad. Específicamente se trabajará con la gramática denominada Gramática de Estructura de Frase gobernada por Núcleos Head-driven Phrase Structure Grammar-HPSG, desarrollada por Ivan Sag.
1.- El concepto de rasgo (feature)
2.- Matriz de feature
4.- Head-driven Phrase Structure Grammar-HPSG Aplicaciones en español
Unidad IV: El paradigma estadístico
El paradigma estadístico aplica diversas técnicas probabilísticas a grandes corpora de entrenamiento, con vistas a inducir categorías y fenómenos específicos del lenguaje natural a partir de la detección de patrones estadísticamente significativos en la tabula rasa que constituyen los corpora. Sin embargo, el paradigma estadístico es más que una mera aplicación de técnicas y modelización matemática: estos enfoques aportan evidencia de plausibilidad psicolingüística a un renovado debate acerca de la naturaleza misma del lenguaje.
1.1 Cadenas de Markov y la equiparación de probabilidad y gramaticalidad
2.- El debate epistemológico en torno al Argumento de la Pobreza de los Estímulos (APS). La investigación actual sobre corpus
2.1 Anotación morfosintáctica de corpus
2.3 Aprendizaje automático o machine learning
Unidad V: El paradigma conexionista de redes neuronales
Evolución histórica hacia los modelos actuales de redes neuronales: validación translingüística y adaptación a diferentes dominios. Estado del arte y vigencia de los algoritmos de deep learning en múltiples tareas estándares del campo disciplinar.
1.- ¿Qué es una red neuronal?
1.2 Arquitecturas recientes en deep learning
2.- Diferencias epistemológicas y plausibilidad psicolingüistica para los modelos formales no transformacionales. Parsing y Procesamiento de Lenguaje Natural dentro de la Lingüística Computacional
d. Bibliografía específica (subrayada la bibliografía obligatoria)
Unidades II y III
*
Unidad IV
*
Unidad V
*
Bibliografía general