Tm1Pepe
|
|
Título del Test:
![]() Tm1Pepe Descripción: tm tm tema temario |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál es la definición más precisa del Procesamiento del Lenguaje Natural (PLN) según los apuntes?. Una rama de la lingüística teórica que busca formalizar el lenguaje humano mediante el uso exclusivo de expresiones regulares. Una parte de la Inteligencia Artificial que formula mecanismos computacionales para facilitar la interrelación fluida entre hombre y máquina. El estudio de los lenguajes de programación de alto nivel para convertirlos en código binario inteligible para los usuarios no expertos. Un subcampo de la estadística dedicado exclusivamente a la traducción automática de textos entre lenguas cooficiales. El objetivo inmediato del PLN es construir sistemas computacionales que sean capaces de comprender y generar el lenguaje natural exactamente de la misma manera y con los mismos procesos cognitivos que lo hacen los humanos. V. F. ¿Cuál es la motivación principal para estudiar e implementar sistemas de PLN?. Aumentar la rigidez de los lenguajes formales para evitar ambigüedades. Permitir que únicamente usuarios expertos puedan programar bases de datos. La accesibilidad a la información, permitiendo a usuarios no expertos interactuar con las máquinas de forma flexible. Sustituir completamente a los lenguajes de bajo y alto nivel (como C++ o SQL) en la programación de sistemas operativos. El PLN es una disciplina puramente informática y matemática, y no requiere de la integración de conocimientos de áreas como la psicología o la lingüística. V. F. En relación a la historia del PLN y la Inteligencia Artificial, ¿en qué consiste la prueba o Test de Turing?. Un algoritmo para medir la complejidad gramatical de una oración generada por una máquina. Un test donde una máquina debe traducir un texto del ruso al inglés sin cometer errores sintácticos. El "juego de la imitación", donde un evaluador humano debe descubrir si está conversando con otro humano o con una computadora. Una prueba de rendimiento para medir la velocidad de procesamiento de los Modelos Ocultos de Markov. Históricamente en el PLN, el enfoque "Racionalista" o Simbólico defiende que: Gran parte del conocimiento humano y del lenguaje es innato, y se puede modelar mediante reglas lógicas y gramaticales elaboradas por expertos. La mente humana comienza como una tabla rasa y el lenguaje solo puede aprenderse a través de modelos estadísticos y probabilidades. Los ordenadores solo pueden procesar el lenguaje si se les proporcionan millones de ejemplos de traducciones previas. La ambigüedad del lenguaje se resuelve ignorando la sintaxis y centrándose únicamente en el léxico. Noam Chomsky fue uno de los principales defensores del enfoque empírico (estadístico), argumentando que los lenguajes naturales podían procesarse calculando la frecuencia de las palabras. V. F. ¿Qué impacto tuvo el experimento de traducción de Georgetown-IBM (ruso-inglés) en los inicios del PLN?. Demostró que la traducción automática era imposible y paralizó la investigación durante dos décadas. Fue un fracaso absoluto en su demostración pública, pero sentó las bases de las redes neuronales. Fue un éxito controlado que generó un optimismo exagerado, haciendo creer que el problema de la traducción automática se resolvería en muy pocos años. Llevó inmediatamente a la creación del programa ELIZA para traducir textos terapéuticos. El famoso Informe ALPAC concluyó que la Traducción Automática estaba logrando avances extraordinarios y recomendó duplicar la financiación gubernamental para estos proyectos. V. F. ¿Cuál fue la característica técnica principal del programa conversacional ELIZA?. Realizaba un análisis sintáctico y semántico profundo de cada frase del usuario para generar sus respuestas. Operaba mediante el reconocimiento de palabras clave y reglas de transformación de patrones, sin comprender realmente el texto. Utilizaba un mundo de bloques virtual para razonar sobre los objetos antes de contestar al usuario. Empleaba modelos ocultos de Markov entrenados con millones de conversaciones previas. El sistema SHRDLU, creado por Terry Winograd, supuso un hito porque logró integrar el procesamiento sintáctico, la semántica y la capacidad de razonamiento dentro de un micromundo muy restringido ("el mundo de bloques"). V. F. ¿Qué problema fundamental demostró tener el sistema SHRDLU que impidió su uso a nivel general?. Sus respuestas eran estadísticamente impredecibles. No podía procesar el idioma inglés, solo lenguajes formales. Era incapaz de funcionar en dominios abiertos, ya que la complejidad computacional para entender un contexto del "mundo real" era inabarcable. Destruía los bloques virtuales cada vez que el usuario introducía un error ortográfico. A diferencia del enfoque simbólico, el enfoque Empírico (Estocástico) del PLN asume que: Las máquinas deben ser programadas con miles de reglas gramaticales creadas a mano por lingüistas. La mente tiene reglas lingüísticas innatas que deben ser simuladas con lenguaje Prolog. Es más efectivo crear modelos generales a partir del análisis de grandes volúmenes de datos reales (corpus) mediante procesos de aprendizaje automático. La mejor manera de resolver la ambigüedad es pedirle siempre al usuario que aclare el significado de su frase. Uno de los mayores inconvenientes del enfoque Simbólico o basado en reglas es su falta de robustez, ya que estos sistemas tienden a fallar estrepitosamente si el texto de entrada contiene errores o estructuras no previstas en sus reglas. V. F. ¿Qué factor tecnológico impulsó fuertemente el "renacimiento" y triunfo del enfoque empírico (estadístico) a partir de la década de los 90?. El descubrimiento de la gramática libre de contexto por Noam Chomsky. El gran aumento de la capacidad de cómputo y la disponibilidad masiva de datos (corpus) legibles por máquina. La publicación del informe ALPAC que prohibió el uso de reglas lógicas. El éxito comercial de los chatterbots terapéuticos en los hospitales. En el procesamiento lógico de los años 70 y 80, el lenguaje Prolog tuvo una gran influencia en el PLN gracias al desarrollo de gramáticas de cláusulas definidas. V. F. ¿Cómo se conoce en PLN al problema que ocurre cuando un sistema basado en reglas gramaticales es demasiado permisivo y acepta/genera oraciones que, aunque estructuralmente correctas, carecen de sentido lógico?. Ambigüedad léxica. Sobre-generación. Interbloqueo semántico. Sub-generación estocástica. La Recuperación de Información y la Extracción de Información son exactamente la misma aplicación del PLN, solo que la primera se usa en buscadores web y la segunda en bases de datos locales. V. F. Según los apuntes sobre el panorama actual en España, ¿qué es el proyecto ALIA?. Un sistema experto simbólico desarrollado para traducir únicamente el euskera y el catalán. El primer programa capaz de superar el test de Turing en español. Un modelo fundacional abierto de Inteligencia Artificial generativa desarrollado en España. Un superordenador equivalente al Mare Nostrum pero dedicado en exclusiva a jugar al ajedrez. El "Plan de Impulso de las Tecnologías del Lenguaje (Plan TL)" es una iniciativa que fomenta el desarrollo del PLN y la traducción automática exclusivamente para el idioma inglés dentro de España. V. F. Si comparamos los sistemas actuales con los de las primeras generaciones, ¿qué modelo de desarrollo predomina hoy en el PLN a nivel industrial?. Sistemas puramente simbólicos programados en LISP. Aprendizaje automático profundo (Deep Learning), procesamiento de datos a gran escala y aprendizaje supervisado/no supervisado. Reglas de transformación de patrones basadas estrictamente en la arquitectura de ELIZA. Métodos basados únicamente en autómatas de estados finitos sin cálculo de probabilidades. La red de centros "ILENIA" involucra a instituciones destacadas como el Barcelona Supercomputing Center, la Universidad de Jaén y la UNED. V. F. En el contexto de la Inteligencia Artificial, ¿qué demostró el programa PARRY en comparación con ELIZA?. PARRY fue el primer sistema empírico de la historia. PARRY era una versión de ELIZA que incorporaba un rudimentario estado mental, simulando la actitud de un paciente paranoico. PARRY fue capaz de traducir del ruso al inglés con un 100% de precisión. PARRY demostró que la sintaxis generativa era la única forma válida de entender el lenguaje. Los modelos de PLN estocásticos o empíricos extraen generalizaciones del lenguaje analizando frecuencias y probabilidades en textos previamente etiquetados o crudos. V. F. ¿Qué relación tienen los Modelos Ocultos de Markov (HMM) con la historia del PLN?. Fueron la base técnica del sistema SHRDLU en los años 70. Son herramientas estadísticas introducidas fuertemente en los 80/90, importadas del reconocimiento de voz, para el análisis y etiquetado del lenguaje. Son algoritmos simbólicos diseñados por Noam Chomsky para resolver ambigüedades. Son los componentes de hardware del superordenador Mare Nostrum. A diferencia de los lenguajes de programación, el lenguaje natural se caracteriza por su gran flexibilidad, lo cual es a la vez una ventaja para el usuario y el principal desafío computacional (debido a la ambigüedad). V. F. ¿Qué hito marcó el sistema LUNAR desarrollado en los años 70?. Era una interfaz de lenguaje natural que respondía preguntas sobre muestras de rocas lunares usando una base de datos lógica. Fue el primer chatbot utilizado por astronautas en órbita. Consiguió la primera traducción automática estocástica sin utilizar ninguna regla gramatical. Fue el experimento que provocó la redacción del Informe ALPAC. Un sistema de Búsqueda de Respuestas (Question Answering) es una aplicación de PLN que tiene como objetivo generar un resumen abstracto de varios documentos muy extensos. V. F. En el debate histórico entre Racionalismo y Empirismo en PLN, ¿qué papel juegan los "sistemas híbridos" actuales?. Rechazan tanto el aprendizaje estadístico como las reglas lingüísticas. Combinan la potencia de los datos estadísticos y el aprendizaje automático con anotaciones o conocimientos lingüísticos para mejorar los resultados. Utilizan energía híbrida para entrenar redes neuronales profundas en menor tiempo. Alternan entre idiomas (español e inglés) en la misma frase para probar la capacidad del sistema. El "invierno de la Inteligencia Artificial" que afectó al PLN tras el informe ALPAC supuso el fin definitivo de la investigación en reglas gramaticales y sintaxis durante más de cincuenta años. V. F. |





