option
Cuestiones
ayuda
daypo
buscar.php

PLN TEMA 1 - INTRODUCCIÓN

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
PLN TEMA 1 - INTRODUCCIÓN

Descripción:
PLN TEMA 1 - INTRODUCCIÓN - UJA

Fecha de Creación: 2024/05/20

Categoría: Informática

Número Preguntas: 83

Valoración:(4)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué es el Procesamiento del Lenguaje Natural (PLN)?. El Procesamiento del Lenguaje Natural es una parte de la Inteligencia Artificial que investiga y formula mecanismos computacionalmente efectivos que faciliten la interrelación hombre/máquina y permitan una comunicación mucho más fluida y menos rígida que los lenguajes formales. El Procesamiento del Lenguaje Natural es una técnica utilizada en la computación para crear interfaces visuales que permitan la interacción táctil entre humanos y máquinas. El Procesamiento del Lenguaje Natural es un campo de la psicología que estudia cómo las personas y las máquinas procesan el lenguaje escrito y hablado. El Procesamiento del Lenguaje Natural se refiere al uso de algoritmos avanzados en robótica para mejorar la interacción física entre robots y seres humanos.

¿Cuál es el objetivo final del Procesamiento del Lenguaje Natural (PLN)?. Construir sistemas computacionales que sean capaces de comprender y generar el lenguaje natural de la misma manera que lo hacen los humanos. Crear algoritmos que optimicen el rendimiento de las máquinas en tareas de procesamiento de datos masivos. Construir sistemas que puedan procesar texto y habla más eficientemente. Desarrollar programas que puedan traducir automáticamente textos entre diferentes idiomas sin intervención humana.

¿Cuál es el objetivo inmediato del Procesamiento del Lenguaje Natural (PLN)?. Construir sistemas que puedan procesar texto y habla más eficientemente. Construir sistemas computacionales que sean capaces de comprender y generar el lenguaje natural de la misma manera que lo hacen los humanos. Construir sistemas que puedan comunicarse con seres humanos para la resolución de tareas. Desarrollar algoritmos para la creación de documentos en lenguaje natural.

¿Por qué se debe estudiar el Procesamiento del Lenguaje Natural (PLN)?. Para mejorar la accesibilidad a la información, permitiendo que usuarios no expertos puedan interactuar con sistemas de manera flexible usando lenguaje natural. Para diseñar mejores algoritmos de compresión de datos y mejorar la eficiencia de almacenamiento en bases de datos. Para incrementar la velocidad de procesamiento de los lenguajes ensamblador y de máquina en aplicaciones de alto rendimiento. Para que solo los usuarios expertos puedan trabajar con mayor flexibilidad en sus tareas como lenguajes de interrogación a la BD. Para el desarrollo de interfaces gráficas que se puedan utilizar por usuarios no expertos para interactuar con el sistema aportando mucha flexibilidad. Todas son correctas.

¿Cuál de las siguientes es verdadera para las Interfaces Gráficas?. Los usuarios son no expertos y aporta mucha flexibilidad. Los usuarios son no expertos y aportan poca flexibilidad. Los usuarios son expertos y aporta mucha flexibilidad. Los usuarios son expertos y aporta poca flexibilidad.

¿Cuál de las siguientes es verdadera para el Lenguaje de Interrogación a BD?. Los usuarios son no expertos y aporta mucha flexibilidad. Los usuarios son no expertos y aportan poca flexibilidad. Los usuarios son expertos y aporta mucha flexibilidad. Los usuarios son expertos y aporta poca flexibilidad.

¿Cuál de las siguientes es verdadera para el Lenguaje Natural?. Los usuarios son no expertos y aporta mucha flexibilidad. Los usuarios son no expertos y aportan poca flexibilidad. Los usuarios son expertos y aporta mucha flexibilidad. Los usuarios son expertos y aporta poca flexibilidad.

¿Cuál es una de las aplicaciones del Procesamiento del Lenguaje Natural (PLN)?. Traducción automática. Desarrollo de hardware de alta eficiencia. Creación de redes sociales. Diseño de interfaces de usuario gráficas.

¿Cuáles de las siguientes son aplicaciones del Procesamiento del Lenguaje Natural (PLN)?. Traducción automática. Recuperación de información. Sistemas de búsqueda de respuestas. Extracción de conocimiento. Reconocimiento y generación del habla. Todas son correctas.

¿Por qué se debe estudiar el Procesamiento del Lenguaje Natural (PLN)?. Porque permite crear hardware avanzado para inteligencia artificial. Porque facilita el desarrollo de videojuegos realistas. Porque es interdisciplinar. Porque mejora la eficiencia de los algoritmos de compresión de datos.

¿Cuál de estas disciplinas NO se relaciona con el Procesamiento del Lenguaje Natural (PLN)?. Lingüística. Psicología y psicolingüística. Filosofía. Biología. Matemática. Ingeniería.

¿Qué papel juegan los lingüistas en el estudio del Procesamiento del Lenguaje Natural (PLN)?. Generan modelos del lenguaje. Generan modelos computacionales del lenguaje. Generan modelos de procesos cognitivos del lenguaje. Generan métodos de inferencia.

¿Cuál es la contribución de los psicólogos y psicolingüistas en el ámbito del PLN?. Los modelos de procesos cognitivos del lenguaje. Las propiedades de los modelos formales. Los modelos computacionales del lenguaje. La relación del pensamiento racional con el lenguaje.

¿Cómo contribuyen los filósofos al campo del Procesamiento del Lenguaje Natural (PLN)?. Con los modelos que relacionan el pensamiento racional con el lenguaje (cómo las palabras llegan a tener significado). Con los modelos del lenguaje. Con los modelos de procesos cognitivos del lenguaje. Con las propiedades de los modelos formales y métodos de inferencia.

¿Qué aportan los matemáticos al estudio del Procesamiento del Lenguaje Natural (PLN)?. Las propiedades de los modelos formales y métodos de inferencia. Los modelos del lenguaje. Los modelos computacionales del lenguaje. Los modelos que relacionan el pensamiento racional con el lenguaje (cómo las palabras llegan a tener significado).

¿Cuál es el rol de los ingenieros en el desarrollo del Procesamiento del Lenguaje Natural (PLN)?. Generar los modelos computacionales del lenguaje. Generar los modelos del lenguaje. Generar los modelos de procesos cognitivos del lenguaje. Los métodos de inferencia.

PLN es una subdisciplina de: La ingeniería informática. La inteligencia artificial. La ingeniería o tecnología del lenguaje. Todas las anteriores. Ninguna de las anteriores, es una disciplina superior.

La Ingeniería del Lenguaje (IL) es: La aplicación del conocimiento de la lengua al desarrollo de sistemas informáticos capaces de reconocer, comprender, interpretar y generar lenguaje humano en todas sus formas. El estudio de los algoritmos de inteligencia artificial para la optimización de redes de computadoras. La creación de hardware especializado en la traducción automática de textos. La aplicación del conocimiento del lenguaje para desarrollar sistemas que puedan reconocer y responder preguntas básicas de los usuarios.

La Ingeniería del Lenguaje es una combinación de: Métodos, Técnicas y Herramientas + Recursos (Lingware) + Aplicaciones. Métodos, Técnicas y Herramientas + Lenguajes de Programación + Aplicaciones. Herramientas de Software + Recursos (Lingware) + Métodos de Análisis de Datos. Técnicas de Procesamiento de Datos + Recursos Humanos + Aplicaciones.

¿Por qué es tan difícil el Procesamiento del Lenguaje Natural (PLN)?. Porque es muy ambigua y afectan muchos factores en la misma. Porque requiere una gran cantidad de recursos computacionales. PLN no es difícil, simplemente no se había explorado aún. Porque depende únicamente del análisis fonológico y fonético del lenguaje.

¿Cuál de las siguientes opciones NO afecta a la ambigüedad en el Procesamiento del Lenguaje Natural (PLN)?. Fonológica y fonética. Léxica. Sintáctica. Pragmática. Semántica. Referencial.

La ambigüedad fonológica y fonética es: Cómo las palabras se relacionan con los sonidos asociados. Cómo reconocer el sentido correcto de las palabras. La estructura de la oración. El sentido de las oraciones. Cómo las oraciones anteriores afectan a la interpretación de las siguientes oraciones.

La ambigüedad léxica es: Cómo las palabras se relacionan con los sonidos asociados. Cómo reconocer el sentido correcto de las palabras. La estructura de la oración. El sentido de las oraciones. Cómo las oraciones anteriores afectan a la interpretación de las siguientes oraciones.

La ambigüedad sintáctica es: Cómo las palabras se relacionan con los sonidos asociados. Cómo reconocer el sentido correcto de las palabras. La estructura de la oración. El sentido de las oraciones. Cómo las oraciones anteriores afectan a la interpretación de las siguientes oraciones.

La ambigüedad semántica es: Cómo las palabras se relacionan con los sonidos asociados. Cómo reconocer el sentido correcto de las palabras. La estructura de la oración. El sentido de las oraciones. Cómo las oraciones anteriores afectan a la interpretación de las siguientes oraciones.

La ambigüedad referencial es: Cómo las palabras se relacionan con los sonidos asociados. Cómo reconocer el sentido correcto de las palabras. La estructura de la oración. El sentido de las oraciones. Cómo las oraciones anteriores afectan a la interpretación de las siguientes oraciones.

La ambigüedad fonológica y fonética afecta a: Sistemas basados en el habla. Traducción automática de textos. Sistemas de análisis sintáctico. Procesos de extracción de información textual.

La ambigüedad léxica ocurre por: La polisemia de palabras. La estructura gramatical de las oraciones. La pronunciación de las palabras. La interpretación de referencias contextuales.

Para solucionar la ambigüedad léxica en el Procesamiento del Lenguaje Natural (PLN) utilizamos: Word Sense Disambiguation (WSD). Part-of-Speech Tagging. Named Entity Recognition (NER). Machine Translation.

La ambigüedad sintáctica implica que: Diferentes estructuras semánticas implican diferentes interpretaciones. Los términos referenciales son difíciles de identificar. Las palabras pueden sonar igual pero tener significados diferentes. El contexto no afecta la interpretación del significado de las palabras.

La ambigüedad semántica: Implica el sentido de las palabras y cómo se combinan para formar el sentido final de la oración. Se refiere a la variabilidad en la pronunciación de las palabras. Se relaciona con la estructura gramatical y el orden de las palabras en la oración. Se produce cuando una palabra tiene múltiples significados en diferentes contextos.

¿Cuál fue uno de los primeros sistemas de traducción automática desarrollados en los años 50?. Sistema de TA inglés-ruso, basado en la equivalencia de palabras. Sistema de TA inglés-español, basado en la sintaxis. Sistema de TA alemán-francés, basado en el contexto. Sistema de TA japonés-inglés, basado en la semántica.

¿Qué sistemas de traducción automática se desarrollan en los años 50?. El GAT (Georgetown Automatic Translator) y el CETA (Centre d’études pour la Traduction Automatique). IBM Watson y Google Translate. Babel Fish y SYSTRAN. DeepL Translator y Microsoft Translator.

¿Qué se hizo patente en los años 50 sobre el Procesamiento del Lenguaje Natural (PLN)?. La naturaleza de los problemas a tratar y las limitaciones tanto teóricas como técnicas. La facilidad de desarrollar sistemas de traducción automática perfectos. La ausencia de problemas teóricos en el procesamiento del lenguaje. La capacidad ilimitada de las computadoras de la época para procesar el lenguaje.

¿Qué impacto tuvo el informe ALPAC de 1964 en el desarrollo del PLN?. Supuso un freno pero no un impedimento para el desarrollo de diversos sistemas. Impulsó el desarrollo de sistemas avanzados sin limitaciones. No tuvo ningún impacto en el desarrollo del PLN. Supuso un freno y un impedimento para el desarrollo de diversos sistemas.

En los años 60, el PLN consistió principalmente en: Métodos de análisis de palabras clave o “pattern matching”. Modelos de redes neuronales profundas. Análisis de grandes corpus de texto. Gramáticas de unificación funcionales.

¿Cuáles fueron algunos de los sistemas basados en métodos de análisis de palabras clave o "pattern matching" en los años 60?. ELIZA de Weizenbaum, STUDENT de Bobrow y SIR de Raphael. IBM Watson, Google Translate y SYSTRAN. Babel Fish, SYSTRAN y DeepL Translator. El GAT (Georgetown Automatic Translator) y el CETA (Centre d’études pour la Traduction Automatique).

¿Qué sistema desarrollado en 1966 simulaba una conversación entre un psicoanalista y un paciente?. ELIZA de Weizenbaum. STUDENT de Bobrow. SIR de Raphael. GAT (Georgetown Automatic Translator).

STUDENT de Bobrow (1968) fue desarrollado para: Simular una conversación entre un psicoanalista y un paciente. Traducir enunciados de problemas en lenguaje natural a sistemas de ecuaciones. Recuperación de información desde grandes bases de datos. Generar automáticamente resúmenes de textos largos.

SIR de Raphael (1968) fue desarrollado para: Traducción automática de textos entre diferentes idiomas. Análisis fonológico y fonético de grabaciones de voz. Recuperación semántica. Generación de respuestas a preguntas basadas en el contexto.

¿Qué permitía hacer el sistema LUNAR de Woods en los años 70?. Interrogar a una base de datos sobre las muestras recogidas en misiones espaciales. Traducir automáticamente textos entre múltiples idiomas. Realizar análisis semántico profundo de textos literarios. Crear modelos de lenguaje basados en redes neuronales.

Las primeras interfaces en Lenguaje Natural (LN) a Bases de Datos (BD) fueron: Sistema LUNAR de Woods. Sistema ELIZA de Weizenbaum. Sistema STUDENT de Bobrow. Sistema SIR de Raphael.

¿Qué tipo de analizadores aparecieron en los años 70 usando gramáticas incontextuales?. SAD-SAM de Lindsay y Redes de Transición Aumentadas (ATN) de Woods. ELIZA y STUDENT. IBM Watson y Google Translate. DeepL Translator y Microsoft Translator.

¿Cuál fue una mejora significativa en los años 70 para las expresiones regulares y gramáticas incontextuales?. Incorporar un autómata de estados finitos variables y restricciones funcionales. Implementar modelos de redes neuronales profundas. Utilizar algoritmos genéticos para optimización. Interrogar a la base de datos sobre las muestras recogidas.

Las Redes de Transición Aumentadas (ATN) desarrollo por Woods: Mejora la potencia de las expresiones regulares y de las gramáticas incontextuales incorporando a un autómata de estados finitos variables y restricciones funcionales. Optimizan la traducción automática mediante el uso de algoritmos de aprendizaje profundo y redes neuronales. Facilitan la creación de bases de datos semánticas mediante el análisis de grandes corpus de texto. Incrementan la precisión del reconocimiento de voz al combinar modelos fonéticos y sintácticos.

¿Qué gramáticas fueron objeto de gran interés en los años 80?. Gramáticas de Cláusulas Definidas, Gramáticas de Estructura de Frase Generalizadas, Gramáticas Léxico Funcionales y Gramáticas de Unificación Funcionales. Gramáticas de Cláusulas Indefinidas, Gramáticas Sintácticas Simples, Gramáticas de Contexto Limitado y Gramáticas de Inferencia. Gramáticas Generativas, Gramáticas de Dependencias, Gramáticas Morfológicas y Gramáticas de Prolog. Gramáticas de Autómatas, Gramáticas de Redes Neuronales, Gramáticas Probabilísticas y Gramáticas de Regla Base.

En los años 80 surgió un gran interés por: Los métodos lingüisticos. Los métodos matemáticos. Los métodos computacionales. Los métodos cognitivos del lenguaje.

¿Cuáles fueron algunos de los sistemas más sofisticados desarrollados en los años 80?. Ariane-78, EUROTRA, ATLAS, TEAM, CHAT-80 y ORBI. BM Watson, Google Translate, Babel Fish y SYSTRAN. Microsoft Translator, DeepL Translator, SYSTRAN y Babel Fish. ELIZA, STUDENT, SIR y GAT.

En el campo de la Traducción Automática destacan: Ariane-78, EUROTRA o ATLAS. TEAM, CHAT-80, ORBI. Lunar de Woods y SAD-SAM de Lindsay. Todos los anteriores.

En el campo de las interfaces de Bases de Datos destacan: Ariane-78, EUROTRA o ATLAS. TEAM, CHAT-80, ORBI. Lunar de Woods y SAD-SAM de Lindsay. Todos los anteriores.

¿Qué métodos resurgieron en los años 90 en el ámbito del PLN?. Métodos empíricos. Métodos teóricos. Métodos heurísticos. Métodos deterministas.

¿Qué recursos lingüísticos comenzaron a desarrollarse e integrarse en los años 90?. Grandes Corpus, Diccionarios y Ontologías. Redes Neuronales, Algoritmos Genéticos y Árboles de Decisión. Modelos Probabilísticos, Gramáticas Estocásticas y Redes Bayesianas. Modelos Probabilísticos, Gramáticas Estocásticas y Redes Bayesianas.

¿Qué fenómeno marcó la era de la información digital en los años 90?. La necesidad de acceso eficiente a la información digital a través de Internet. La creación de la primera computadora cuántica. La invención del primer lenguaje de programación orientado a objetos. El desarrollo de la primera interfaz gráfica de usuario.

¿En qué se centraban los principales organismos de I+D en los años 60 y en qué se centran actualmente?. En los años 60 se centraban en el control de procesos y las técnicas de programación; actualmente se centran en la Inteligencia Artificial y sus aplicaciones (como el PLN). En los años 60 se centraban en el desarrollo de hardware computacional; actualmente se centran en la realidad virtual y aumentada. En los años 60 se centraban en la optimización de sistemas operativos; actualmente se centran en la computación cuántica. En los años 60 se centraban en la teoría de la información; actualmente se centran en la biotecnología y la genética.

¿Cuáles son algunas de las nuevas tareas en PLN que implican la integración de técnicas tanto lingüísticas como estadísticas?. Minería de Datos Textuales, Minería de Opiniones, Reconocimiento de Implicación Textual y Recuperación de Información Multimedia. Traducción Automática, Reconocimiento de Voz y Síntesis de Habla. Análisis de Sentimientos, Generación de Texto Automático y Compresión de Datos. Clasificación de Imágenes, Detección de Fraude y Modelado Predictivo.

¿Cuáles son algunas de las nuevas tareas en PLN que implican la integración de técnicas tanto lingüísticas como estadísticas?. Minería de Datos Textuales. Minería de Opiniones. Reconocimiento de Implicación Textual. Recuperación de Información Multimedia. Todas son correctas.

¿Qué tendencia se observa en el desarrollo de sistemas de PLN en la actualidad?. Sistemas a gran escala frente a los sistemas de pequeña escala. Sistemas de traducción automática de idiomas minoritarios. Desarrollo de hardware especializado para PLN. Creación de algoritmos de PLN basados en teoría de juegos.

¿Qué se redescubre en las tendencias actuales del PLN?. Viejos temas sobre métodos estadísticos, recuperación de información, uso de grandes corpus de textos y diccionarios existentes para producir nuevos sistemas a gran escala con cierta rapidez. Nuevos lenguajes de programación específicos para PLN. Antiguas tecnologías de hardware para procesamiento de datos. Métodos manuales de análisis de textos.

En la actualidad, respecto a PLN: Hay una tendencia hacia el trabajo empírico. Se busca la utilización del aprendizaje automático. Se busca el enriquecimiento con recursos lingüisticos. Todas son correctas. Ninguna es correcta.

En la actualidad, respecto a PLN: Hay una tendencia hacia el trabajo teórico. Se busca la utilización del aprendizaje supervisado, confiando poco en el automático. Se descarta el enriquecimiento con recursos lingüísticos. Todas son correctas. Ninguna es correcta.

El sistema de traducción automática inglés-ruso, basado en la equivalencia de palabras, surgió en los años: 50. 60. 70. 80.

El desarrollo del GAT (Georgetown Automatic Translator) y el CETA (Centre d’études pour la Traduction Automatique) ocurrió en los años: 50. 60. 70. 80.

El informe ALPAC, que supuso un freno pero no un impedimento para el desarrollo de diversos sistemas de PLN, fue publicado en los años: 50. 60. 70. 80.

El método de análisis de palabras clave o "pattern matching" que dio lugar a sistemas como ELIZA, STUDENT y SIR, se desarrolló en los años: 50. 60. 70. 80.

El sistema LUNAR de Woods, que permitía interrogar a una base de datos sobre las muestras recogidas en misiones espaciales, se desarrolló en los años: 50. 60. 70. En la actualidad.

Los analizadores que usaban gramáticas incontextuales como SAD-SAM de Lindsay y las Redes de Transición Aumentadas (ATN) de Woods aparecieron en los años: 50. 60. 70. 80.

Sistemas sofisticados como Ariane-78, EUROTRA, ATLAS, TEAM, CHAT-80 y ORBI se desarrollaron en los años: 50. 60. 70. 80.

El resurgimiento del interés por los métodos empíricos en el PLN ocurrió en los años: 50. 70. 90. En la actualidad.

El surgimiento del interés por los métodos lingüísticos en el PLN ocurrió en los años: 50. 80. 90. En la actualidad.

El Procesamiento del Lenguaje Natural (PLN) es una parte de la Inteligencia Artificial que se centra exclusivamente en el análisis sintáctico de los lenguajes formales, sin considerar la interrelación hombre/máquina. V. F.

El Procesamiento del Lenguaje Natural es una parte de la Inteligencia Artificial que investiga y formula mecanismos computacionalmente efectivos que faciliten la interrelación hombre/ máquina y permitan una comunicación mucho más fluida y menos rígida que los lenguajes formales. V. F.

Mientras que el objetivo final de las PLN es construir sistemas que puedan procesar texto y habla más eficientemente el objetivo inmediato es construir sistemas computacionales que sean capaces de comprender y generar el lenguaje natural de la misma manera que lo hacen los humanos. V. F.

Mientras que el objetivo final de las PLN es construir sistemas computacionales que sean capaces de comprender y generar el lenguaje natural de la misma manera que lo hacen los humanos el objetivo inmediato es construir sistemas que puedan procesar texto y habla más eficientemente. V. F.

PLN se puede encuadrar en la parte inferior de la siguiente pirámide: Ingeniería Informática, Inteligencia Artificial, Ingeniería o Tecnología del Lenguaje y PLN. V. F.

La Ingeniería del Lenguaje (IL) es la aplicación del conocimiento de la lengua al desarrollo de sistemas informáticos capaces de reconocer, comprender, interpretar y generar lenguaje humano en todas sus formas. V. F.

Afortunadamente el desarrollo de PLN no es muy difícil hoy en día. V. F.

La polisemia es una de las razones por las que se da ambigüedad semántica. V. F.

La ambigüedad sintáctica se refiere a la estructura de la oración que puede implicar diferentes interpretaciones mientras que la ambigüedad semántica se refiere al sentido de las oraciones, es decir como el sentido de las palabras se combinan para formar el sentido de la oración. V. F.

La ambigüedad referencial se refiere a la complicación de los sistemas PLN en hallar a quien se refiere la acción en la oración. V. F.

En los años 50, se hace patente la naturaleza de los problemas a tratar y las limitaciones tanto teóricas como técnicas en PLN. V. F.

En los años 60, el PLN consistió principalmente en métodos de análisis de palabras clave o “pattern matching". V. F.

Es en los años 90 es cuando surge gran interés por los métodos lingüísticos del PLN. V. F.

En los años 90, resurge el interés por los métodos empíricos de PLN. V. F.

Denunciar Test