Procesamiento de Lenguaje Natural Deusto
|
|
Título del Test:
![]() Procesamiento de Lenguaje Natural Deusto Descripción: Fácil va de tema 1-3 |



| Comentarios |
|---|
NO HAY REGISTROS |
|
El Procesamiento del Lenguaje Natural tiene como objetivo. Permitir que las máquinas comprendan, interpreten y generen el lenguaje humano. Permitir que las máquinas generen código similar a como lo hace un humano. Permitir a las maquinas generar representaciones del lenguaje humano. Ninguna, tolay. Named Entity Recognition (NER) consiste en: 1. Identificar y clasificar palabras o frases a a entidades con nombres propios. 2. Identificar coreferencias nombradas anteriormente dentro un texto. 3. 1 y 2 son verdad. Ninguna, tolay. Como se denomina el proceso de asignar una categoría gramatical a cada palabra en una oración. Part-of-Speech Tagging (POS). Syntactic Parsing. Semantic Role Labelling. Todas son verdad. Como se denomina el análisis de las palabras en una oración en términos de gramática y su disposición de manera que muestre las relaciones entre las palabras. Part-of-Speech Tagging (POS). Syntactic Parsing. Semantic Role Labelling. Todas son verdad. Como se denomina el análisis de las palabras en una oración tanto en su gramática como en la relación entre ellas. Part-of-Speech Tagging (POS). Syntactic Parsing. Semantic Role Labelling. Todas son verdad. Teniendo la frase "Ellos se lavan los pies", que tareas entran a la hora de analizar la frase. Coreference Resolution. Syntactic Parsing. Word Sense Disambiguation. Ninguna es verdad, tolay. En la aplicacición de Question Answering... ¿Quíen cometió el 911?. ¿Cómo preparar una tortilla de patatas?. Un resumen extractivo. 1. Resumen únicamente un fragmento del texto que contiene la idea principal. 2. Extrae fragmentos de texto de forma literal. 3. Ambas son correctas. 4. Todas son correctoas. Un resumen abstactivo. 1. Siempre es un nuevo texto que tiene la misma información identica a la original. 2. Siempre introduce errores. 3. No solo puede filtrar información sino que las sintetiza. 4. Todas son correctoas. Relacionalos. Es fácil solo corresponden a uno. Busca en internet si es necesario. El servicio de Ground Truth. Estados de ánimo de redes sociales. Reviews de una película. Sin contexto. La polisemia implica siempre una ambiguedad léxica. True. False. Con contexto. La polisemia puede implicar una ambiguedad léxica. True. False. Con contexto. La polisemia implica siempre una ambiguedad léxica. True. False. ¿Un token siempre corresponden a una palabra?. True. False. En que casos falla la metrica de BLEU. Sinónimos. Penaliza en exceso la longtitud de respuesta. Falla en entender el contexto. Todas son verdad. Trabajando en lenguajes como el Alemán o el Euskera donde las declinaciones de una palabra son cruciales en su gramática. Es el Stemming un metodo adecuado?. No. Si. Los N-gramas se tratan como un uníco elemento. Si, y ademas soluciona el problema de Bag of Word. Pero como va a ser tratados N-gramas como uno solo, a ti la letra N te suena singular o que, tolay. En identificación de entidades que ténicas NO se deberia aplicar. Case folding. Quitar StopWords. Lexemming. Todas son adecuadas de aplicar. VADER. 1. Tiene únicamente reglas humanas. 2. Tiene únicamente reglas heurísticas. 3. Sirve para sentiment Analysis. 4. Necesita de un diccionario de puntuaciones de antemano. 5. 3 y 4 Son verdad. 6. La opcion 5 miente. EN TD-IDF. IDF decrece cuando el termino a evaluar aparece en más documentos. IDF crece cuando el termino a evaluar aparece en más documentos. No importa el numero de documentos. Cuales son las principales ventajas de TF-IDF. Su capacidad para los trabajas con secuencias de terminos. Su capacidad de descartar las palabras mas insignificantes. Su capacidad para representar palabras en vectores dimensionales. Todas son correctas. Un topic vector es. Una distribución probabilistica de las palabras. Un vector de tokens. Ninguna de las anteriores. LDA y LSA. Ambos usan multiples topic vectors. LSA usa Bag of Words mientras que LDA usa TD-IDF. Son la misma técnica. LDA usa un solo topic, mientras que LSA usa multiples. LSA, LDA, LDiA. LSA solo captura relaciones lineales. LSA no captura relaciones lineales. LDiA usa Bag of Words. LDA requiere datos etiquetados. Como fue entrenado Word2Vec. Emascarando el texto de entrada para que la salida sea el texto completado. Prediciendo la siguiente palabra. Prediciento las palabras cercanas. ¿Cuáles son las formas habituales en las que se puede entrenar Word2Vec?. Skip-Gram para terminos frequentes. CBOW para terminos poco frecuentes. Term Masking. Next Term Prediction. Ninguna, tolay. ¿Cuál de estos suposiciones es fundamental en Glove?. La relación semantica entre dos terminos depende de su frecuencia con otros terminos. El significado de un término es dependiente del contexto en terminos de frecuencia. Es fastText compatible con Stemming?. True. False. Depende del idioma. Depende del tamaño del corpus. Asigna. W2V. GloVe. Elmo. BERT. El Self-Attention soluciona el problema cuello de botella que tiene la atención en RNN?. Si. No. El token [SEP]. Indica la separación de terminos, el espacio. Indica el final de una frase. Indica el final de una secuencia. Se usa como padding. Con QLoRA. Se cuantiza en entrenamiento. Se cuantiza post entrenamiento. |




