option
Cuestiones
ayuda
daypo
buscar.php

PLN UJA Tema 4 - Test1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
PLN UJA Tema 4 - Test1

Descripción:
Preguntas GENERADAS POR ChatGPT

Fecha de Creación: 2025/05/20

Categoría: Otros

Número Preguntas: 20

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué tipo de representación ignora completamente el orden de las palabras?. Word2Vec. TF-IDF. Bolsa de palabras. LSTM.

¿Qué mide la función TF en TF-IDF?. Frecuencia inversa en el corpus. Longitud del documento. Frecuencia de aparición de un término en un documento. Similitud entre documentos.

¿Qué representa un vector one-hot?. Un vector con pesos TF-IDF. Un vector con una sola componente activa. Un vector normalizado semántico. Un embedding contextualizado.

¿Qué afirmación describe mejor los word embeddings no contextualizados?. Su representación depende del contexto sintáctico. Representan cada palabra con un vector constante. Cambian según la tarea. Dependen de embeddings posicionales.

¿Qué hipótesis subyace a los modelos de word embeddings?. Hipótesis supervisada. Hipótesis de reducción. Hipótesis de coocurrencia. Hipótesis distribucional.

¿Qué técnica de reducción de dimensionalidad se basa en descomposición en valores singulares?. Word2Vec. Indexación aleatoria. LSA. GloVe.

¿Cuál de los siguientes modelos se entrena con el objetivo de predecir palabras del contexto?. CBOW. TF-IDF. GloVe. LDA.

¿Qué algoritmo se utiliza para clasificación binaria mediante hiperplanos?. LSTM. Naive Bayes. SVM. KNN.

¿Qué tipo de aprendizaje necesita datos etiquetados?. No supervisado. Supervisado. Híbrido. Distribucional.

¿Cuál es una función de activación usada para clasificación multiclase?. ReLU. Sigmoide. Tanh. Softmax.

¿Qué problema solucionan las LSTM respecto a las RNN tradicionales?. No necesitan embeddings. Olvidan información irrelevante. Clasifican sin datos. Usan árboles de decisión.

¿Qué red neuronal procesa la entrada en ambos sentidos?. CNN. BiLSTM. Skipgram. GloVe.

¿Qué componente de LSTM decide qué parte del estado anterior se conserva?. Puerta de entrada. Puerta de salida. Puerta de olvido. Puerta de contexto.

¿Cuál es la salida habitual de una red neuronal en clasificación binaria?. Un valor entero. Un vector one-hot. Una distribución softmax. Un valor entre 0 y 1.

¿Qué modelo usa la matriz de coocurrencias y AdaGrad?. CBOW. GloVe. Skipgram. LDA.

¿Cuál de los siguientes es un algoritmo no supervisado?. SVM. LSTM. KMeans. Word2Vec.

¿Qué mide la entropía cruzada?. Cantidad de clases distintas. Similitud entre dos distribuciones. Frecuencia de coocurrencia. Complejidad sintáctica.

¿Qué es el backpropagation?. Una función de activación. Un algoritmo de clasificación. El algoritmo que actualiza los pesos de una red neuronal. Una capa especial en LSTM.

¿Qué elemento determina la importancia de cada parte de una secuencia en el mecanismo de atención?. Sigmoid. Softmax. ReLU. TF-IDF.

¿Qué modelo no usa RNNs, pero sí atención?. CBOW. GloVe. Transformer. BiLSTM.

Denunciar Test