Test de test 2
![]() |
![]() |
![]() |
Título del Test:![]() Test de test 2 Descripción: Test de test 2 |




Comentarios |
---|
NO HAY REGISTROS |
¿Qué función de activación suele usarse en capas ocultas de redes convolucionales?. Softmax. Sigmoide. ReLU. Lineal. ¿Qué función de activación permite valores negativos y reduce el problema del “moribundo ReLU”?. Tanh. Leaky ReLU. Softmax. Sigmoide. ¿Qué función de activación es no monótona y útil para redes muy profundas (>40 capas)?. ReLU. Swish. Sigmoide. Tanh. ¿Qué función de activación se utiliza comúnmente en la capa de salida para clasificación binaria?. Tanh. Softmax. ReLU. Sigmoide. ¿Cuál de las siguientes funciones puede devolver valores entre -1 y 1?. Sigmoide. Softmax. ReLU. Tanh. ¿Qué función de activación se utiliza normalmente en problemas multiclase (capa de salida)?. Tanh. Sigmoide. Softmax. Leaky ReLU. ¿Cuál es una desventaja principal de la función sigmoide?. Saturación y gradientes pequeños. Solo permite valores negativos. No es continua. No se puede derivar. ¿Qué función de activación se define como f(x) = max(0, x)?. Tanh. ReLU. Sigmoide. Softmax. ¿Qué función de activación se basa en el promedio exponencial de entradas?. Sigmoide. Tanh. Softmax. ReLU. ¿Dónde no es recomendable usar la función sigmoide como activación?. Capa de salida binaria. Capas ocultas profundas. Modelos de regresión logística. Clasificación binaria. ¿Cuál de estas funciones es una variante mejorada de ReLU que aplica suavizado en la transición?. Leaky ReLU. ELU. Tanh. Sigmoide. ¿Qué problema surge si se usa la función sigmoide en múltiples capas ocultas de una red profunda?. La red aprende más rápido. El modelo tiene alta varianza. La red se vuelve recurrente. El gradiente tiende a cero. ¿Por qué ReLU puede provocar que algunas neuronas dejen de aprender?. Porque es no diferenciable en 0. Porque si x < 0, la derivada es 0 y no se actualiza. Porque no tiene derivada para x > 0. Porque siempre genera valores negativos. ¿Qué función de activación introduce un parámetro aprendible que controla la pendiente en la parte negativa?. Tanh. PReLU. Swish. ELU. ¿Cuál de las siguientes funciones de activación tiene salida no acotada por arriba ni por abajo?. Sigmoide. Tanh. ReLU. Softmax. ¿Qué ventaja tiene la función ELU sobre ReLU en tareas de clasificación?. Evita completamente el overfitting. Tiene salida entre 0 y 1. Produce medias de activación más cercanas a cero. Tiene menor coste computacional. ¿Qué función es diferenciable en todo su dominio y permite retropropagación sin regiones planas como ReLU?. ReLU. Swish. Sigmoide. Leaky ReLU. ¿Cuál de estas funciones de activación tiende a comportarse como una función lineal para valores grandes de entrada positiva?. Sigmoide. Tanh. Swish. Softmax. ¿Cuál es la función de coste más utilizada para problemas de clasificación binaria con salida probabilística?. MSE. Hinge Loss. Binary Cross-Entropy. MAE. ¿Qué función de pérdida se utiliza comúnmente en regresión lineal?. Mean Squared Error (MSE). Binary Cross-Entropy. Hinge Loss. Log Loss. ¿Cuál es una limitación del uso de MSE en clasificación binaria?. No es diferenciable. No penaliza correctamente la probabilidad. Solo funciona con datos categóricos. No converge con descenso de gradiente. ¿Qué función de pérdida se utiliza para clasificación multiclase con etiquetas codificadas como one-hot?. Binary Cross-Entropy. Multiclass Cross-Entropy. MSE. MAE. ¿Qué pérdida se recomienda cuando las etiquetas NO están codificadas como one-hot?. Cross-Entropy. Sparse Categorical Cross-Entropy. MSE. Log-Cosh. ¿Qué función de coste se basa en la diferencia entre distribuciones de probabilidad?. MAE. Log Loss. KL-Divergence. MSE. ¿Qué pérdida es adecuada para clasificación binaria y mide la entropía entre la salida real y la predicha?. MAE. Binary Cross-Entropy. Hinge Loss. Smooth L1. ¿Cuál función de coste es útil en Support Vector Machines (SVM) y se basa en márgenes?. Cross-Entropy. Hinge Loss. MSE. KL-Divergence. ¿Qué función de pérdida combina la robustez de MAE con la estabilidad de MSE?. Huber Loss. Cross-Entropy. Smooth L1. Lasso. ¿Qué pérdida es más robusta frente a valores atípicos (outliers)?. MSE. MAE. Cross-Entropy. KL-Divergence. ¿Qué métrica penaliza más los errores grandes al elevarlos al cuadrado?. MAE. MSE. Log Loss. Entropía cruzada. ¿Qué pérdida devuelve un valor continuo y tiene menor gradiente para errores grandes?. MAE. Hinge Loss. Binary Cross-Entropy. Softmax Loss. ¿Cuál es la desventaja principal del uso de MAE (Mean Absolute Error) en descenso de gradiente?. No tiene derivada constante en todos los puntos. Penaliza mucho los errores grandes. Solo se usa con datos categóricos. Devuelve siempre valores positivos. ¿Qué función de pérdida tiende a ser más estable numéricamente al tratar con probabilidades pequeñas?. Log Loss. MSE. MAE. Hinge. ¿Cuál es una ventaja de Cross-Entropy sobre MSE en tareas de clasificación?. Mayor robustez ante ruido. Menor coste computacional. Penaliza fuertemente las predicciones mal clasificadas. Su salida es siempre binaria. ¿Qué función de pérdida puede derivarse como un caso particular de la entropía cruzada?. KL Divergence. Hinge Loss. Log Loss. MAE. ¿Cuál es el comportamiento del gradiente de MSE cuando el error aumenta?. Tiende a cero. Aumenta linealmente. Permanece constante. Se invierte. ¿Qué función de coste se utiliza en autoencoders para datos continuos?. Cross-Entropy. KL Divergence. MSE. Hinge. ¿Qué pérdida es más adecuada para detección de anomalías cuando se modela la distribución real?. Hinge. Log-Cosh. MAE. KL Divergence. En regresión, ¿cuándo se prefiere Huber Loss sobre MSE o MAE?. Cuando los datos no tienen ruido. Cuando las etiquetas son categóricas. Cuando hay outliers pero también se desea penalizar errores grandes suavemente. Para datos normalizados únicamente. ¿Cuál es la función de pérdida adecuada cuando queremos priorizar la probabilidad de clase correcta sobre la certeza general del modelo?. MSE. MAE. Cross-Entropy. KL-Divergence. ¿Qué pérdida se considera simétrica y robusta, especialmente útil cuando no queremos penalizar tanto errores extremos?. Cross-Entropy. Hinge Loss. Log-Cosh. MSE. ¿Cuál es la combinación adecuada para clasificación binaria?. ReLU + MSE. Sigmoide + Binary Cross-Entropy. Softmax + Sparse Cross-Entropy. Tanh + MAE. ¿Cuál es la combinación típica para problemas de regresión lineal?. Sigmoide + Log Loss. Softmax + Cross-Entropy. Lineal + MSE. ReLU + KL-Divergence. ¿Qué combinación es adecuada para clasificación multiclase con etiquetas one-hot?. Sigmoide + Binary Cross-Entropy. Softmax + Categorical Cross-Entropy. Tanh + Hinge. Lineal + Log Loss. ¿Qué combinación se usa si las etiquetas multiclase no están codificadas como one-hot?. Softmax + Categorical Cross-Entropy. Softmax + Sparse Categorical Cross-Entropy. Sigmoide + Binary Cross-Entropy. Lineal + MAE. ¿Cuál combinación se usa típicamente para problemas de regresión robustos con outliers?. Sigmoide + MAE. Tanh + Log Loss. Lineal + MAE. ReLU + Cross-Entropy. ¿Qué combinación se recomienda en autoencoders con datos continuos?. Softmax + MSE. Lineal + MSE. Sigmoide + Binary Cross-Entropy. ReLU + Log Loss. ¿Qué combinación es adecuada para autoencoders con entradas binarias (valores 0 o 1)?. Tanh + MAE. Softmax + KL. Sigmoide + Binary Cross-Entropy. Lineal + Cross-Entropy. En un clasificador multiclase donde las etiquetas son enteros (no codificados), ¿qué combinación usarías?. Sigmoide + Binary Cross-Entropy. Tanh + MSE. Softmax + Sparse Categorical Cross-Entropy. ReLU + Log-Cosh. ¿Qué combinación es adecuada en redes neuronales recurrentes (RNN/LSTM) para clasificación binaria secuencial?. Tanh + Log Loss. Sigmoide + Binary Cross-Entropy. Softmax + KL. Lineal + MAE. ¿Cuál de estas combinaciones usarías para una regresión con valores extremos donde no quieres penalizar errores grandes?. Lineal + MAE. Sigmoide + Log Loss. Softmax + Cross-Entropy. ReLU + MSE. ¿Qué combinación de activación y función de coste no tiene sentido usar en clasificación binaria?. Sigmoide + Binary Cross-Entropy. Tanh + MSE. ReLU + MSE. Sigmoide + Log Loss. ¿Qué combinación se usa típicamente en una red neuronal multicapa para clasificación de 3 o más clases mutuamente excluyentes?. Sigmoide + Binary Cross-Entropy. Softmax + Categorical Cross-Entropy. ReLU + Log-Cosh. Tanh + MAE. ¿Qué técnica consiste en dividir los datos en entrenamiento, validación y prueba una sola vez?. Holdout. Bootstrap. K-Fold. Grid Search. ¿Qué método divide los datos en k particiones y rota el conjunto de prueba en cada iteración?. Holdout. Bootstrap. K-Fold Cross Validation. Repeated Sampling. ¿Qué variante de holdout conserva las proporciones de clase originales?. K-Fold. Monte Carlo. Holdout estratificado. Random Split. ¿Qué técnica se usa especialmente cuando hay pocos datos disponibles?. Holdout. Grid Search. Cross Validation. Feature Selection. ¿Qué técnica genera varias muestras con reemplazo para entrenar y usa el conjunto original para evaluar?. Holdout. Cross Validation. Bootstrap. LOO. ¿Cuál es una desventaja del método bootstrap?. Es lento con pocos datos. Hay gran solapamiento entre entrenamiento y test. No se puede usar con modelos supervisados. No mide varianza. ¿Qué técnica entrena k veces, usando cada vez un solo ejemplo como conjunto de prueba?. Stratified K-Fold. Leave-One-Out (LOO). Random Split. Bootstrap. ¿Qué técnica es más adecuada para evaluar modelos en series temporales?. Stratified K-Fold. Bootstrap. Random Holdout. Time Series Cross Validation. ¿Cuál de estas afirmaciones es verdadera sobre la validación cruzada k-fold?. Es ideal solo cuando k = 2. Aumenta el riesgo de overfitting. Proporciona una estimación más estable del rendimiento. No se puede usar con clasificación. ¿Qué permite la técnica Monte Carlo Cross Validation?. Dividir secuencias temporales. Crear múltiples divisiones aleatorias y repetir evaluación. Evaluar sin conjunto de prueba. Estimar regularización. ¿Qué ventaja tiene la validación cruzada sobre el holdout?. Menor coste computacional. Uso de métricas no supervisadas. Todos los datos se usan como prueba al menos una vez. No necesita ajustar hiperparámetros. ¿Qué técnica de evaluación suele preceder a un entrenamiento final con todos los datos?. Holdout simple. Bootstrap. Validación cruzada. Test aleatorio. ¿Qué mide la métrica accuracy?. Proporción de falsos negativos. Predicciones correctas sobre el total. Solo los verdaderos positivos. Error cuadrático medio. ¿Qué métrica mide la proporción de verdaderos positivos respecto al total de positivos reales?. Accuracy. F1 Score. Recall. Precisión. ¿Qué métrica mide qué porcentaje de predicciones positivas son correctas?. Recall. Precision. Accuracy. AUC. ¿Qué mide el F1 Score?. Suma de precisión y recall. Media armónica de precisión y recall. Media geométrica de falsos positivos. Error absoluto medio. ¿Cuándo es más útil el F1 Score que la accuracy?. Cuando hay datos balanceados. Cuando no hay clase mayoritaria. Cuando hay desbalance de clases. Siempre que se usa softmax. ¿Qué representa un FP (False Positive)?. Predijo negativo y era positivo. Predijo positivo y era negativo. No se pudo predecir. Predijo bien pero con baja probabilidad. ¿Qué métrica evalúa la capacidad del modelo para distinguir entre clases?. Log Loss. Accuracy. AUC-ROC. MAE. ¿Qué es la matriz de confusión?. Tabla que muestra TP, TN, FP, FN. Diagrama para agrupamiento. Métrica de regresión. Error promedio. ¿Qué métrica mide el error en clasificación probabilística penalizando predicciones con alta certeza equivocada?. F1 Score. Log Loss. MAE. Accuracy. ¿Qué representa un valor de AUC cercano a 1?. Alta capacidad de discriminación. Alta precisión únicamente. Alta varianza. Predicciones binarias sin probabilidad. ¿Qué mide el Error Cuadrático Medio (MSE)?. Error promedio sin dirección. Error en clasificación. Promedio de errores al cuadrado. Número de errores. ¿Cuál es una desventaja del MSE frente al MAE?. No puede derivarse. Penaliza fuertemente los errores grandes. Es menos estable. Solo sirve en series temporales. ¿Qué métrica se obtiene sacando la raíz cuadrada del MSE?. MAE. RMSE. R². MAPE. ¿Por qué se prefiere el RMSE sobre el MSE en algunos casos?. Tiene menos varianza. Está en las mismas unidades que la variable objetivo. Siempre da menor error. Es más rápido de calcular. ¿Qué ventaja tiene MAE frente a MSE?. Penaliza más los errores grandes. No es robusto frente a outliers. Es más robusto frente a valores extremos. Mide correlación. ¿Qué representa el Coeficiente de Determinación (R²)?. El error cuadrático entre modelos. La pendiente ajustada. La proporción de varianza explicada por el modelo. El logaritmo del error. ¿Qué valor de R² indica un ajuste perfecto?. 0. -1. 1. ∞. ¿Cuál es el rango típico de R²?. 0 a ∞. –∞ a +∞. 0 a 1. –1 a 1. ¿Qué métrica muestra el error como porcentaje relativo al valor real?. RMSE. MAPE. MAE. R². ¿En qué unidad se expresa MAPE?. En metros o kilómetros. En escala logarítmica. No tiene unidades. En porcentaje. Si tienes un conjunto con muchos valores cero o cercanos a cero, ¿qué métrica NO deberías usar?. MSE. MAE. MAPE. RMSE. ¿Qué mide el Silhouette Score en clustering?. Precisión entre clases. Cohesión intra-clúster y separación inter-clúster. Error de clasificación. Varianza explicada. ¿Qué valores puede tomar el Silhouette Score?. De 0 a 1. De –1 a 1. Solo valores positivos. De –∞ a ∞. ¿Qué indica un Silhouette Score cercano a 1?. Clústeres solapados. Mal agrupamiento. Buena separación y cohesión. Poco solapamiento pero sin cohesión. ¿Qué métrica compara la distancia intra-clúster?. SSW. SSW. ARI. MAE. ¿Qué métrica mide la separación entre clústeres?. SSW. SSB. Accuracy. Score. En SSW, ¿qué se busca idealmente?. Valores altos. Valores bajos. Cero. Que coincida con SSB. En SSB, ¿qué se busca idealmente?. Valores cercanos a 0. Valores altos. Igual a MAE. Mínimo posible. ¿Qué tipo de validación es el Adjusted Rand Index (ARI)?. Interna. Externa. Probabilística. Temporal. ¿Qué necesita el ARI para calcularse?. Etiquetas reales y etiquetas predichas. Sólo etiquetas reales. Solo los clústeres generados. El tamaño del dataset. ¿Qué indica un valor de ARI igual a 1?. Agrupamiento completamente aleatorio. Coincidencia perfecta con las etiquetas reales. Cohesión baja. Resultado inestable. ¿Qué tipo de métrica se utiliza cuando NO se conocen las etiquetas reales?. ARI. Índice de Silueta. Precisión. Recall. ¿Qué métrica se puede usar tanto en K-Means como en DBSCAN para evaluar agrupamiento interno?. Accuracy. ARI. Silhouette Score. MAE. |