option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Métricas funciones perdida

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Métricas funciones perdida

Descripción:
Mineria de datos

Fecha de Creación: 2026/01/18

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Las métricas de regresión se basan principalmente en: Probabilidades predichas. Tablas de confusión. Errores de predicción. Umbrales de clasificación.

Cuando se calculan errores usando los mismos datos con los que se entrenó el modelo, se obtienen: Errores out-of-sample. Errores robustos. Residuos in-sample. Residuos aleatorios.

Los residuos in-sample son problemáticos porque: Incrementan la varianza. Pueden producir data leakage. No pueden calcularse. El modelo no converge.

¿Cuál es el objetivo principal del MSE?. Maximizar la varianza. Maximizar el error medio. Minimizar el error cuadrático medio. Minimizar el error absoluto.

La diferencia principal entre MSE y RMSE es que: RMSE penaliza más los errores grandes. RMSE es la raíz cuadrada del MSE. RMSE usa valores absolutos. RMSE no depende del tamaño de la muestra.

La métrica MAE se caracteriza por: Penalizar fuertemente errores grandes. Elevar los errores al cuadrado. Utilizar el valor absoluto del error. Maximizar la concordancia.

¿Cuál de las siguientes métricas es más sensible a outliers?. MAE. RMSE. R². Accuracy.

El coeficiente de determinación R² mide: El acuerdo con la línea y = x. La proporción de varianza explicada. El error medio absoluto. El número de predicciones correctas.

Un problema del R² es que: No mide relación lineal. No mide concordancia real entre valores observados y predichos. No puede usarse en regresión. Siempre es negativo.

Las métricas de clasificación hard prediction se basan en: Probabilidades. Umbrales óptimos. Tablas de confusión. Funciones de pérdida continuas.

En una tabla de confusión, FP representa: Positivos reales bien clasificados. Negativos reales mal clasificados. Positivos predichos incorrectamente. Negativos predichos correctamente.

La tasa de misclasificación se define como: (TP + TN) / Total. (FP + FN) / Total. TP / (TP + FP). TP / (TP + FN).

El objetivo de la accuracy es: Minimizar. Maximizar. Igualar recall y precisión. Ajustar el umbral.

La precisión mide: Proporción de positivos reales detectados. Proporción de predicciones positivas correctas. Proporción de negativos correctos. Tasa de error.

El recall (sensitividad) se define como: TP / (TP + FP). TP / (TP + FN). TN / (TN + FP). (TP + TN) / Total.

La especificidad mide: Verdaderos positivos. Verdaderos negativos. Errores positivos. Errores negativos.

La f1-measure es: Media aritmética de precisión y recall. Media geométrica. Media armónica de precisión y recall. Diferencia entre precisión y recall.

La f1-measure se recomienda especialmente cuando: Los datos están balanceados. Hay muchos outliers. El dataset está desbalanceado. El modelo es lineal.

La detection prevalence se define como: TP / Total. FP / Total. (TP + FP) / Total. (TP + FN) / Total.

El índice de Youden se define como: Precisión + recall. Sensitividad + especificidad − 1. Accuracy − error. RMSE − MAE.

Las métricas de clasificación soft prediction utilizan: Clases finales. Etiquetas binarias. Probabilidades. Tablas de confusión.

La entropía cruzada penaliza especialmente: Predicciones correctas. Predicciones con probabilidad alta. Predicciones con baja probabilidad en la clase real. Predicciones binarias.

El objetivo de la entropía cruzada es: Maximizar. Minimizar. Igualar clases. Normalizar probabilidades.

El índice de Gini mide: Error cuadrático. Varianza. Pureza de nodos. Correlación.

Un valor pequeño del índice de Gini indica: Baja pureza. Alta impureza. Alta pureza. Clasificación aleatoria.

El objetivo del índice de Gini es: Maximizar. Minimizar. Igualar probabilidades. Ajustar el umbral.

El log-likelihood tiene como objetivo: Minimizar. Maximizar. Normalizar. Discretizar.

La curva ROC representa: Precisión vs Recall. Sensitividad vs Especificidad. Sensitividad vs 1 − Especificidad. Accuracy vs Error.

El eje X de la curva ROC representa: TP rate. FP rate. Accuracy. Recall.

El AUC mide: El error mínimo. El área bajo la curva ROC. El mejor umbral. El número de positivos.

Un AUC cercano a 0.5 indica: Clasificador perfecto. Clasificador muy bueno. Clasificador aleatorio. Overfitting.

La curva ROC permite: Solo evaluar un umbral. Comparar clasificadores globalmente. Ajustar regresiones. Calcular MAE.

La curva precision-recall compara: Accuracy y error. Sensitividad y especificidad. Precisión y recall. Error y varianza.

La curva precision-recall es especialmente útil cuando: Los datos están balanceados. Hay pocas observaciones. El dataset está desbalanceado. Se usa regresión.

El threshold en clasificación sirve para: Ajustar el modelo. Convertir probabilidades en clases. Normalizar métricas. Eliminar ruido.

El umbral óptimo puede seleccionarse maximizando: RMSE. Accuracy. f1-measure. MAE.

Las métricas assessment se calculan sobre: Training completo. Datos de test. Datos de validación interna. Datos simulados.

El objetivo del assessment es: Ajustar el modelo final. Evaluar generalización sin usar test. Reducir dimensionalidad. Eliminar outliers.

Las métricas out-of-sample se calculan usando: Training. Validation. Test. Residuos in-sample.

Una métrica adecuada para regresión es: Accuracy. AUC. RMSE. Precision.

Una métrica adecuada para clasificación binaria es: MAE. RMSE. Accuracy. R².

El data leakage provoca: Mayor error real. Métricas demasiado optimistas. Modelos inestables. Falta de convergencia.

La métrica que combina precisión y recall es: Accuracy. f1-measure. Specificity. AUC.

Una métrica debe seleccionarse en función de: El algoritmo. El tamaño del dataset. El objetivo del problema. El número de variables.

En clasificación probabilística, es obligatorio: Definir métricas hard. Definir un umbral. Usar soft predictions. Usar regresión.

El RMSE tiene la misma unidad que: El error cuadrático. La variable respuesta. La varianza. El logaritmo.

Una métrica robusta frente a outliers es: RMSE. MAE. R². Accuracy.

El objetivo principal de las métricas es: Ajustar modelos. Comparar algoritmos. Medir rendimiento predictivo. Reducir dimensionalidad.

Una mala elección de métrica puede: No afectar al modelo. Mejorar el rendimiento. Llevar a conclusiones erróneas. Reducir el overfitting.

La métrica ideal es aquella que: Maximiza siempre accuracy. Minimiza siempre error. Se adapta al objetivo del problema. Es la más popular.

Denunciar Test