Examen tipo ejemplo - Slides_Optimización_Tuneado.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_Optimización_Tuneado.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
El objetivo principal del tuneado de hiperparámetros es: Maximizar el rendimiento en training. Minimizar el error de generalización. Reducir la dimensionalidad. Eliminar variables irrelevantes. Un hiperparámetro se diferencia de un parámetro porque: Se estima durante el entrenamiento. Es aprendido automáticamente. Se fija antes del entrenamiento. Depende del dataset. El proceso de optimización de hiperparámetros debe realizarse sobre: El conjunto de test. El conjunto de training completo. Un esquema de validación del training. Datos externos. Utilizar el conjunto de test para ajustar hiperparámetros provoca: Underfitting. Mejor generalización. Data leakage. Regularización. La validación cruzada se utiliza principalmente para: Entrenar el modelo final. Estimar el error de generalización. Normalizar variables. Seleccionar variables. En un k-fold cross-validation, el parámetro k indica: El número de modelos. El número de particiones. El número de variables. El número de hiperparámetros. Un valor grande de k en cross-validation implica: Mayor sesgo y menor coste. Menor sesgo y mayor coste computacional. Mayor varianza. Peor estimación del error. Leave-One-Out Cross-Validation se caracteriza por: k = 2. k igual al número de observaciones. Bajo coste computacional. Alto sesgo. El principal inconveniente del LOOCV es: Alto sesgo. Baja varianza. Alto coste computacional. Baja precisión. Grid Search consiste en: Explorar hiperparámetros aleatoriamente. Explorar combinaciones predefinidas de hiperparámetros. Optimizar por gradiente. Eliminar hiperparámetros irrelevantes. Una desventaja del Grid Search es que: No encuentra el óptimo. No es reproducible. Es computacionalmente costoso. No se puede paralelizar. Random Search se diferencia de Grid Search porque: Explora menos combinaciones de forma aleatoria. Usa gradientes. No requiere validación cruzada. Siempre es peor. Random Search puede ser preferible cuando: Hay pocos hiperparámetros. El espacio de hiperparámetros es grande. El coste computacional es irrelevante. No hay ruido. Bayesian Optimization se caracteriza por: Evaluar todas las combinaciones. Usar información de iteraciones previas. No usar validación. Ser completamente aleatoria. Una ventaja de la optimización bayesiana es que: No requiere métricas. Reduce el número de evaluaciones necesarias. Elimina overfitting. No necesita hiperparámetros. El objetivo de una función de coste en tuneado es: Ajustar el modelo final. Medir el rendimiento del modelo. Normalizar datos. Seleccionar variables. La métrica utilizada para el tuneado debe: Ser distinta a la del assessment. Ser coherente con el objetivo del problema. Maximizar accuracy siempre. No depender del tipo de modelo. En clasificación con clases desbalanceadas es preferible optimizar: Accuracy. Sensitividad, especificidad o AUC. RMSE. R². El assessment de un modelo debe realizarse: Antes del tuneado. Después del tuneado. Durante el preprocesamiento. Solo con test. Un assessment correcto evalúa el modelo usando: Training completo. Validación cruzada sobre training. Test únicamente. Datos sintéticos. La diferencia entre tuneado y assessment es que: Son equivalentes. El tuneado busca hiperparámetros y el assessment evalúa el rendimiento. El assessment ajusta hiperparámetros. El tuneado usa test. En un workflow correcto, el preprocesamiento debe: Aplicarse antes de la división train/test. Ajustarse solo con training. Ajustarse con training y test. Evitarse durante el tuneado. Incluir el preprocesamiento dentro del workflow evita: Overfitting. Data leakage. Underfitting. Multicolinealidad. El número de combinaciones evaluadas en Grid Search depende de: El tamaño del dataset. El número de métricas. El número de hiperparámetros y sus valores. El número de folds. Aumentar el número de hiperparámetros a tunear suele provocar: Menor coste computacional. Mayor coste computacional. Mejor interpretabilidad. Menor varianza. En un proyecto de datos, el conjunto de test debe utilizarse para: Tuneado. Assessment. Evaluación final del modelo. Preprocesamiento. La reutilización del test durante el desarrollo provoca: Mejor generalización. Data leakage. Regularización. Robustez. Un buen criterio para detener el tuneado es: Cuando mejora el error de training. Cuando no mejora la métrica de validación. Cuando se agotan los datos. Cuando aumenta el número de árboles. El coste computacional del tuneado depende principalmente de: El número de observaciones. El número de combinaciones evaluadas. El tipo de métrica. La normalización. En modelos complejos, suele ser preferible: Un tuneado exhaustivo. No tunear. Un tuneado progresivo y regulado. Usar siempre Grid Search. El overfitting durante el tuneado ocurre cuando: Se optimiza una métrica adecuada. Se ajustan hiperparámetros al ruido del training. Se usa validación cruzada. Se reduce la varianza. Una forma de reducir overfitting en el tuneado es: Usar el conjunto de test. Reducir el espacio de búsqueda. Aumentar hiperparámetros. Optimizar accuracy. En clasificación binaria con prevalencia baja, optimizar accuracy puede: Mejorar la detección. Ser engañoso. Eliminar sesgo. Reducir varianza. La selección final del modelo debe basarse en: Métricas de training. Métricas de validación. Métricas de test. Número de hiperparámetros. El conjunto de test debe usarse: Varias veces durante el desarrollo. Solo una vez al final. Para validar hiperparámetros. Para entrenar. En tidymodels, el tuneado se integra habitualmente mediante: Recipes. Workflows. Tune + resamples. Metrics. El objeto que combina preprocesamiento y modelo es: Recipe. Workflow. Metric set. Resample. Un error común en proyectos de datos es: Usar validación cruzada. Ajustar hiperparámetros con test. Separar training y test. Usar workflows. La métrica de optimización debe seleccionarse en función de: El algoritmo. El tipo de problema y el objetivo. El número de variables. El tamaño del dataset. Optimizar múltiples métricas simultáneamente: No es posible. Siempre mejora resultados. Requiere criterios de decisión claros. Elimina overfitting. Un buen tuneado busca: Maximizar complejidad. Minimizar el error de training. Compromiso entre sesgo y varianza. Eliminar validación. La regularización actúa como: Un aumento de complejidad. Un mecanismo de control del overfitting. Un método de imputación. Un tipo de métrica. El tuneado de hiperparámetros debe realizarse: Antes del preprocesamiento. Integrado en el workflow. Después del test. Sin métricas. Un modelo bien tuneado es aquel que: Maximiza accuracy. Minimiza error en training. Generaliza mejor. Es más complejo. La optimización excesiva de hiperparámetros puede provocar: Underfitting. Overfitting. Eliminación de ruido. Reducción de sesgo. El uso de semillas aleatorias en tuneado sirve para: Aumentar accuracy. Garantizar reproducibilidad. Reducir varianza. Normalizar datos. El preprocesamiento debe evaluarse: Con test. De forma independiente. Dentro del workflow. Solo una vez. Una buena práctica en optimización es: Tunear todos los hiperparámetros posibles. Priorizar los más influyentes. Usar siempre LOOCV. Evitar validación. El objetivo final de la optimización es: Maximizar interpretabilidad. Minimizar el error de generalización. Reducir dimensionalidad. Maximizar training accuracy. Un proyecto de datos bien optimizado se caracteriza por: Uso intensivo del test. Correcta separación entre tuneado, assessment y test. Máxima complejidad. Optimización sin métricas. |




