Examen tipo ejemplo - Slides_Boosting.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_Boosting.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Boosting es un método de tipo: Paramétrico. Ensamble. Lineal. Basado en distancias. La idea fundamental de boosting es: Entrenar modelos independientes en paralelo. Reducir la dimensionalidad. Entrenar modelos secuencialmente corrigiendo errores previos. Eliminar variables irrelevantes. En boosting, los modelos base suelen ser: Modelos muy complejos. Modelos fuertes. Modelos débiles. Modelos lineales. Un ejemplo típico de weak learner en boosting es: Random Forest. Árbol profundo. Árbol tipo stump. Red neuronal. A diferencia de bagging, boosting: Reduce principalmente el sesgo. Reduce solo la varianza. Entrena modelos en paralelo. Usa bootstrap independiente. Bagging y boosting se diferencian principalmente en que boosting: Usa muestreo sin reemplazo. Ajusta pesos a las observaciones. No utiliza árboles. No reduce overfitting. En boosting, las observaciones mal clasificadas: Se eliminan. Se ignoran. Aumentan su peso en iteraciones posteriores. Reducen su peso. El algoritmo AdaBoost se basa en: Minimizar RMSE. Ajustar gradientes. Ajustar pesos de observaciones. Bootstrap aggregation. AdaBoost fue propuesto originalmente para problemas de: Regresión. Clasificación. Clustering. Series temporales. En AdaBoost, los modelos se combinan mediante: Media simple. Media ponderada. Mediana. Votación aleatoria. Un problema de AdaBoost es que: Tiene alto sesgo. No captura interacciones. Es sensible a outliers. No admite clasificación. Gradient Boosting generaliza AdaBoost porque: Usa árboles más grandes. Se basa en optimización por gradiente. Elimina pesos. Usa bagging. En Gradient Boosting, cada nuevo modelo se ajusta a: Los valores originales del target. Los residuos del modelo anterior. Una muestra bootstrap. Las variables más importantes. Gradient Boosting puede utilizarse para: Solo clasificación. Solo regresión. Clasificación y regresión. Solo clustering. La función de pérdida en Gradient Boosting: Es siempre cuadrática. Es fija. Puede adaptarse al problema. No se utiliza. El parámetro learning_rate controla: El número de árboles. La profundidad. La contribución de cada árbol. El tamaño del bootstrap. Un learning_rate pequeño suele requerir: Menos árboles. Más árboles. Menos datos. Mayor profundidad. Un learning_rate muy grande puede provocar: Underfitting. Overfitting. Mayor sesgo. Mejor generalización siempre. El principal hiperparámetro estructural en boosting es: Número de observaciones. Profundidad de los árboles. Métrica de evaluación. Escala de variables. Boosting con árboles tipo stump (profundidad 1): No captura interacciones. Captura interacciones complejas. Es equivalente a Random Forest. Reduce dimensionalidad. Al aumentar la profundidad de los árboles en boosting: Aumenta el sesgo. Aumenta la capacidad del modelo. Disminuye la varianza. Se pierde flexibilidad. Boosting tiende a: Reducir solo la varianza. Reducir solo el sesgo. Reducir sesgo y puede aumentar varianza. No afectar al trade-off. Una ventaja de boosting frente a Random Forest es que: Es más interpretable. Reduce mejor el sesgo. Es menos sensible al ruido. No necesita tuneado. Una desventaja de boosting es que: No captura no linealidades. Puede sobreajustar si no se regula. No admite regresión. No admite clasificación. Boosting es especialmente sensible a: Escala de variables. Multicolinealidad. Outliers. Variables categóricas. XGBoost es una variante de: Bagging. AdaBoost. Gradient Boosting. Random Forest. XGBoost introduce mejoras como: Bootstrap puro. Regularización explícita. Eliminación de árboles. PCA integrado. Una ventaja de XGBoost es: Menor coste computacional. Regularización para evitar overfitting. Mayor interpretabilidad. No requiere hiperparámetros. El parámetro nrounds o n_estimators indica: Número de variables. Número de árboles. Profundidad. Número de clases. El parámetro max_depth controla: Número de árboles. Profundidad de cada árbol. Peso de observaciones. Métrica de evaluación. Reducir max_depth en boosting suele: Aumentar varianza. Reducir complejidad. Aumentar overfitting. No afectar al modelo. El conjunto de test debe utilizarse para: Ajustar hiperparámetros. Entrenar boosting. Evaluar el modelo final. Calcular gradientes. Usar el conjunto de test para tunear provoca: Underfitting. Mejor generalización. Data leakage. Menor sesgo. El tuneado en boosting se centra principalmente en: Métricas. Preprocesamiento. Hiperparámetros del modelo. Normalización. Boosting requiere normalización porque: Usa distancias. Usa coeficientes. No la requiere. Usa PCA. Boosting puede capturar interacciones: Nunca. Solo con árboles profundos. De forma automática. Solo en clasificación. Comparado con Random Forest, boosting suele ser: Menos flexible. Más propenso a overfitting. Más interpretable. Menos potente. Un boosting mal regulado puede provocar: Underfitting. Overfitting. Eliminación de variables. Normalización automática. Boosting pertenece a la familia de métodos: Lineales. Paramétricos. Ensamble secuencial. Basados en distancias. El objetivo final de boosting es: Maximizar interpretabilidad. Reducir dimensionalidad. Mejorar la generalización. Eliminar variables. Boosting es especialmente útil cuando: El modelo base tiene alto sesgo. El modelo base es estable. Hay pocos datos. No hay ruido. Boosting con árboles profundos suele: Aumentar sesgo. Aumentar varianza. Reducir capacidad. No capturar interacciones. Una forma de regularizar boosting es: Aumentar learning_rate. Reducir número de árboles. Aumentar profundidad. Eliminar validación. Boosting se diferencia de Random Forest porque: Usa árboles en paralelo. Entrena árboles secuencialmente. No reduce varianza. No captura interacciones. Boosting puede manejar variables categóricas: Nunca. Solo ordinales. Dependiendo de la implementación. Solo con PCA. En un workflow de tidymodels, boosting se incluye como: Recipe. Métrica. Modelo dentro del workflow. Validación cruzada. El assessment de boosting debe realizarse con: Training completo. Validación cruzada. Solo test. Datos externos. Boosting suele ser menos interpretable que: KNN. Regresión lineal. Árbol simple. Todos los anteriores. El principal riesgo de boosting es: Alto sesgo. No converger. Overfitting. No capturar relaciones. Boosting y Random Forest son similares porque ambos: Reducen dimensionalidad. Son métodos de ensamble basados en árboles. Usan gradientes. Son lineales. |




