option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Slides_Boosting.html

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Slides_Boosting.html

Descripción:
Mineria de datos

Fecha de Creación: 2026/01/20

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Boosting es un método de tipo: Paramétrico. Ensamble. Lineal. Basado en distancias.

La idea fundamental de boosting es: Entrenar modelos independientes en paralelo. Reducir la dimensionalidad. Entrenar modelos secuencialmente corrigiendo errores previos. Eliminar variables irrelevantes.

En boosting, los modelos base suelen ser: Modelos muy complejos. Modelos fuertes. Modelos débiles. Modelos lineales.

Un ejemplo típico de weak learner en boosting es: Random Forest. Árbol profundo. Árbol tipo stump. Red neuronal.

A diferencia de bagging, boosting: Reduce principalmente el sesgo. Reduce solo la varianza. Entrena modelos en paralelo. Usa bootstrap independiente.

Bagging y boosting se diferencian principalmente en que boosting: Usa muestreo sin reemplazo. Ajusta pesos a las observaciones. No utiliza árboles. No reduce overfitting.

En boosting, las observaciones mal clasificadas: Se eliminan. Se ignoran. Aumentan su peso en iteraciones posteriores. Reducen su peso.

El algoritmo AdaBoost se basa en: Minimizar RMSE. Ajustar gradientes. Ajustar pesos de observaciones. Bootstrap aggregation.

AdaBoost fue propuesto originalmente para problemas de: Regresión. Clasificación. Clustering. Series temporales.

En AdaBoost, los modelos se combinan mediante: Media simple. Media ponderada. Mediana. Votación aleatoria.

Un problema de AdaBoost es que: Tiene alto sesgo. No captura interacciones. Es sensible a outliers. No admite clasificación.

Gradient Boosting generaliza AdaBoost porque: Usa árboles más grandes. Se basa en optimización por gradiente. Elimina pesos. Usa bagging.

En Gradient Boosting, cada nuevo modelo se ajusta a: Los valores originales del target. Los residuos del modelo anterior. Una muestra bootstrap. Las variables más importantes.

Gradient Boosting puede utilizarse para: Solo clasificación. Solo regresión. Clasificación y regresión. Solo clustering.

La función de pérdida en Gradient Boosting: Es siempre cuadrática. Es fija. Puede adaptarse al problema. No se utiliza.

El parámetro learning_rate controla: El número de árboles. La profundidad. La contribución de cada árbol. El tamaño del bootstrap.

Un learning_rate pequeño suele requerir: Menos árboles. Más árboles. Menos datos. Mayor profundidad.

Un learning_rate muy grande puede provocar: Underfitting. Overfitting. Mayor sesgo. Mejor generalización siempre.

El principal hiperparámetro estructural en boosting es: Número de observaciones. Profundidad de los árboles. Métrica de evaluación. Escala de variables.

Boosting con árboles tipo stump (profundidad 1): No captura interacciones. Captura interacciones complejas. Es equivalente a Random Forest. Reduce dimensionalidad.

Al aumentar la profundidad de los árboles en boosting: Aumenta el sesgo. Aumenta la capacidad del modelo. Disminuye la varianza. Se pierde flexibilidad.

Boosting tiende a: Reducir solo la varianza. Reducir solo el sesgo. Reducir sesgo y puede aumentar varianza. No afectar al trade-off.

Una ventaja de boosting frente a Random Forest es que: Es más interpretable. Reduce mejor el sesgo. Es menos sensible al ruido. No necesita tuneado.

Una desventaja de boosting es que: No captura no linealidades. Puede sobreajustar si no se regula. No admite regresión. No admite clasificación.

Boosting es especialmente sensible a: Escala de variables. Multicolinealidad. Outliers. Variables categóricas.

XGBoost es una variante de: Bagging. AdaBoost. Gradient Boosting. Random Forest.

XGBoost introduce mejoras como: Bootstrap puro. Regularización explícita. Eliminación de árboles. PCA integrado.

Una ventaja de XGBoost es: Menor coste computacional. Regularización para evitar overfitting. Mayor interpretabilidad. No requiere hiperparámetros.

El parámetro nrounds o n_estimators indica: Número de variables. Número de árboles. Profundidad. Número de clases.

El parámetro max_depth controla: Número de árboles. Profundidad de cada árbol. Peso de observaciones. Métrica de evaluación.

Reducir max_depth en boosting suele: Aumentar varianza. Reducir complejidad. Aumentar overfitting. No afectar al modelo.

El conjunto de test debe utilizarse para: Ajustar hiperparámetros. Entrenar boosting. Evaluar el modelo final. Calcular gradientes.

Usar el conjunto de test para tunear provoca: Underfitting. Mejor generalización. Data leakage. Menor sesgo.

El tuneado en boosting se centra principalmente en: Métricas. Preprocesamiento. Hiperparámetros del modelo. Normalización.

Boosting requiere normalización porque: Usa distancias. Usa coeficientes. No la requiere. Usa PCA.

Boosting puede capturar interacciones: Nunca. Solo con árboles profundos. De forma automática. Solo en clasificación.

Comparado con Random Forest, boosting suele ser: Menos flexible. Más propenso a overfitting. Más interpretable. Menos potente.

Un boosting mal regulado puede provocar: Underfitting. Overfitting. Eliminación de variables. Normalización automática.

Boosting pertenece a la familia de métodos: Lineales. Paramétricos. Ensamble secuencial. Basados en distancias.

El objetivo final de boosting es: Maximizar interpretabilidad. Reducir dimensionalidad. Mejorar la generalización. Eliminar variables.

Boosting es especialmente útil cuando: El modelo base tiene alto sesgo. El modelo base es estable. Hay pocos datos. No hay ruido.

Boosting con árboles profundos suele: Aumentar sesgo. Aumentar varianza. Reducir capacidad. No capturar interacciones.

Una forma de regularizar boosting es: Aumentar learning_rate. Reducir número de árboles. Aumentar profundidad. Eliminar validación.

Boosting se diferencia de Random Forest porque: Usa árboles en paralelo. Entrena árboles secuencialmente. No reduce varianza. No captura interacciones.

Boosting puede manejar variables categóricas: Nunca. Solo ordinales. Dependiendo de la implementación. Solo con PCA.

En un workflow de tidymodels, boosting se incluye como: Recipe. Métrica. Modelo dentro del workflow. Validación cruzada.

El assessment de boosting debe realizarse con: Training completo. Validación cruzada. Solo test. Datos externos.

Boosting suele ser menos interpretable que: KNN. Regresión lineal. Árbol simple. Todos los anteriores.

El principal riesgo de boosting es: Alto sesgo. No converger. Overfitting. No capturar relaciones.

Boosting y Random Forest son similares porque ambos: Reducen dimensionalidad. Son métodos de ensamble basados en árboles. Usan gradientes. Son lineales.

Denunciar Test