option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Slides_Bagging_Random_Forest.html

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Slides_Bagging_Random_Forest.html

Descripción:
Mineria de datos

Fecha de Creación: 2026/01/20

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

El objetivo principal del bagging es: Reducir el sesgo. Reducir la varianza. Reducir la dimensionalidad. Reducir el coste computacional.

Bagging significa: Bootstrap Aggregation. Bayesian Aggregation. Balanced Grouping. Bootstrap Averaging.

En bagging, cada modelo se entrena sobre: El conjunto de test. El dataset completo sin reemplazo. Una muestra bootstrap del training. Datos externos.

Una muestra bootstrap se obtiene mediante: Muestreo sin reemplazo. Muestreo con reemplazo. Submuestreo estratificado. Validación cruzada.

En bagging para regresión, la predicción final es: El máximo de las predicciones. La mediana. La media de las predicciones. La predicción del mejor modelo.

En bagging para clasificación, la predicción final suele ser: La clase del primer modelo. La clase con mayor probabilidad media. La clase más votada. La clase minoritaria.

Bagging es especialmente útil para modelos que son: Muy estables. De alto sesgo. De alta varianza. Lineales.

Un ejemplo típico de modelo base en bagging es: Regresión lineal. KNN. Árboles de decisión. PCA.

Bagging reduce la varianza porque: Reduce la profundidad de los modelos. Promedia múltiples modelos independientes. Elimina variables. Usa regularización.

Bagging NO suele reducir: Varianza. Overfitting. Sesgo. Inestabilidad.

Random Forest es una extensión de: Boosting. KNN. Bagging. Regresión penalizada.

La diferencia clave entre bagging y Random Forest es que Random Forest: No usa bootstrap. Usa selección aleatoria de variables en cada split. Usa árboles podados. No permite clasificación.

El parámetro mtry en Random Forest controla: El número de árboles. La profundidad del árbol. El número de variables consideradas en cada split. El tamaño del bootstrap.

Reducir mtry en Random Forest suele: Aumentar la correlación entre árboles. Reducir la diversidad entre árboles. Aumentar la diversidad entre árboles. Eliminar overfitting.

Random Forest mejora a bagging principalmente porque: Reduce sesgo. Reduce correlación entre árboles. Reduce coste computacional. Elimina la necesidad de bootstrap.

El número de árboles en un Random Forest se controla con: mtry. max_depth. trees o n_estimators. min_n.

Aumentar el número de árboles suele: Aumentar el overfitting. Reducir el rendimiento. Mejorar la estabilidad del modelo. Aumentar el sesgo.

Un inconveniente de Random Forest es que: Tiene alto sesgo. Es poco interpretable. No admite clasificación. Requiere normalización.

Random Forest es un modelo: Lineal. Paramétrico. No paramétrico. Basado en distancias.

El out-of-bag error se calcula usando: El conjunto de test. Observaciones no usadas en cada bootstrap. Validación cruzada. El training completo.

El error Out-Of-Bag permite: Ajustar hiperparámetros sin validación cruzada explícita. Reducir dimensionalidad. Aumentar la profundidad. Normalizar variables.

Una ventaja del error Out-Of-Bag es que: Usa el conjunto de test. Reduce el tiempo de entrenamiento. Proporciona una estimación del error de generalización. Elimina la varianza.

Random Forest es robusto frente a overfitting porque: Usa regularización L2. Promedia muchos árboles no correlacionados. Usa árboles muy simples. Reduce el número de variables.

Random Forest maneja variables categóricas: Solo con dummies. Solo ordinales. De forma nativa (según implementación). No las admite.

Random Forest requiere normalización porque: Usa distancias. Usa coeficientes. No la requiere. Maximiza SSR.

Comparado con un árbol simple, Random Forest suele tener: Mayor varianza. Menor estabilidad. Mejor generalización. Menor coste computacional.

Random Forest captura interacciones: Nunca. Solo si se especifican. De forma automática. Solo en regresión.

La importancia de variables en Random Forest se basa en: Coeficientes β. Distancias. Reducción de impureza o permutaciones. Correlaciones.

Una limitación de la importancia de variables es que: No existe. Puede estar sesgada hacia variables con más categorías. Solo funciona en regresión. No depende del modelo.

Random Forest es especialmente adecuado cuando: Hay relaciones estrictamente lineales. Hay no linealidades e interacciones complejas. El dataset es muy pequeño. Se requiere máxima interpretabilidad.

Bagging y Random Forest son métodos de tipo: Boosting. Ensamble. Paramétrico. Lineal.

El sesgo de Random Forest comparado con un árbol simple suele ser: Mayor. Igual. Similar o ligeramente mayor. Cero.

La varianza de Random Forest comparada con un árbol simple es: Mayor. Similar. Menor. Cero.

Random Forest es sensible a: Escala de las variables. Multicolinealidad. Elección de hiperparámetros. Normalización.

Un valor de mtry muy grande hace que el modelo se parezca más a: KNN. Bagging. Un único árbol. Boosting.

Reducir mtry demasiado puede provocar: Mayor correlación. Mayor sesgo. Overfitting. Mejor interpretabilidad.

Random Forest puede usarse para: Solo clasificación. Solo regresión. Clasificación y regresión. Solo clustering.

El principal objetivo del tuneado en Random Forest es: Maximizar el número de árboles. Minimizar el error de generalización. Maximizar la profundidad. Eliminar variables.

El conjunto de test debe utilizarse para: Ajustar mtry. Ajustar el número de árboles. Evaluar el modelo final. Crear bootstraps.

Utilizar el conjunto de test para tunear hiperparámetros provoca: Underfitting. Mejor generalización. Data leakage. Menor varianza.

Random Forest suele superar a un árbol simple porque: Tiene menor sesgo. Tiene menor varianza. Es más interpretable. Es más simple.

El coste computacional de Random Forest es: Menor que un árbol. Similar. Mayor que un árbol. Nulo.

Random Forest es poco interpretable porque: Usa funciones complejas. Combina muchos árboles. Usa coeficientes. No tiene hiperparámetros.

Bagging y Random Forest reducen el overfitting principalmente al: Aumentar sesgo. Reducir varianza. Reducir dimensionalidad. Normalizar.

Random Forest puede manejar outliers: Muy mal. Mejor que modelos lineales. Peor que KNN. Solo si se normaliza.

Una desventaja práctica de Random Forest es que: No escala. Consume memoria. No generaliza. No admite missing.

Random Forest puede trabajar con missing: Nunca. Siempre sin problemas. En algunas implementaciones. Solo imputados.

Random Forest pertenece a la familia de: Modelos lineales. Métodos de ensamble basados en árboles. Métodos de boosting. Modelos probabilísticos.

El objetivo final de Random Forest es: Maximizar interpretabilidad. Mejorar la generalización. Eliminar variables. Maximizar accuracy en training.

Bagging y Random Forest son especialmente útiles cuando: Los modelos base son estables. Los modelos base son inestables. Hay pocas observaciones. No hay ruido.

Denunciar Test