Examen tipo ejemplo - Slides_Arboles_Decision.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_Arboles_Decision.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Un árbol de decisión es un modelo: Paramétrico y lineal. Paramétrico y no lineal. No paramétrico. Basado en distancias. Los árboles de decisión pueden utilizarse para: Solo clasificación. Solo regresión. Clasificación y regresión. Solo clustering. En un árbol de decisión, cada nodo interno representa: Una predicción final. Una regla de decisión sobre una variable. Un conjunto de coeficientes. Una observación individual. Las hojas (nodos terminales) de un árbol contienen: Reglas de partición. Predictores. Predicciones finales. Métricas globales. El objetivo principal al construir un árbol de decisión es: Maximizar la profundidad. Minimizar el error de generalización. Maximizar la pureza de los nodos. Maximizar el número de splits. En árboles de clasificación, la impureza de un nodo puede medirse mediante: RMSE. MAE. Índice de Gini. R². El índice de Gini toma valores entre: −1 y 1. 0 y 1. 0 y +∞. −∞ y +∞. Un valor bajo del índice de Gini indica: Alta impureza. Alta varianza. Alta pureza. Baja precisión. Otra medida habitual de impureza en clasificación es: Entropía. RMSE. MAE. R². En árboles de regresión, el criterio de partición se basa en: Accuracy. Varianza dentro de los nodos. Entropía. AUC. Un split óptimo es aquel que: Maximiza el número de observaciones. Minimiza la impureza ponderada. Maximiza la profundidad. Minimiza el número de hojas. Los árboles de decisión pueden manejar variables categóricas: Solo si son ordinales. Solo tras crear dummies. De forma nativa. Únicamente binarizadas. Una ventaja de los árboles de decisión es que: Requieren normalización. Son muy interpretables. Son poco flexibles. Siempre generalizan bien. Una desventaja principal de los árboles de decisión es que: No admiten regresión. Son muy robustos. Tienden al overfitting. No capturan interacciones. Los árboles de decisión capturan interacciones: Nunca. Solo si se especifican. De forma automática. Solo en regresión. Un árbol muy profundo suele presentar: Alto sesgo. Bajo sesgo y alta varianza. Bajo sesgo y baja varianza. Alto sesgo y baja varianza. Limitar la profundidad máxima del árbol ayuda a: Aumentar varianza. Reducir overfitting. Aumentar el sesgo. Eliminar variables. El parámetro max_depth controla: El número de observaciones. El número máximo de splits. La profundidad máxima del árbol. El criterio de impureza. El parámetro min_n (o min_samples_leaf) indica: El número mínimo de splits. El número mínimo de observaciones en una hoja. El número máximo de hojas. El número de predictores. Un valor grande de min_n provoca: Árboles más complejos. Mayor varianza. Árboles más simples. Mayor overfitting. El proceso de pruning consiste en: Añadir splits al árbol. Eliminar ramas poco informativas. Normalizar variables. Crear árboles adicionales. El cost complexity pruning se basa en: Maximizar la profundidad. Penalizar árboles complejos. Aumentar la impureza. Eliminar variables categóricas. Un árbol no podado tiende a: Underfitting. Buena generalización. Overfitting. Baja varianza. La selección del árbol óptimo suele realizarse mediante: Training completo. Conjunto de test. Validación cruzada. Datos externos. Utilizar el conjunto de test para ajustar el árbol provoca: Underfitting. Mayor robustez. Data leakage. Regularización. Los árboles de decisión son especialmente sensibles a: Escala de las variables. Multicolinealidad. Pequeños cambios en los datos. Normalización. Una característica de los árboles es que: Requieren variables normalizadas. No se ven afectados por la escala. No admiten missing. No admiten categóricas. En presencia de outliers, los árboles de decisión: Son muy sensibles. Son relativamente robustos. No pueden entrenarse. Fallan siempre. El principal hiperparámetro a tunear en árboles es: La métrica de evaluación. El criterio de impureza. La complejidad del árbol. El número de observaciones. Un árbol muy simple suele presentar: Alto sesgo. Baja varianza. Underfitting. Todas las anteriores. En un árbol de regresión, la predicción en una hoja es: La mediana. La media de las observaciones. El valor máximo. El valor mínimo. En clasificación binaria, la predicción en una hoja suele ser: La clase menos frecuente. La clase más frecuente. Una probabilidad aleatoria. Siempre la clase positiva. Los árboles de decisión son modelos: Globales. Locales. Lineales. Paramétricos. Una regla de decisión típica en un árbol es del tipo: y = β₀ + β₁x. x ≤ c. logit(p). dist(xᵢ, xⱼ). El número de nodos de un árbol aumenta cuando: Se reduce la profundidad. Se reduce min_n. Se poda el árbol. Se aumenta la regularización. Un árbol con muchas hojas suele tener: Bajo sesgo. Alta varianza. Riesgo de overfitting. Todas las anteriores. La interpretabilidad de los árboles: Disminuye con la profundidad. Aumenta con la profundidad. No depende del tamaño. Es siempre nula. Los árboles de decisión NO requieren: Selección de variables. Normalización. Definir reglas de decisión. Criterios de impureza. Una ventaja frente a KNN es que los árboles: Usan distancias. Requieren menos memoria en predicción. on más sensibles a la escala. No generalizan. Comparado con regresión lineal, un árbol: Es menos flexible. No captura no linealidades. Captura relaciones no lineales. Es paramétrico. Los árboles pueden formar la base de: Regresión penalizada. Random Forest. KNN. PCA. Random Forest mejora a un árbol simple porque: Reduce sesgo. Reduce varianza. Elimina normalización. Elimina overfitting por completo. Un árbol individual suele ser: Muy estable. Poco interpretable. Inestable. Siempre óptimo. La principal función del bagging es: Aumentar sesgo. Reducir varianza. Aumentar profundidad. Eliminar variables. Los árboles pueden trabajar con missing: Nunca. Solo imputados. En algunos algoritmos. Solo en regresión. Una mala elección de hiperparámetros puede provocar: Mejor generalización. Underfitting u overfitting. Normalización automática. Eliminación de ruido. El objetivo final de un árbol de decisión es: Maximizar el número de nodos. Explicar y predecir la variable target. Eliminar variables. Maximizar accuracy siempre. Los árboles son especialmente útiles cuando: La relación es estrictamente lineal. Hay relaciones no lineales e interacciones. Hay muchos outliers. Hay pocas observaciones. En un proyecto de datos, los árboles deben evaluarse mediante: Training completo. Assessment con remuestreo. Test únicamente. Inspección visual. El conjunto de test debe utilizarse para: Ajustar el árbol. Tunear hiperparámetros. Evaluar el modelo final. Podar el árbol. |




