Examen tipo ejemplo - Slides_MARS.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_MARS.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
El modelo MARS es un método de: Clasificación probabilística. Regresión no paramétrica basada en splines. Red neuronal profunda. Ensemble basado en árboles. El objetivo principal de MARS es: Maximizar la interpretabilidad. Ajustar relaciones lineales globales. Modelar relaciones no lineales de forma flexible. Reducir dimensionalidad. Los términos base de MARS se construyen mediante: Polinomios globales. Funciones kernel. Funciones tipo hinge (bisagra). Árboles de decisión. Una función hinge en MARS tiene la forma general: max(0, x − t) o max(0, t − x). x² − t. exp(x − t). |x − t|. El valor t en una función hinge se denomina: Coeficiente. Nodo. Punto de corte (knot). Regularizador. Durante la fase forward de MARS: Se eliminan términos irrelevantes. Se añaden términos para mejorar el ajuste. Se fija el modelo final. Se reduce la complejidad. La fase backward de MARS tiene como objetivo: Aumentar la complejidad. Introducir nuevas interacciones. Eliminar términos poco relevantes. Normalizar variables. El criterio más habitual para eliminar términos en la fase backward es: Accuracy. GCV. AUC. R² ajustado. El criterio GCV penaliza principalmente: El sesgo. El error de training. La complejidad del modelo. El número de observaciones. Un modelo MARS demasiado complejo puede provocar: Underfitting. Overfitting. Multicolinealidad. Data leakage. El hiperparámetro degree en MARS controla: El número de términos base. El grado del spline. El grado de interacción entre variables. La regularización. Si degree = 1, el modelo MARS: No puede capturar interacciones. Solo usa una variable. Es equivalente a una regresión lineal. Es un árbol. Un valor alto de nprune implica: Mayor regularización. Menor número de términos finales. Mayor complejidad potencial. Eliminación total de interacciones. MARS puede capturar interacciones porque: Usa árboles profundos. Combina funciones hinge de distintas variables. Usa kernels no lineales. Aplica boosting. En comparación con regresión lineal, MARS: Siempre es peor. No admite interpretación. Es capaz de modelar no linealidades. No admite variables numéricas. Una ventaja de MARS frente a árboles de decisión es: Menor capacidad predictiva. Superficies más suaves. Mayor varianza. Menor interpretabilidad. Una desventaja de MARS frente a Random Forest es: Mayor overfitting. Menor capacidad para relaciones complejas. Uso de bootstrap. No admite variables numéricas. MARS es especialmente adecuado cuando: La relación es estrictamente lineal. Hay relaciones no lineales suaves. Hay millones de observaciones. El problema es puramente categórico. Antes de aplicar MARS, es recomendable: PCA obligatorio. Normalización estricta. Un preprocesamiento básico. Eliminar todas las correlaciones. MARS maneja variables categóricas: De forma nativa. Mediante dummy variables. Solo ordinales. No las admite. El número de términos base en MARS afecta directamente a: El sesgo. La varianza. La complejidad. Todas las anteriores. Un modelo MARS con pocos términos suele presentar: Overfitting. Underfitting. Alta varianza. Inestabilidad. Durante el tuneado de MARS es habitual ajustar: Degree y nprune. Learning rate. mtry. Profundidad de árbol. El tuneado de MARS debe realizarse usando: El conjunto test. Validación cruzada. Training completo sin validación. Datos externos. El uso del conjunto test en el tuneado provoca: Regularización. Data leakage. Mejor generalización. Reducción del sesgo. Un workflow correcto con MARS debe incluir: Modelo y métricas únicamente. Preprocesamiento + modelo. Test en el tuneado. PCA obligatorio. MARS pertenece a la familia de modelos: Basados en distancia. Basados en árboles. Basados en splines adaptativos. Probabilísticos. En problemas con muchas interacciones complejas, suele ser preferible: MARS. Regresión lineal. Random Forest o Boosting. KNN. La interpretabilidad de MARS es: Nula. Similar a deep learning. Moderada. Total. Cada término base de MARS se interpreta como: Un árbol. Un coeficiente global. Una contribución local. Un kernel. El overfitting en MARS se controla principalmente mediante: Learning rate. Fase backward. Normalización. PCA. Si se aumenta degree, normalmente: Disminuye la varianza. Aumenta la complejidad. Disminuye el sesgo. B y C son correctas. MARS es un modelo: Paramétrico. No paramétrico. Probabilístico. Basado en vecinos. Una ventaja clave de MARS es que: Selecciona variables automáticamente. Requiere poco preprocesamiento. Elimina ruido. Siempre generaliza mejor. MARS puede verse afectado negativamente cuando: Hay muchas observaciones. Hay alta dimensionalidad con ruido. Las relaciones son suaves. Hay no linealidades. En tidymodels, MARS se integra normalmente mediante: workflows. recipes únicamente. metrics. resamples. Un modelo MARS bien ajustado busca: Minimizar error de training. Maximizar complejidad. Buen compromiso sesgo–varianza. Eliminar interacciones. El assessment de un modelo MARS debe hacerse con: Training completo. Validación cruzada. Test. Datos simulados. La comparación justa entre MARS y otros modelos requiere: Mismas métricas y mismo esquema de validación. Distintos conjuntos de datos. Más hiperparámetros. PCA obligatorio. MARS NO es adecuado cuando: Hay relaciones no lineales. Se requieren superficies suaves. El problema es altamente probabilístico. Hay interacciones. El número de funciones hinge crece con: Número de observaciones. Número de términos base. Número de categorías. Número de métricas. Una mala elección de nprune puede provocar: Underfitting u overfitting. Multicolinealidad. PCA incorrecto. Leakage. MARS selecciona automáticamente: Variables irrelevantes. Términos y puntos de corte. Métricas. Folds. En comparación con KNN, MARS: Es más local. Es más global y suave. No generaliza. No requiere training. El uso de interacciones en MARS: Siempre mejora el modelo. Puede aumentar el overfitting. Reduce varianza. Elimina ruido. MARS es especialmente útil en: Series temporales puras. Clasificación multinomial. Regresión con no linealidades. Clustering. Un modelo MARS con buen GCV suele: Sobreajustar. Generalizar mejor. Ser más complejo. Tener más términos. El papel del GCV en MARS es similar al de: AIC/BIC. Accuracy. Curva ROC. Recall. La fase forward de MARS es deliberadamente: Conservadora. Restrictiva. Sobreajustada. Probabilística. Un modelo MARS bien aplicado se caracteriza por: Máximo número de términos. Buen equilibrio entre ajuste e interpretabilidad. Uso del test en el tuneado. Eliminación de validación. |




