option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Slides_MARS.html

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Slides_MARS.html

Descripción:
Mineria de datos

Fecha de Creación: 2026/01/20

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

El modelo MARS es un método de: Clasificación probabilística. Regresión no paramétrica basada en splines. Red neuronal profunda. Ensemble basado en árboles.

El objetivo principal de MARS es: Maximizar la interpretabilidad. Ajustar relaciones lineales globales. Modelar relaciones no lineales de forma flexible. Reducir dimensionalidad.

Los términos base de MARS se construyen mediante: Polinomios globales. Funciones kernel. Funciones tipo hinge (bisagra). Árboles de decisión.

Una función hinge en MARS tiene la forma general: max(0, x − t) o max(0, t − x). x² − t. exp(x − t). |x − t|.

El valor t en una función hinge se denomina: Coeficiente. Nodo. Punto de corte (knot). Regularizador.

Durante la fase forward de MARS: Se eliminan términos irrelevantes. Se añaden términos para mejorar el ajuste. Se fija el modelo final. Se reduce la complejidad.

La fase backward de MARS tiene como objetivo: Aumentar la complejidad. Introducir nuevas interacciones. Eliminar términos poco relevantes. Normalizar variables.

El criterio más habitual para eliminar términos en la fase backward es: Accuracy. GCV. AUC. R² ajustado.

El criterio GCV penaliza principalmente: El sesgo. El error de training. La complejidad del modelo. El número de observaciones.

Un modelo MARS demasiado complejo puede provocar: Underfitting. Overfitting. Multicolinealidad. Data leakage.

El hiperparámetro degree en MARS controla: El número de términos base. El grado del spline. El grado de interacción entre variables. La regularización.

Si degree = 1, el modelo MARS: No puede capturar interacciones. Solo usa una variable. Es equivalente a una regresión lineal. Es un árbol.

Un valor alto de nprune implica: Mayor regularización. Menor número de términos finales. Mayor complejidad potencial. Eliminación total de interacciones.

MARS puede capturar interacciones porque: Usa árboles profundos. Combina funciones hinge de distintas variables. Usa kernels no lineales. Aplica boosting.

En comparación con regresión lineal, MARS: Siempre es peor. No admite interpretación. Es capaz de modelar no linealidades. No admite variables numéricas.

Una ventaja de MARS frente a árboles de decisión es: Menor capacidad predictiva. Superficies más suaves. Mayor varianza. Menor interpretabilidad.

Una desventaja de MARS frente a Random Forest es: Mayor overfitting. Menor capacidad para relaciones complejas. Uso de bootstrap. No admite variables numéricas.

MARS es especialmente adecuado cuando: La relación es estrictamente lineal. Hay relaciones no lineales suaves. Hay millones de observaciones. El problema es puramente categórico.

Antes de aplicar MARS, es recomendable: PCA obligatorio. Normalización estricta. Un preprocesamiento básico. Eliminar todas las correlaciones.

MARS maneja variables categóricas: De forma nativa. Mediante dummy variables. Solo ordinales. No las admite.

El número de términos base en MARS afecta directamente a: El sesgo. La varianza. La complejidad. Todas las anteriores.

Un modelo MARS con pocos términos suele presentar: Overfitting. Underfitting. Alta varianza. Inestabilidad.

Durante el tuneado de MARS es habitual ajustar: Degree y nprune. Learning rate. mtry. Profundidad de árbol.

El tuneado de MARS debe realizarse usando: El conjunto test. Validación cruzada. Training completo sin validación. Datos externos.

El uso del conjunto test en el tuneado provoca: Regularización. Data leakage. Mejor generalización. Reducción del sesgo.

Un workflow correcto con MARS debe incluir: Modelo y métricas únicamente. Preprocesamiento + modelo. Test en el tuneado. PCA obligatorio.

MARS pertenece a la familia de modelos: Basados en distancia. Basados en árboles. Basados en splines adaptativos. Probabilísticos.

En problemas con muchas interacciones complejas, suele ser preferible: MARS. Regresión lineal. Random Forest o Boosting. KNN.

La interpretabilidad de MARS es: Nula. Similar a deep learning. Moderada. Total.

Cada término base de MARS se interpreta como: Un árbol. Un coeficiente global. Una contribución local. Un kernel.

El overfitting en MARS se controla principalmente mediante: Learning rate. Fase backward. Normalización. PCA.

Si se aumenta degree, normalmente: Disminuye la varianza. Aumenta la complejidad. Disminuye el sesgo. B y C son correctas.

MARS es un modelo: Paramétrico. No paramétrico. Probabilístico. Basado en vecinos.

Una ventaja clave de MARS es que: Selecciona variables automáticamente. Requiere poco preprocesamiento. Elimina ruido. Siempre generaliza mejor.

MARS puede verse afectado negativamente cuando: Hay muchas observaciones. Hay alta dimensionalidad con ruido. Las relaciones son suaves. Hay no linealidades.

En tidymodels, MARS se integra normalmente mediante: workflows. recipes únicamente. metrics. resamples.

Un modelo MARS bien ajustado busca: Minimizar error de training. Maximizar complejidad. Buen compromiso sesgo–varianza. Eliminar interacciones.

El assessment de un modelo MARS debe hacerse con: Training completo. Validación cruzada. Test. Datos simulados.

La comparación justa entre MARS y otros modelos requiere: Mismas métricas y mismo esquema de validación. Distintos conjuntos de datos. Más hiperparámetros. PCA obligatorio.

MARS NO es adecuado cuando: Hay relaciones no lineales. Se requieren superficies suaves. El problema es altamente probabilístico. Hay interacciones.

El número de funciones hinge crece con: Número de observaciones. Número de términos base. Número de categorías. Número de métricas.

Una mala elección de nprune puede provocar: Underfitting u overfitting. Multicolinealidad. PCA incorrecto. Leakage.

MARS selecciona automáticamente: Variables irrelevantes. Términos y puntos de corte. Métricas. Folds.

En comparación con KNN, MARS: Es más local. Es más global y suave. No generaliza. No requiere training.

El uso de interacciones en MARS: Siempre mejora el modelo. Puede aumentar el overfitting. Reduce varianza. Elimina ruido.

MARS es especialmente útil en: Series temporales puras. Clasificación multinomial. Regresión con no linealidades. Clustering.

Un modelo MARS con buen GCV suele: Sobreajustar. Generalizar mejor. Ser más complejo. Tener más términos.

El papel del GCV en MARS es similar al de: AIC/BIC. Accuracy. Curva ROC. Recall.

La fase forward de MARS es deliberadamente: Conservadora. Restrictiva. Sobreajustada. Probabilística.

Un modelo MARS bien aplicado se caracteriza por: Máximo número de términos. Buen equilibrio entre ajuste e interpretabilidad. Uso del test en el tuneado. Eliminación de validación.

Denunciar Test