Examen tipo ejemplo - Slides_Modelos_Regresion_Penalizados.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_Modelos_Regresion_Penalizados.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál es la función objetivo general de un modelo de regresión penalizado?. Minimizar únicamente la suma de cuadrados residual. Maximizar la verosimilitud del modelo. Minimizar la suma de cuadrados residual más un término de penalización. Minimizar el error absoluto medio. ¿En qué tipo de situaciones es especialmente útil la regresión penalizada?. Cuando el número de observaciones es mucho mayor que el número de predictores. Cuando las variables son independientes entre sí. Cuando existen muchos predictores y alta correlación entre ellos. Cuando la variable respuesta es categórica. ¿Qué representa el término SSR en los modelos de regresión penalizados?. La suma de los coeficientes estimados. La suma de cuadrados residual. El término de regularización. El error absoluto medio. ¿Cuál es la función objetivo de la regresión Ridge?. SSR + λ Σ|βᵢ|. SSR + λ Σβᵢ. SSR + λ Σβᵢ². SSR + Σ(βᵢ − β̂ᵢ)². ¿Qué efecto tiene aumentar el valor de λ en Ridge?. Reduce la penalización. Incrementa el tamaño de los coeficientes. Aumenta la regularización. Elimina variables automáticamente. En regresión Ridge, los coeficientes βᵢ…. Se anulan exactamente para valores grandes de λ. No se ven afectados por λ. Se reducen, pero normalmente no llegan a cero. Se vuelven discretos. ¿Qué característica diferencia principalmente a Ridge de LASSO?. Ridge permite selección automática de variables. LASSO penaliza con βᵢ². Ridge no produce coeficientes exactamente nulos. LASSO no utiliza regularización. ¿Cuál es la función objetivo de la regresión LASSO?. SSR + λ Σβᵢ². SSR + λ Σ|βᵢ|. SSR + λ Σβᵢ. SSR + λ Σ(βᵢ − β̂ᵢ)². ¿Por qué LASSO permite selección automática de variables?. Porque elimina observaciones atípicas. Porque algunos coeficientes se hacen exactamente cero. Porque maximiza R². Porque no utiliza regularización. ¿Qué ocurre al aumentar λ en LASSO?. Se reduce la penalización. Se incrementa la varianza del modelo. Se incrementa la penalización y más coeficientes pueden anularse. El modelo se vuelve no lineal. ¿Qué problema puede presentar LASSO cuando existen variables muy correlacionadas?. No converge. Selecciona todas las variables. Tiende a seleccionar solo una de ellas. Elimina la penalización. ¿Cuál es la función objetivo de Elastic Net?. SSR + λ Σβᵢ². SSR + λ Σ|βᵢ. SSR + λ₁ Σβᵢ² + λ₂ Σ|βᵢ|. SSR + Σ(βᵢ − β̂ᵢ)². Elastic Net combina propiedades de: Ridge y regresión clásica. LASSO y regresión clásica. Ridge y LASSO. Árboles y regresión. ¿Cuándo Elastic Net se convierte en Ridge?. Cuando λ₂ = 0. Cuando λ₁ = 0. Cuando λ₁ = λ₂. Cuando λ = 1. ¿Cuándo Elastic Net se convierte en LASSO?. Cuando λ₁ = 0. Cuando λ₂ = 0. Cuando λ₁ = λ₂. Cuando λ = 0. ¿Qué ventaja principal tiene Elastic Net frente a LASSO?. Menor complejidad computacional. Mejor comportamiento con variables correlacionadas. No necesita tuneado. No requiere estandarización. En glmnet, ¿qué valor de mixture corresponde a Ridge?. 1. 0.5. 0. -1. En glmnet, ¿qué valor de mixture corresponde a LASSO?. 0. 0.5. 1. Depende de λ. ¿Qué intervalo toma el parámetro mixture en Elastic Net?. (−∞, ∞). {0,1}. [0,1]. [−1,1]. ¿Qué parámetros deben tunearse en Elastic Net?. Solo λ. Solo mixture. λ y mixture. Ninguno. ¿Qué técnica se utiliza en las diapositivas para seleccionar λ?. Bootstrap. Validación cruzada. Hold-out simple. Grid aleatorio sin validación. ¿Qué métricas se utilizan para evaluar los modelos?. Accuracy y Recall. RMSE, MAE y R². AUC y F1. Log-loss. ¿Por qué es necesario normalizar los predictores en regresión penalizada?. Para reducir el número de observaciones. Para que la penalización actúe de forma comparable. Para eliminar valores nulos. Para maximizar R². ¿Qué ocurre si no se normalizan las variables?. El modelo no converge. Las variables con mayor escala dominan la penalización. No afecta al resultado. El modelo se vuelve no lineal. En un workflow con tidymodels, ¿qué componente define el preprocesado?. Model. Engine. Recipe. Metric. ¿Qué función se utiliza para crear validación cruzada repetida?. initial_split(). vfold_cv(). bootstraps(). cross_val(). ¿Qué ocurre con los coeficientes en Ridge cuando λ → ∞?. Se hacen cero exactamente. Crecen sin límite. Tienden a cero. Cambian de signo. ¿Cuál de las siguientes afirmaciones es correcta?. Ridge elimina variables irrelevantes. LASSO no depende de λ. Elastic Net combina regularización L1 y L2. LASSO penaliza con β². ¿Qué significa que un modelo tenga soluciones “esquina”?. Que no converge. Que los coeficientes se hacen infinitos. Que algunos coeficientes se hacen exactamente cero. Que el error es mínimo. ¿Qué modelo es más adecuado cuando hay muchas variables correlacionadas?. Regresión clásica. LASSO. Ridge. Regresión logística. En regresión penalizada, el parámetro λ controla principalmente: El número de predictores. El grado de regularización. El número de observaciones. El tipo de métrica utilizada. Un valor de λ muy pequeño implica que el modelo: Está fuertemente penalizado. Se aproxima a la regresión lineal clásica. Elimina muchas variables. No puede ajustarse. Un valor de λ muy grande provoca que: El modelo tenga mayor varianza. Los coeficientes crezcan. Los coeficientes se reduzcan fuertemente. El R² aumente siempre. El principal objetivo del tuneado de λ es: Maximizar R² en training. Minimizar el error de generalización. Eliminar variables irrelevantes. Reducir el número de observaciones. Durante el tuneado, el valor óptimo de λ se selecciona usando: El conjunto de test. El conjunto de training completo. Validación cruzada. Datos externos. Utilizar el conjunto de test para elegir λ provoca: Underfitting. Mejor generalización. Data leakage. Mayor robustez. En tidymodels, el tuneado de hiperparámetros se realiza mediante: fit(). last_fit(). tune_grid(). collect_metrics(). En un modelo Elastic Net, el parámetro mixture controla: El tamaño de λ. La proporción entre penalización L1 y L2. El número de folds. El número de métricas. Un valor de mixture = 0.3 indica que el modelo es: LASSO puro. Ridge puro. Una combinación de Ridge y LASSO. Regresión clásica. En Elastic Net, aumentar mixture hacia 1 hace que el modelo se parezca más a: Ridge. Regresión clásica. LASSO. Regresión logística. La normalización de predictores es especialmente importante en: Árboles de decisión. Random Forest. Regresión penalizada. Naive Bayes. La razón principal para normalizar antes de aplicar Ridge o LASSO es: Reducir el número de variables. Eliminar outliers. Evitar que la penalización dependa de la escala. Maximizar el R². ¿Qué paso de una receta se encarga habitualmente de la normalización?. step_dummy(). step_other(). step_normalize(). step_nzv(). Una penalización mal ajustada puede provocar: Overfitting o underfitting. Eliminación automática del intercepto. Errores de codificación. Fugas de memoria. Ridge suele preferirse a LASSO cuando: Hay pocas variables. Se desea selección automática de variables. Los predictores están muy correlacionados. El target es binario. LASSO suele preferirse a Ridge cuando: No hay correlación entre variables. Se quiere reducir dimensionalidad. Se quiere mantener todos los predictores. El dataset es pequeño. Un coeficiente exactamente cero en LASSO indica que: La variable está estandarizada. La variable ha sido seleccionada. La variable ha sido descartada. El modelo no ha convergido. En un workflow de tidymodels, el orden correcto es: Modelo → Recipe → Datos. Recipe → Modelo → Métricas. Datos → Workflow → Métricas. Recipe → Métricas → Modelo. El objetivo final de usar regresión penalizada es: Maximizar el número de coeficientes. Mejorar la interpretabilidad únicamente. Mejorar la generalización del modelo. Eliminar siempre variables. Los modelos de regresión penalizados son especialmente útiles cuando: El número de observaciones es muy grande. El número de predictores es grande y/o están correlacionados. La variable respuesta es categórica. No existe multicolinealidad. |




