Examen tipo ejemplo - Slides_Regresion.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_Regresion.html Descripción: Minería de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
En el modelo de regresión lineal simple, el término de error ϵi se asume: Independiente y con distribución uniforme. i.i.d. con media cero y varianza constante. Dependiente de xi. Binario. En la regresión lineal simple, el coeficiente β1 representa: El valor esperado de y cuando x = 0. El error medio de predicción. El cambio medio en y por unidad de cambio en x. La varianza del modelo. a. b. c. d. En regresión lineal, el estadístico t se utiliza para contrastar: La bondad global del modelo. La normalidad de los residuos. La significatividad individual de un coeficiente. La heterocedasticidad. Un p-valor pequeño asociado a un coeficiente indica: Que el coeficiente no influye. Que no se rechaza H0. Evidencia contra H0 : βi = 0. Que el error estándar es grande. a. b. c. d. La regresión lineal múltiple se diferencia de la simple porque: Cambia la distribución del error. Incorpora más de una variable predictora. No permite inferencia. Elimina el término independiente. El estadístico F contrasta: La normalidad de los residuos. La significatividad conjunta del modelo. La multicolinealidad. La independencia. El R² ajustado se utiliza porque: Siempre es mayor que R². Penaliza la inclusión de variables irrelevantes. Mide error absoluto. Solo depende del tamaño muestral. Un R² alto implica necesariamente: Buena capacidad predictiva out-of-sample. Que el modelo cumple los supuestos. Que explica gran parte de la variabilidad en training. Que no hay overfitting. Uno de los supuestos del modelo de regresión es: Variables independientes binarias. Linealidad en los parámetros. Normalidad de x. Ausencia de outliers. La heterocedasticidad implica: Varianza constante. Errores correlacionados. Varianza no constante del error. Multicolinealidad. Tomar logaritmos en las variables ayuda a: Aumentar la asimetría. Reducir heterocedasticidad y outliers. Eliminar correlación. Aumentar R² siempre. La autocorrelación de errores suele aparecer en: Datos independientes. Series temporales. Clasificación binaria. PCA. La multicolinealidad provoca principalmente: Sesgo en los coeficientes. Varianzas grandes de los coeficientes. Mejores predicciones. Normalidad perfecta. Cuando p > n, es recomendable usar: Regresión simple. Regresión sin intercepto. Regresión penalizada. Regresión logística. La regresión logística se utiliza cuando: La variable target es continua. La variable target es binaria. Hay multicolinealidad. Se quiere predecir medias. La regresión logística modela: Directamente la probabilidad. El logaritmo del odds-ratio. El error cuadrático. El R². La función logística garantiza que las probabilidades estén en: (−∞ , ∞). [0,1]. [0,+∞). [−1,1]. a. b. c. d. En regresión logística, exp(β1) representa: Cambio en la probabilidad. Cambio en el odds-ratio. Cambio en la accuracy. Cambio en el error. Si β1 = 0 en logística, entonces: El odds-ratio disminuye. El odds-ratio aumenta. El odds-ratio se mantiene constante. El modelo no converge. Un coeficiente negativo en logística indica que: Aumenta la probabilidad. Disminuye el odds-ratio. No hay efecto. La variable es irrelevante. La regresión logística múltiple: Usa una única variable predictora. Generaliza la logística simple a múltiples predictores. Elimina el intercepto. No permite interpretación. El parámetro family = "binomial" en glm indica: Regresión normal. Regresión Poisson. Regresión logística. Regresión penalizada. En glm, el nivel positivo de la variable target es: El primero. El segundo. El más frecuente. El numérico mayor. En un modelo log-log, los coeficientes se interpretan como: Cambios absolutos. Elasticidades. Odds-ratios. Errores estándar. Si solo la variable dependiente está en logaritmos, los coeficientes son: Elasticidades. Odds-ratios. Semielasticidades. Probabilidades. El error estándar residual mide: Varianza explicada. Error medio porcentual. Dispersión de los residuos. Multicolinealidad. Un error estándar residual del 20% indica: Error absoluto medio. Error relativo medio aproximado. Error cuadrático. Accuracy del 80%. La inferencia en regresión se basa en: Accuracy. Distribución t. Curva ROC. AUC. El contraste H0 : βi = 0 evalúa: Bondad global. Influencia individual del predictor. Multicolinealidad. Heterocedasticidad. La regresión lineal NO es adecuada cuando: La relación es aproximadamente lineal. La varianza es constante. La variable target es binaria. Hay independencia. La regresión logística evita: Variables categóricas. Probabilidades fuera de [0,1]. Inferencia estadística. Interpretación. El odds-ratio compara: Errores. Medias. Probabilidades relativas. Varianzas. Si exp(β1) = 4, entonces: La probabilidad se cuadruplica. El odds-ratio se multiplica por 4. El error disminuye 4 veces. El coeficiente es irrelevante. La regresión logística se estima mediante: Mínimos cuadrados. Máxima verosimilitud. PCA. Cross-validation. Una mala codificación de factores en regresión puede provocar: Overfitting. Multicolinealidad. Coeficientes inestables. Todas las anteriores. En presencia de multicolinealidad severa: Los coeficientes son más precisos. Las predicciones pueden seguir siendo buenas. El R² disminuye. El modelo no converge. La regresión penalizada ayuda a: Aumentar varianza. Reducir multicolinealidad. Eliminar el intercepto. Aumentar p-values. Un modelo con buenos p-values pero mal test error sufre: Underfitting. Overfitting. Multicolinealidad. Heterocedasticidad. La regresión debe evaluarse con métricas como: Accuracy. RMSE. AUC. Curva ROC. La curva ROC es adecuada para: Regresión lineal. Clasificación logística. PCA. Clustering. El uso del conjunto de test debe reservarse para: Ajustar el modelo. Preprocesar variables. Evaluar el modelo final. Seleccionar predictores. La inferencia estadística es fiable cuando: Se cumple el 100% de los supuestos. Los supuestos se cumplen razonablemente. Siempre. Nunca. Un coeficiente no significativo implica: Que debe eliminarse siempre. Que no hay evidencia suficiente de efecto. Que el modelo es incorrecto. Que no afecta a predicción. La regresión lineal simple es un caso particular de: Regresión logística. Regresión múltiple. PCA. Clasificación. En regresión múltiple, interpretar un coeficiente implica: Ignorar el resto de variables. Mantener constantes las demás variables. Cambiar todas las variables. Usar solo training. El principal objetivo de un modelo de regresión es: Maximizar p-values. Explicar y predecir la variable target. Eliminar errores. Maximizar accuracy. La regresión logística y la lineal comparten: La función de pérdida. La interpretación de probabilidades. La estructura lineal en los parámetros. El uso de odds-ratio. |




