option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Slides_Regresion.html

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Slides_Regresion.html

Descripción:
Minería de datos

Fecha de Creación: 2026/01/20

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

En el modelo de regresión lineal simple, el término de error ϵi se asume: Independiente y con distribución uniforme. i.i.d. con media cero y varianza constante. Dependiente de xi. Binario.

En la regresión lineal simple, el coeficiente β1 representa: El valor esperado de y cuando x = 0. El error medio de predicción. El cambio medio en y por unidad de cambio en x. La varianza del modelo.

a. b. c. d.

En regresión lineal, el estadístico t se utiliza para contrastar: La bondad global del modelo. La normalidad de los residuos. La significatividad individual de un coeficiente. La heterocedasticidad.

Un p-valor pequeño asociado a un coeficiente indica: Que el coeficiente no influye. Que no se rechaza H0. Evidencia contra H0 : βi = 0. Que el error estándar es grande.

a. b. c. d.

La regresión lineal múltiple se diferencia de la simple porque: Cambia la distribución del error. Incorpora más de una variable predictora. No permite inferencia. Elimina el término independiente.

El estadístico F contrasta: La normalidad de los residuos. La significatividad conjunta del modelo. La multicolinealidad. La independencia.

El R² ajustado se utiliza porque: Siempre es mayor que R². Penaliza la inclusión de variables irrelevantes. Mide error absoluto. Solo depende del tamaño muestral.

Un R² alto implica necesariamente: Buena capacidad predictiva out-of-sample. Que el modelo cumple los supuestos. Que explica gran parte de la variabilidad en training. Que no hay overfitting.

Uno de los supuestos del modelo de regresión es: Variables independientes binarias. Linealidad en los parámetros. Normalidad de x. Ausencia de outliers.

La heterocedasticidad implica: Varianza constante. Errores correlacionados. Varianza no constante del error. Multicolinealidad.

Tomar logaritmos en las variables ayuda a: Aumentar la asimetría. Reducir heterocedasticidad y outliers. Eliminar correlación. Aumentar R² siempre.

La autocorrelación de errores suele aparecer en: Datos independientes. Series temporales. Clasificación binaria. PCA.

La multicolinealidad provoca principalmente: Sesgo en los coeficientes. Varianzas grandes de los coeficientes. Mejores predicciones. Normalidad perfecta.

Cuando p > n, es recomendable usar: Regresión simple. Regresión sin intercepto. Regresión penalizada. Regresión logística.

La regresión logística se utiliza cuando: La variable target es continua. La variable target es binaria. Hay multicolinealidad. Se quiere predecir medias.

La regresión logística modela: Directamente la probabilidad. El logaritmo del odds-ratio. El error cuadrático. El R².

La función logística garantiza que las probabilidades estén en: (−∞ , ∞). [0,1]. [0,+∞). [−1,1].

a. b. c. d.

En regresión logística, exp(β1) representa: Cambio en la probabilidad. Cambio en el odds-ratio. Cambio en la accuracy. Cambio en el error.

Si β1 = 0 en logística, entonces: El odds-ratio disminuye. El odds-ratio aumenta. El odds-ratio se mantiene constante. El modelo no converge.

Un coeficiente negativo en logística indica que: Aumenta la probabilidad. Disminuye el odds-ratio. No hay efecto. La variable es irrelevante.

La regresión logística múltiple: Usa una única variable predictora. Generaliza la logística simple a múltiples predictores. Elimina el intercepto. No permite interpretación.

El parámetro family = "binomial" en glm indica: Regresión normal. Regresión Poisson. Regresión logística. Regresión penalizada.

En glm, el nivel positivo de la variable target es: El primero. El segundo. El más frecuente. El numérico mayor.

En un modelo log-log, los coeficientes se interpretan como: Cambios absolutos. Elasticidades. Odds-ratios. Errores estándar.

Si solo la variable dependiente está en logaritmos, los coeficientes son: Elasticidades. Odds-ratios. Semielasticidades. Probabilidades.

El error estándar residual mide: Varianza explicada. Error medio porcentual. Dispersión de los residuos. Multicolinealidad.

Un error estándar residual del 20% indica: Error absoluto medio. Error relativo medio aproximado. Error cuadrático. Accuracy del 80%.

La inferencia en regresión se basa en: Accuracy. Distribución t. Curva ROC. AUC.

El contraste H0 : βi = 0 evalúa: Bondad global. Influencia individual del predictor. Multicolinealidad. Heterocedasticidad.

La regresión lineal NO es adecuada cuando: La relación es aproximadamente lineal. La varianza es constante. La variable target es binaria. Hay independencia.

La regresión logística evita: Variables categóricas. Probabilidades fuera de [0,1]. Inferencia estadística. Interpretación.

El odds-ratio compara: Errores. Medias. Probabilidades relativas. Varianzas.

Si exp(β1) = 4, entonces: La probabilidad se cuadruplica. El odds-ratio se multiplica por 4. El error disminuye 4 veces. El coeficiente es irrelevante.

La regresión logística se estima mediante: Mínimos cuadrados. Máxima verosimilitud. PCA. Cross-validation.

Una mala codificación de factores en regresión puede provocar: Overfitting. Multicolinealidad. Coeficientes inestables. Todas las anteriores.

En presencia de multicolinealidad severa: Los coeficientes son más precisos. Las predicciones pueden seguir siendo buenas. El R² disminuye. El modelo no converge.

La regresión penalizada ayuda a: Aumentar varianza. Reducir multicolinealidad. Eliminar el intercepto. Aumentar p-values.

Un modelo con buenos p-values pero mal test error sufre: Underfitting. Overfitting. Multicolinealidad. Heterocedasticidad.

La regresión debe evaluarse con métricas como: Accuracy. RMSE. AUC. Curva ROC.

La curva ROC es adecuada para: Regresión lineal. Clasificación logística. PCA. Clustering.

El uso del conjunto de test debe reservarse para: Ajustar el modelo. Preprocesar variables. Evaluar el modelo final. Seleccionar predictores.

La inferencia estadística es fiable cuando: Se cumple el 100% de los supuestos. Los supuestos se cumplen razonablemente. Siempre. Nunca.

Un coeficiente no significativo implica: Que debe eliminarse siempre. Que no hay evidencia suficiente de efecto. Que el modelo es incorrecto. Que no afecta a predicción.

La regresión lineal simple es un caso particular de: Regresión logística. Regresión múltiple. PCA. Clasificación.

En regresión múltiple, interpretar un coeficiente implica: Ignorar el resto de variables. Mantener constantes las demás variables. Cambiar todas las variables. Usar solo training.

El principal objetivo de un modelo de regresión es: Maximizar p-values. Explicar y predecir la variable target. Eliminar errores. Maximizar accuracy.

La regresión logística y la lineal comparten: La función de pérdida. La interpretación de probabilidades. La estructura lineal en los parámetros. El uso de odds-ratio.

Denunciar Test