option
Cuestiones
ayuda
daypo
buscar.php

MEM, UCA

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
MEM, UCA

Descripción:
Test de todos los temas

Fecha de Creación: 2025/09/12

Categoría: Universidad

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

1. En la regresión lineal múltiple, la variable dependiente: a) Siempre es cualitativa. b) Siempre es cuantitativa. c) Puede ser cualitativa o cuantitativa. d) Depende del investigador.

2. Los coeficientes βj en un modelo de regresión lineal múltiple indican: a) La correlación entre Xj y Y. b) El cambio en Y por un cambio unitario en Xj. c) La varianza de Y. d) La bondad del ajuste.

3. El método más común para estimar parámetros en la regresión lineal múltiple es: a) Mínimos Absolutos. b) Máxima Verosimilitud. c) Mínimos Cuadrados Ordinarios. d) Monte Carlo.

4. El coeficiente de determinación R^2 mide: a) La proporción de varianza de Y explicada por el modelo. b) La media de los errores. c) La significación individual de cada Xj. d) El tamaño de la muestra.

5. Si el p-valor de la prueba global es menor que 0,05: a) Se rechaza la significación global. b) Se acepta que el modelo es significativo. c) Se eliminan variables automáticamente. d) El modelo es incorrecto.

6. La condición de no autocorrelación de errores se verifica con: a) Contraste de Wald. b) Durbin-Watson. c) Ljung-Box. d) Shapiro-Wilk.

7. Un R^2 ajustado: a) Siempre es mayor que R^2. b) Se utiliza para comparar modelos con distinto número de variables. c) Depende de la escala de Y. d) Solo se aplica en modelos logit.

8. El error estándar de la estimación mide: a) La varianza total de Y. b) La desviación típica de los residuos. c) El sesgo del modelo. d) La correlación parcial.

9. Si hay multicolinealidad, entonces: a) R^2 aumenta automáticamente. b) No podemos estimar βj con precisión. c) El modelo deja de ser lineal. d) No hay residuos.

10. Para comprobar la significación individual de un coeficiente usamos: a) Test t de Student. b) Test F. c) Test Chi-cuadrado. d) Test de Kolmogorov-Smirnov.

11. En un modelo Logit, la variable dependiente es: a) Cuantitativa. b) Binaria (0-1). c) Categórica con más de 2 categorías. d) Continua.

12. La odd-ratio indica: a) La media de Y. b) El cociente de probabilidades entre dos eventos. c) La varianza de los errores. d) El número de aciertos en la clasificación.

13. En un modelo Logit, si P(Y=1)=0,3, entonces: a) Y=1. b) Y=0. c) Y=-1. d) No se puede decidir sin el umbral.

14. Para decidir la clasificación, se usa comúnmente el umbral: a) 0,05. b) 0,5. c) 1. d) 0.

15. El Pseudo-R^2 sirve para: a) Medir la bondad del ajuste. b) Medir la autocorrelación. c) Calcular la varianza total. d) Determinar la multicolinealidad.

16. Si la odd-ratio de una variable es mayor que 1: a) Aumenta la probabilidad de Y=1. b) Disminuye la probabilidad de Y=1. c) No hay relación. d) La variable no es significativa.

17. Para contrastar la significación individual de los parámetros se usa: a) Test t. b) Test F. c) Test Wald. d) Test Shapiro-Wilk.

18. Una tabla de clasificación compara: a) Variables explicativas. b) Valores observados y predichos. c) Varianzas y covarianzas. d) Coeficientes y residuos.

19. El objetivo del ACP es: a) Predecir una variable dependiente. b) Reducir la dimensionalidad. c) Clasificar en grupos. d) Estimar probabilidades.

20. Las componentes principales son: a) Variables originales. b) Combinaciones lineales de las variables originales. c) Factores comunes. d) Puntos de un dendograma.

21. La primera componente principal: a) Tiene la varianza mínima. b) Tiene la varianza máxima. c) No tiene varianza. d) Es la más correlacionada con Y.

22. Si usamos la matriz de correlaciones, entonces: a) Las variables están tipificadas. b) Trabajamos con variables en escala original. c) No podemos calcular autovalores. d) No se puede hacer ACP.

23. Las componentes principales son siempre: a) Correlacionadas. b) Ortogonales. c) Significativas. d) Dependientes.

24. El número de componentes seleccionadas depende de: a) El investigador. b) El porcentaje de varianza acumulada. c) La normalidad de datos. d) El número de observaciones.

25. La representación gráfica de individuos en ACP se hace con: a) Variables originales. b) Coordenadas respecto a las primeras componentes. c) Tablas de contingencia. d) Pseudo-R^2.

26. Si un ángulo entre dos variables estandarizadas es 90°, entonces: a) Son muy correlacionadas. b) Son incorreladas. c) Son ortogonales. d) b) y c) son correctas.

27. En el análisis factorial, las variables observadas se explican por: a) Factores comunes y únicos. b) Factores comunes únicamente. c) Variables independientes. d) Componentes principales.

28. La comunalidad mide: a) La varianza específica. b) La varianza total. c) La varianza explicada por los factores comunes. d) La media de las variables.

29. Si la comunalidad es baja, la variable: a) No está bien explicada por los factores. b) Aporta mucha información. c) Se elimina automáticamente. d) No tiene varianza.

30. La rotación Varimax: a) Aumenta la varianza explicada. b) Disminuye la comunalidad. c) Facilita la interpretación de factores. d) No cambia la solución.

31. Los factores después de la rotación son: a) No correlacionados. b) Correlacionados. c) Ortogonales. d) a) y c) son correctas.

32. En el análisis factorial, los pesos factoriales son: a) Correlaciones entre variables y factores. b) Varianzas de factores. c) Autovalores. d) Valores p.

33. Si una variable tiene comunalidad=1: a) Está perfectamente explicada por los factores comunes. b) No está explicada por factores. c) Tiene varianza cero. d) Es independiente.

34. Si eliminamos una variable con comunalidad baja: a) El modelo suele mejorar. b) El modelo empeora. c) No cambia nada. d) Se pierde información relevante.

35. El objetivo del análisis discriminante es: a) Predecir una variable binaria. b) Clasificar individuos en grupos. c) Reducir la dimensionalidad. d) Calcular autovalores.

36. La distancia de Mahalanobis mide: a) La media de cada grupo. b) La varianza entre grupos. c) La distancia entre un individuo y un centroide. d) La probabilidad de error.

37. La función discriminante de Fisher transforma: a) Una variable cualitativa en cuantitativa. b) Un conjunto de variables en una combinación lineal. c) Factores comunes en variables. d) Variables originales en factores.

38. Si hay 3 grupos, el número máximo de funciones discriminantes es: a) 1. b) 2. c) 3. d) 4.

39. Un individuo se asigna al grupo cuya: a) Media es mayor. b) Distancia al centroide es menor. c) Varianza es mínima. d) Probabilidad p-valor es mayor.

40. La validación del modelo discriminante se hace con: a) Test F. b) Proporción de casos correctamente clasificados. c) Comunalidades. d) ACP.

41. Si una variable no aporta capacidad discriminante: a) Se mantiene siempre. b) Se elimina en selección progresiva. c) Se sustituye por una variable ficticia. d) No afecta al modelo.

42. La función discriminante con datos estandarizados: a) Tiene término independiente. b) No tiene término independiente. c) Depende del p-valor. d) No cambia la solución.

43. El análisis cluster busca: a) Predecir variables. b) Agrupar individuos según similitud. c) Calcular autovalores. d) Estimar probabilidades.

44. Un análisis cluster jerárquico genera: a) Tablas de contingencia. b) Dendogramas. c) Tablas de clasificación. d) Varianzas explicadas.

45. En el método del vecino más cercano: a) Se usa la distancia máxima entre individuos. b) Se usa la distancia mínima entre individuos. c) Se usa la media de distancias. d) Se usa la distancia euclídea entre centroides.

46. En el método del vecino más lejano: a) Se usa la distancia mínima. b) Se usa la distancia máxima. c) Se usa la media de distancias. d) Se usa el cuadrado de distancias.

47. En el método del centroide, la distancia entre grupos se calcula con: a) Distancia entre centroides. b) Distancia mínima. c) Distancia máxima. d) Varianza residual.

48. El método de Ward minimiza: a) La varianza dentro de grupos. b) La distancia entre grupos. c) La correlación entre variables. d) El número de grupos.

49. Un dendograma permite: a) Visualizar la secuencia de fusiones. b) Calcular la distancia entre individuos. c) Determinar las variables más correlacionadas. d) Seleccionar el número de factores.

50. En un análisis cluster no jerárquico, el número de clusters: a) Se determina automáticamente. b) Se fija previamente. c) Siempre es 2. d) Depende del R^2.

Denunciar Test