Estadística Tema 4
|
|
Título del Test:
![]() Estadística Tema 4 Descripción: UEMC IOI |



| Comentarios |
|---|
NO HAY REGISTROS |
|
1. Una variable aleatoria es: Un suceso. Una función numérica del espacio muestral. Una probabilidad. Un parámetro. 2. El valor de una variable aleatoria depende de: El experimento determinista. El azar. La media. La varianza. 3. Una variable aleatoria discreta toma valores: Reales. Continuos. Finitos o infinitos numerables. Infinitos no numerables. 4. Una variable aleatoria continua toma valores: Enteros. Racionales. En un conjunto infinito no numerable. Discretos. 5. Asignar valores numéricos a sucesos sirve para: Calcular frecuencias. Definir variables aleatorias. Medir muestras. Crear gráficos. 6. La función de probabilidad p(x) se define como: P(X ≤ x). P(X = x). P(X ≥ x). F(x). 7. En una variable aleatoria discreta, p(x) cumple: p(x) > 1. p(x) < 0. 0 ≤ p(x) ≤ 1. p(x) = F(x). 8. La suma de todas las probabilidades p(x) es: 0. 0,5. 1. N. 9. La función de distribución F(x) se define como: P(X = x). P(X ≥ x). P(X ≤ x). p(x). 10. F(x) es una función: Decreciente. Constante. No decreciente. Negativa. 11. Para una variable discreta: F(x) es continua. F(x) es escalonada. F(x) es lineal. F(x) es aleatoria. 12. Si se conoce F(x), la probabilidad P(a < X ≤ b) es: F(a) – F(b). F(b) – F(a). p(a) + p(b). F(a) + F(b). 13. En una variable aleatoria continua: P(X = x) > 0. P(X = x) = 0. P(X = x) = 1. No existe probabilidad. 14. La función de densidad se representa por: p(x). F(x). f(x). μ(x). 15. La función de densidad es: Una probabilidad. La derivada de F(x). La integral de F(x). Una frecuencia. 16. La función de densidad cumple: f(x) ≤ 1 siempre. f(x) ≥ 0. ∫f(x)dx = 0. f(x) = P(X=x). 17. La probabilidad P(a < X ≤ b) se calcula como: f(b) – f(a). F(a) – F(b). ∫[a,b] f(x)dx. p(a) + p(b). 18. El área total bajo f(x) es: 0. 0,5. 1. ∞. 19. La función de distribución cumple: F(-∞)=1. F(+∞)=0. F(-∞)=0. F(0)=1. 20. La función de distribución es: Decreciente. No decreciente. Negativa. Constante. 21. En variables continuas, F(x) es: Discontinua. Escalonada. Continua. Aleatoria. 22. En variables discretas, F(x): Es derivable. Es escalonada. Es continua. Es negativa. 23. La esperanza matemática se representa por: σ. μ. VAR. F(x). 24. La media de una variable discreta es: Σp(x). Σxp(x). Σx. Σx². 25. La media de una variable continua es: ∫f(x)dx. ∫xF(x)dx. ∫xf(x)dx. f(μ). 26. La esperanza matemática representa: El valor máximo. El valor más probable. El valor medio esperado. El valor mínimo. 27. La media es un parámetro de: Dispersión. Centralización. Forma. Posición relativa. 28. La varianza se representa por: μ. σ. σ². r. 29. La desviación típica es: La varianza. El cuadrado de la varianza. La raíz de la varianza. La media. 30. La varianza se define como: E[X]. E[X²]. E[(X-μ)²]. (E[X])². 31. Una fórmula alternativa de la varianza es: E[X] – μ. E[X²] – (E[X])². E[X²] + (E[X])². μ² – E[X]. 32. La varianza mide: Centralización. Dispersión. Forma. Simetría. 33. El momento de orden 1 respecto al origen es: La varianza. La desviación típica. La media. La moda. 34. El momento de orden 2 respecto a la media es: Media. Varianza. Curtosis. Asimetría. 35. Los momentos permiten calcular: Solo la media. Solo la varianza. Parámetros de la distribución. Probabilidades. 36. Una variable bidimensional está formada por: Un valor. Dos variables aleatorias. Dos medias. Dos probabilidades. 37. La distribución conjunta se define mediante: p(x). F(x). p(x,y). f(x). 38. En el caso discreto, la suma de todas las pij es: 0. 0,5. 1. ∞. 39. En el caso continuo, la integral doble de f(x,y) es: 0. 0,5. 1. f(x). 40. Las distribuciones marginales se obtienen: Multiplicando probabilidades. Sumando o integrando la conjunta. Condicionando. Normalizando. 41. Una distribución marginal es: Bidimensional. Tridimensional. Unidimensional. Aleatoria. 42. En el caso discreto, P(X=xi) se obtiene: ∑j pij. ∏j pij. p(xi)p(yj). F(xi). 43. Una distribución condicionada se define como: p(x,y). P(X=x). P(X=x | Y=y). F(x,y). 44. En el caso discreto: P(X/Y)=P(X). P(X/Y)=P(X,Y)/P(Y). P(X/Y)=P(Y)/P(X). P(X/Y)=P(X)+P(Y). 45. La distribución condicionada depende de: Toda la población. El nuevo espacio reducido. El complemento. La media. 46. Dos variables son independientes si: p(x,y)=p(x)+p(y). p(x,y)=p(x)p(y). p(x,y)=0. p(x)=p(y). 47. Si dos variables son independientes, su covarianza es: 1. -1. 0. Infinita. 48. Independencia implica: Covarianza positiva. Correlación perfecta. Ausencia de relación lineal. Relación causal. 49. La covarianza se define como: E[XY]. E[X]E[Y]. E[(X-μx)(Y-μy)]. σxσy. 50. Una fórmula alternativa de la covarianza es: E[X+Y]. E[X] + E[Y]. E[XY] – E[X]E[Y]. σx² + σy². 51. La covarianza mide: Dispersión individual. Relación entre variables. Centralización. Forma. 52. El coeficiente de correlación es: Dimensional. Adimensional. Siempre positivo. Mayor que 1. 53. El coeficiente de correlación toma valores entre: 0 y 1. -∞ y +∞. −1 y +1. 0 y 100. 54. Una combinación lineal tiene la forma: Z = XY. Z = X/Y. Z = ax + bY. Z = X². 55. La media de Z = ax + by es: aµX – bµY. µX + µY. aµX + bµY. µXµY. 56. La varianza de Z = aX + bY incluye: Solo varianzas. Solo medias. Varianzas y covarianza. Solo covarianza. 57. Si X e Y son independientes, la varianza de Z es: a²σX² + b²σY². σX² + σY². (a+b)²σ². 0. 58. La suma de variables independientes cumple: σ²X+Y = σ²X – σZY. σ²X+Υ = σ²X + σΖΥ. σX+Y = σX + σY. μX+Y = 0. 59. Una variable aleatoria permite: Medir sucesos. Traducir sucesos a números. Calcular frecuencias. Dibujar gráficos. 60. La función de densidad no representa: Probabilidad puntual. Área. Densidad. Derivada de F. 61. La media mide: Dispersión. Centralización. Forma. Riesgo. 62. La varianza mide: Centralización. Dispersión. Posición. Sesgo. 63. La independencia implica: Covarianza ≠ 0. Correlación perfecta. Covarianza = 0. Relación causal. 64. La distribución marginal se obtiene a partir de: La condicionada. La conjunta. La media. La varianza. 65. La combinación lineal conserva: El tipo de variable. La esperanza. La forma. La moda. |





