option
Cuestiones
ayuda
daypo
buscar.php

Preguntas estadistica definitiva uco

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Preguntas estadistica definitiva uco

Descripción:
Preguntas estadistica

Fecha de Creación: 2025/06/22

Categoría: Universidad

Número Preguntas: 152

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Dada la variable aleatoria X y la v.a. Y = X - b, ¿cuál de las siguientes afirmaciones es correcta?. V[Y] = V[X] + b². [X] = E[X] + b. E[Y²] = E[X²]. Ninguna de las anteriores es correcta.

Dada la variable aleatoria X y la v.a. Y = X + b, ¿cuál es verdadera?. E[Y] = E[X]-b. V[Y] = V[X]. V[Y] = b · V[X]. E[Y] = bX.

Conteo cuando se ordenan todos los elementos de un conjunto: Permutaciones. Combinaciones con repetición. Variaciones con repetición. Ninguna es correcta.

¿Qué técnica de conteo se usa cuando hay orden y repetición?. Permutaciones. Combinaciones con repetición. Variaciones con repetición. Ninguna es correcta.

La esperanza matematica es. El valor esperado de una v.a. El momento de orden dos. Una característica de variables discretas. Ninguna es correcta.

Si P(B) = P(B | A), entonces los sucesos A y B son. Independientes. Mutuamente excluyentes. Disjuntos. Incompatibles.

Dados dos sucesos A y B cualesquiera: P(A∪B) = P(A) + P(B) - P(A∩B). P(A∩B) = P(A) + P(B). P(A∩B) = P(A) - P(B). P(A∪B) = P(A) · P(B).

Dados dos sucesos A y B cualesquiera: P(A∪B) = P(A) + P(B) + P(A∩B). P(A∩B) = P(A) + P(B). P(A∩B) = P(A) - P(B). P(A∩B) = P(A) · P(B).

Sean A y B dos sucesos independientes con P(A)=0, en este caso: P(A∩B)=0. P(B) = 0. P(A∩B) = P(B). P(B|A) = 1.

Sean A y B dos sucesos independientes con P(A)=0, en este caso: P(A/B) = 0. P(B) = 0. P(A∩B) = P(B). P(B|A) = 1.

Sean A y B dos sucesos tales que P(A) =P(B)=P(B/A) = 0.5. P(AUB) ≤1. P(AUB) = 0.25. P(A∪B) = 0.5. P(B|A) = 1.

Sean A y B dos sucesos tales que P(A) =P(B)=P(B/A) = 0.5. P(AUB) <1. P(A∩B) = 0.25. P(A∪B) = 0.5. P(B|A) = 1.

Sean A y B dos sucesos tales que P(A) =P(B)=P(B/A) = 0.5. P(AUB) <1. P(AUB^C)=0.25. P(A∪B) = 0.5. P(B|A) = 1.

Sean A y B dos sucesos tales que P(A)=0.1 y P(B)=0.2. En este caso: P(AUB)≤0.3. P(A∪B) = 0.25. P(A∪B) = 0.1. P(A∪B) = 0.5.

Si Aᶜ y Bᶜ son independientes y P(A)=0.1, P(B)=0.2, entonces: P(A∪B) = 0.28. P(A∪B) = 0.25. P(A∪B) = 0.1. P(A∪B) = 0.5.

Sean A y B dos sucesos tales que P(A)=P(B)=0.2. P(AUB)≤ 0.4. P(A∪B) = 0.25. P(A∪B) = 0.1. P(A∪B) = 0.5.

Si B = B ∩ (A ∪ Aᶜ), entonces: Aᶜ y B son independientes. A y B son excluyentes. A y B son equivalentes. A y B son dependientes.

Dado que A, B y C son excluyentes y exhaustivos, y P(A∪B)=0.6, ¿cuál afirmación es falsa?. P(A) = P(B) = 0.3, obligatoriamente. P(A∪C) = 0.7. P(C) = 0.4. P(A) + P(B) + P(C) = 1.

Dado que A, B y C son excluyentes y exhaustivos, y P(A∪B)=0.6, ¿cuál afirmación es falsa?. P(A) = P(B) = 0.3. P(AUC)=0.7, en todos los casos. P(C) = 0.4. P(A) + P(B) + P(C) = 1.

La utilización de árboles de decisión se justifica por: El teorema de partición o probabilidad total. La ley de los grandes números. El método de máxima verosimilitud. La media de la distribución.

Dada la variable aleatoria discreta X: f(x) = P(X = x). F(x) = ∂f(x)/∂x. f(x) = ∫P(X = x). f(x) = x · P(x).

Dada la variable aleatoria discreta X: F(x)=P(X≤x). F(x) = ∂f(x)/∂x. f(x) = ∫P(X = x). f(x) = x · P(x).

Dada la variable aleatoria discreta X: f(x)=dF(x)/dx. F(x) = ∂f(x)/∂x. f(x) = ∫P(X = x). f(x) = x · P(x).

Sea X una variable aleatoria de tipo continuo (o dada una variable aleatoria X de tipo continuo): f(x)=∂F(x)/∂x. F(x) = ∂f(x)/∂x. f(x) = ∑P(x). f(x) = 1/x.

La función de distribución de una variable aleatoria: Toma cualquier valor real. Está comprendida entre 0 y 1. Siempre es constante. Es negativa para valores negativos.

La función de distribución de la N(0,1) es: Decreciente. Creciente. Constante. Oscilante.

La función de densidad de la N(0,1) es: Ninguna es correcta. Negativa en los extremos. Creciente. Decreciente.

Para una variable aleatoria X y un intervalo I, se tiene que X⁻¹ es: Una constante. Un valor numérico. Un subconjunto del espacio muestral. Ninguna es correcta.

Para una variable aleatoria X y un intervalo I, se tiene que X⁻¹ es: Una constante. Un suceso. Un subconjunto. Ninguna es correcta.

Dos conocidos están registrados en un gimnasio. Uno asiste el 75% y el otro el 25% de los días. ¿Cuál es la probabilidad de que al menos uno asista un día cualquiera (sucesos independientes)?. 0.50. 0.25. 0.8125. 1.00.

El teorema de Bayes requiere que los sucesos Ei que intervienen sean: Igualmente probables. Independientes. Excluyentes. Incompatibles.

Dos sucesos son independientes: P(A∩B) = P(A) · P(B). P(A) = P(B/A). P(A∪B) = P(A) + P(B). Su unión es 1.

Dos sucesos son disjuntos si. Su intersección es el conjunto vacío. Su suma es 1. Son independientes. Su diferencia es 0.

Dos sucesos son mutuamente excluyentes si: Son disjuntos. Son independientes. Tienen la misma probabilidad. Son exhaustivos.

De 80 componentes electrónicas, 20 tienen fallos eléctricos y 8 por causas atmosféricas, tipos independientes. ¿Cuántas tienen ambos fallos?. 0. 2. 8. 10.

Si los sucesos A y B son incompatibles, entonces: P(A∪B) = P(A) + P(B). P(A∪B) = P(A) · P(B). P(A) = P(B/A). P(A∪B) = 0.

Dados tres sucesos mutuamente independientes: Son incompatibles. Dos de ellos pueden ser dependientes. Son independientes dos a dos. Ninguna es correcta.

Una colección numerable de sucesos es: Un conjunto de sucesos que se pueden contar. Un conjunto continuo. Son independientes dos a dos. Un conjunto no medible.

Si P(A) = P(B) = P(B/A) = 0.25, entonces: P(A∩B) = 0. P(A∪B) = 1. P(A) = 0. Ninguna correcta.

Si P(A) = P(B) = P(B/A) = 0.5, entonces: P(A∪B) = 0.5. P(A∩B) = 0.25. P(A∩B) = 1. P((A∪B)ᶜ) = 1.

Si P(A) = P(B) = P(B/A) = 0.5, entonces: P(A∪B) = 0.75. P(A∩B) = 0.25. P(A∩B) = 1. P((A∪B)ᶜ) = 0.

Si P(A) = P(B) = P(B/A) = 0.5, entonces: P(A∪B) = 0.65. P(A∩B) = 0.25. P(A∩B) = 1. P((A∪B)ᶜ) = 0.25.

Una variable aleatoria es: Una constante. Un número fijo. Una función del espacio muestral en ℝ que cumple ciertas propiedades. Una media.

Dos variables aleatorias están idénticamente distribuidas si: Sus funciones de distribución son iguales en todos sus puntos. Tienen la misma media. Son independientes. Tienen igual varianza.

La probabilidad es: Un número siempre menor que 1. Una medida asociada a los sucesos. Una media aritmética. Un resultado.

La varianza matemática es: Una esperanza. Un número aleatorio. Una constante. La raíz cuadrada de la media.

Un suceso aleatorio es: Un elemento del álgebra de sucesos asociado al espacio muestral. Una probabilidad. Una constante. Una función.

Un suceso es: Un subconjunto del espacio muestral. Un valor numérico. Una media. Una función de densidad.

Para calcular P(A|B) se requiere que: P(A) > 0. P(B) ≠ 0. A y B sean excluyentes. P(A) = P(B).

Las variables aleatorias discretas multidimensionales son independientes si: Su función de distribución conjunta es el producto de las marginales en todos los puntos. Su covarianza es cero. Tienen igual media. Su suma es 1.

La media de la suma de dos variables normales es igual a: El producto de las medias. La suma de las medias. Tienen igual media. El doble de la media mayor.

Si X e Y no son independientes, entonces: La suma de las esperanzas sigue siendo la esperanza de la suma. La suma no es esperable. No se puede calcular E[X+Y]. La suma de esperanzas es cero.

La covarianza de una variable aleatoria bidimensional es: Una varianza al cuadrado. Una esperanza. Una media. Una probabilidad.

Si x₁ < x₂ para una v.a. X, entonces: F(x₁) > F(x₂). F(x₁) ≤ F(x₂). F(x₁) = F(x₂). F(x₁) ≥ 1.

Dada la variable aleatoria X y la v.a. Y = X + b, ¿cuál es verdadera?. E[Y] = E[X]+b. V[Y] = bV[X]. V[Y] = b · V[X]. E[Y] = bX.

Dada la variable aleatoria X y la v.a. Y = X + b, ¿cuál es verdadera?. E[Y] = E[X]-b. V[Y] = a^2*V[X]. V[Y] = b · V[X]. E[Y] = bX.

Las condiciones de las variables aleatorias para aplicar el teorema central del límite son: Deben ser independientes. Deben tener igual varianza. Deben ser disjuntas. Deben ser dispares.

Las variables aleatorias discretas están definidas por: La función de probabilidad. La función de densidad. La función integral. La media.

Las variables aleatorias continuas están definidas por: La función de densidad. La varianza. El histograma. La tabla de frecuencias.

. Sean Xi ∈ B(p), i = 1...8, independientes. La v.a. X = ∑Xi tiene distribución: Binomial B(8,p). Normal N(8,p). Geométrica. Poisson.

Sean Xi ∈ B(p=0.5), independientes. La v.a. X = ∑₁⁶⁰ Xi tiene distribución: N(μ=30; σ²=15). Uniforme(0,60). B(60,0.5). Poisson.

Si X₁, X₂,…,Xk ∈ χ²(n₁,n₂,...,nk) e independientes, entonces X=∑Xi tiene distribución: χ²(n₁+n₂+...+nk). Binomial. Normal. Poisson.

Una colección numerable de sucesos es: Un conjunto de sucesos que se pueden contar. Un conjunto infinito no medible. Un conjunto de valores reales. Un conjunto de funciones.

La probabilidad de A condicionada a B es: La probabilidad de que ocurra A solo si ocurre B. La media de A dado B. La varianza conjunta. El producto de A y B.

a función de densidad de una v.a. normal es: Simétrica respecto a su esperanza. Siempre creciente. Uniforme. Discontinua.

Si Z ∈ N(0,1), Y ∈ χ²(n) e independientes, entonces X = n·Z / √Y sigue distribución: t(n). N(0,1). χ²(n). F(n,n).

¿Cuál de las siguientes distribuciones NO es reproductiva?. Binaria B(p). Normal. Poisson. Binomial.

Si X ∈ h(1,a,b), entonces: X es B(p) con p = a / (a + b). Normal. Poisson. Binomial.

La media de la diferencia de dos variables normales es igual a: La diferencia de sus medias. El promedio de las medias. La media mayor. La suma de las medias.

Sean Yi ∈ χ²(n), T ∈ N(μT,σ²T) independientes. La v.a. (TμT/σT)/(√Y/k·n) tiene distribución: t(kn). χ²(kn). N(kn). F(kn,kn).

Si X ∈ N(μ=0, σ=2), la v.a. Y = 4X + 2 tiene distribución: N(μ=2, σ²=34). N(μ=4, σ²=16). N(μ=2, σ²=64). Ninguna es correcta.

¿Cuál de estas distribuciones es reproductiva?. Poisson P(λ). Binaria. F de Snedecor. Geométrica.

La varianza de la diferencia de dos normales independientes es igual a: La suma de las varianzas. El producto de las varianzas. La resta de las varianzas. La media de las varianzas.

La varianza de la suma de dos normales independientes es igual a: La suma de las varianzas. El doble de la mayor varianza. La raíz cuadrada de la suma de varianzas. El producto de las varianzas.

Para que la ley de Laplace de asignación de probabilidad pueda aplicarse: Los sucesos deben ser independientes. Los sucesos deben ser igualmente verosímiles. Los sucesos deben ser excluyentes. Los sucesos deben ser simultáneos.

Sea X₁ ∈ D(μ=4, σ=1/5) y X₂ ∈ D(μ=5, σ=1/25), siendo Y=3X₁−4X₂+8. Si son independientes, entonces: Su media es 1 y su varianza 3. Su media es 0 y su varianza 1. Su media es 8 y su varianza 0. Su media es 5 y su varianza 2.

La corrección de continuidad de Yates se aplica cuando: Se aproxima una distribución discreta por una continua. Se usa una distribución normal en lugar de una binomial. Se aproxima una continua por una discreta. Ninguna de las anteriores.

Las variables aleatorias discretas toman: Cualquier valor real. Un intervalo. Un conjunto numerable de valores. Un conjunto no medible.

Las variables aleatorias multidimensionales son: Números reales. Funciones deterministas. Vectores formados por variables aleatorias. Escalares.

Las variables aleatorias multidimensionales son: Se puede usar la χ² de Pearson. Solo se puede usar la media. Debe aplicarse regresión lineal. Ninguna es correcta.

Para analizar la relación entre dos variables en escala por intervalos: Se puede usar los coeficientes predictivos λ. Solo se puede usar χ². Solo se puede usar la varianza. Deben ser discretas.

Para variables en escala por ratios, se puede usar: El coeficiente de correlación de Pearson. La moda. El histograma. El intervalo de confianza.

Si una variable se mide en escala de razón (por ratios): Solo admite mediana. Solo se puede usar desviación típica. No es obligatorio agrupar en intervalos para todas las medidas. Solo se puede representar con histogramas.

Para analizar la relación entre dos variables nominales: Se usa el coeficiente de Pearson. Se utiliza la t de Student. Se puede usar regresión logística. Ninguna es correcta.

El método de mínimos cuadrados para obtener coeficientes de regresión es: Exclusivo para modelos exponenciales. Válido solo para funciones cuadráticas. Solo se usa en regresión logística. Aplicable a cualquier tipo de modelo.

El método de mínimos cuadrados para estimar modelos estocásticos busca que: La media sea mínima. La mediana sea cero. El error sea cero. La varianza del error sea mínima.

Para una variable estadística numérica cualquiera: Es posible calcular cualquier tipo de medida. Solo se puede obtener la moda. Solo se calcula el rango. Ninguna medida es aplicable.

La media como medida de posición es aplicable: Solo en escalas ordinales. Únicamente en escalas cuantitativas. En cualquier escala. Solo a variables cualitativas.

La mediana es aplicable a variables: En escala ordinal o superior. Únicamente cualitativas. Nominales. Solo si hay más de 30 datos.

La moda es una medida de centralización aplicable a: Solo variables cuantitativas. Solo variables discretas. Únicamente escalas de razón. Ninguna de las anteriores es correcta.

La varianza como medida de dispersión: No siempre es aplicable, depende del tipo de variable. Se puede aplicar a cualquier variable. Solo se aplica a variables nominales. Ninguna de las anteriores es correcta.

El rango es una medida de dispersión aplicable a: Variables ordinales o superiores. Variables nominales. Solo variables discretas. Ninguna de las anteriores es correcta.

Si Cov(X,Y) ≥ 0, entonces: Rxy ≥ 0. Rxy = 0. Rxy ≤ 0. Cov(X,Y) = 0.

Si Cov(X,Y) ≥ 0, entonces: Rxy > 0. Rxy = 0. Rxy ≤ 0. Cov(X,Y) = 0.

Tipificar unos datos consiste en: Restar la media y multiplicar por la varianza. Centrar los datos y dividir por su desviación típica. Elevar los datos al cuadrado. Normalizar por el número de datos.

Una variable tipificada es tal que: Su media es 0 y su desviación típica es 1. Su varianza es 0. Todos sus valores son mayores que 0. Ninguna correcta.

Tipificar una variable estadística consiste en: Un cambio de origen y escala. Un cambio de unidad. El cálculo del rango. Ninguna correcta.

Si Rxy = 0, entonces: X e Y pueden estar relacionadas aunque no linealmente. X e Y no tienen ninguna relación. X e Y son dependientes. X es constante.

La mediana de una distribución de datos (mo ≥ me ≥ x̄): Tiene que ser un único valor. Puede tener varios valores. No se puede calcular. Es igual a la media.

Si el coeficiente de asimetría es positivo, indica que: mo ≤ me ≤ x̄. mo ≥ me ≥ x̄. mo = me = x̄. x̄ < me < mo.

Si el coeficiente de asimetría es cercano a cero, entonces: mo ≈ me ≈ x̄. mo ≥ me ≥ x̄. mo = me = x̄. No existe moda.

Dos variables aleatorias están idénticamente distribuidas si: Sus funciones de distribución son iguales en todos sus puntos. Tienen igual media. Tienen igual varianza. Son independientes.

El error medio en las estimaciones de un modelo de regresión múltiple es: 0.0. 1.0. 0.5. Son Depende de la muestra.

Si R²xyz > R²xy, entonces: La variable Z amortigua la relación real entre X e Y. Z es independiente de X. Z no aporta información adicional. Z anula la relación.

Si R²xyz < R²xy, entonces: Ninguna es correcta. Z es independiente de X. Z no aporta información adicional. Z sustituye a X.

Si la varianza del error Sε² crece, entonces: Disminuye el coeficiente de determinación. Aumenta la media. Disminuye la pendiente. Aumenta el sesgo.

Sea el experimento "contar el número de averías en un día": El conjunto de resultados es numerable. El conjunto es continuo. No se puede contar. Ninguna es correcta.

La intersección entre los modelos de regresión de X/Y y Y/X coincide con: La pendiente de la recta de regresión. El centro de gravedad de la distribución (media de X, media de Y). El coeficiente de correlación. La moda de la muestra.

En un contraste de hipótesis, se comete error de tipo I cuando: Se rechaza H₀ siendo verdadera. Se acepta H₀ siendo verdadera. Se acepta H₁ siendo falsa. Se acepta H₀ siendo falsa.

En un contraste de hipótesis, se comete error de tipo II cuando: Se rechaza H₀ siendo verdadera. Se acepta H₀ siendo verdadera. Se acepta H₁ siendo falsa. Se acepta H₀ siendo falsa.

Un estimador de un parámetro poblacional desconocido: No tiene por qué ser único. Siempre es la media. Es igual a la varianza. Debe ser simétrico.

Un estimador es: Un estadístico. Una constante. Un resultado. Una probabilidad.

Un estadístico es: Una variable aleatoria. Una constante. Un resultado. Una probabilidad.

Un estimador es insesgado cuando: Su esperanza coincide con el parámetro a estimar. Tiene varianza cero. La media muestral es menor que la poblacional. Ninguna es correcta.

Un estimador es sesgado cuando: Su esperanza difiere del parámetro a estimar. Tiene varianza cero. Es igual a la mediana. Ninguna es correcta.

Un estimador asintóticamente insesgado es aquel que: Su esperanza tiende al parámetro cuando el tamaño muestral crece. Siempre es menor que el verdadero valor. Es igual a la mediana. Ninguna es correcta.

El estimador de un parámetro debe ser: Al menos asintóticamente insesgado. Siempre igual al parámetro. De varianza infinita. Estocástico.

Un estimador consistente es aquel que: Su varianza tiende a cero bajo ciertas condiciones. Su media es cero. Es siempre igual a la muestra. Ninguna correcta.

Un estimador de la esperanza de una variable aleatoria es: La media muestral. La mediana. Es siempre igual a la muestra. La moda.

El mejor estimador de la varianza poblacional es: La cuasi-varianza muestral. La media al cuadrado. La varianza muestral sin corrección. El valor observado.

El mejor estimador insesgado es: Eficiente y consistente. Invariante y discreto. Exacto y absoluto. Único y asintótico.

El coeficiente de confianza en una estimación por intervalos es: El complementario de α. Igual a 1. La varianza muestral. El tamaño muestral.

A 10 estudiantes se les anotan notas en Física y Economía. Para comparar rendimientos se usa: Diferencia de medias apareadas. Regresión múltiple. Prueba de independencia. Análisis factorial.

Si el valor de la hipótesis nula está en el intervalo de confianza: No hay evidencia para rechazar H₀. Se acepta automáticamente H₁. El parámetro está fuera del intervalo. La media muestral es incorrecta.

Si el valor de la hipótesis nula no está en el intervalo de confianza: Se rechaza la hipótesis nula. No se puede decidir nada. Se acepta la hipótesis alternativa sin dudas. Se acepta H₀ por precaución.

Los intervalos de confianza I₀.99 e I₀.95 para μ son tales que: I₀.95 está contenido en I₀.99. I₀.99 está contenido en I₀.95. Son siempre iguales. No se pueden comparar.

El estadístico media muestral obtenido por muestreo aleatorio simple tiene distribución: Bajo ciertas condiciones, N(μ; σ²/n). Poisson. Binomial. F de Snedecor.

El nivel de significación α de un test representa la probabilidad de: Rechazar H₀ siendo verdadera. Aceptar H₀ siendo verdadera. Aceptar H₁ siendo falsa. Rechazar H₁ siendo falsa.

El nivel de significación de un contraste es la máxima probabilidad de: Rechazar H₀ dado que H₀ es verdadera. Aceptar H₀ cuando es falsa. Aceptar H₁ siendo falsa. Rechazar H₁ siendo falsa.

El método de máxima verosimilitud permite calcular: El estimador de máxima verosimilitud. El intervalo de confianza. El nivel de significación. La varianza de la muestra.

El nivel de confianza de un intervalo es: La probabilidad de que el parámetro esté en el intervalo. Siempre igual a 1. La media poblacional. El valor de α.

La media muestral es: Un estadístico. Un parámetro poblacional. Un valor fijo. La moda de los datos.

Un intervalo de confianza contiene: Puede contener el parámetro poblacional, dependiendo del nivel de confianza. Siempre contiene el parámetro. Nunca contiene el parámetro. Solo contiene la media.

Los extremos de un intervalo de confianza son: Números. Parámetros. Variables aleatorias. Estadísticos siempre variables.

Si la varianza del estimador 1 es menor que la del estimador 2, entonces: El estimador 1 es más representativo del parámetro. El estimador 2 es mejor. Ambos son iguales. El estimador 2 es insesgado.

La media, mediana, moda y percentiles son: Estadísticos. Parámetros. Constantes. Funciones de densidad.

Una realización muestral es una colección de: Datos. Parámetros. Probabilidades. Frecuencias relativas.

En general, los extremos de un intervalo de confianza son: Estadísticos. Parámetros. Probabilidades. Constantes.

El estadístico del intervalo de confianza para la media con varianza conocida se aproxima a: Una distribución normal. Una binomial. Una t de Student. Ninguna correcta.

El estadístico del intervalo de confianza para la media con varianza desconocida sigue: t de Student. F de Snedecor. Binomial. Poisson.

El estadístico del intervalo de confianza para la varianza sigue una distribución: Chi-cuadrado (χ²). Normal. Binomial. Poisson.

El estadístico usado para construir un intervalo de confianza para el cociente de varianzas sigue una distribución: F de Snedecor. t de Student. χ². Normal.

El estimador de máxima verosimilitud: No tiene que existir siempre. Siempre existe. Coincide con la media muestral. Tiene sesgo cero.

Dada una muestra de duración de componentes: 3, 4, 5, 5, 6, 7. La mejor estimación de la varianza poblacional es: 2. 3. 4. 1.5.

¿Cuánto hay que aumentar el tamaño muestral para que la amplitud del intervalo de confianza se reduzca a la mitad?: Cuadruplicarlo. Duplicarlo. Mantenerlo igual. Reducirlo a la mitad.

Una muestra aleatoria simple es una colección de: Variables aleatorias independientes. Variables dependientes. Observaciones no aleatorias. Datos correlacionados.

El contraste H₀: (σ₁²/σ₂²) ≥ 1 y H₁: (σ₁²/σ₂²) < 1 es: Unilateral izquierdo. Bilateral. Unilateral derecho. No es un contraste válido.

En general, los extremos de un intervalo de confianza son: Estadísticos. Constantes. Parámetros. Funciones.

La amplitud de un intervalo de confianza con varianza poblacional desconocida depende de: Del tamaño de la muestra. De la población. De la varianza desconocida. De la desviación muestral.

Una estimación realizada ante elecciones inminentes es: Estimación por intervalo. Estimación puntual. Estimación asintótica. Medida exacta.

Para comprobar la afirmación “el 94% de los productos pasan control de calidad”, se usa: Contraste de hipótesis bilateral. Estimación puntual. Intervalo de confianza unilateral. Medida exacta.

La amplitud de un intervalo de confianza para la media con varianza conocida depende de: Tamaño de muestra. Media poblacional. Desviación muestral. Número de repeticiones.

Denunciar Test