UBU: Estadística e introducción a la econometría
![]() |
![]() |
![]() |
Título del Test:![]() UBU: Estadística e introducción a la econometría Descripción: Temas 5-9 |




Comentarios |
---|
NO HAY REGISTROS |
La media muestral es un estimador insesgado de la media poblacional: Si el tamaño muestral es grande. Siempre. En muestreos aleatorios simples. En una población normal. Nunca. Un estimador: Siempre que es insesgado es consistente. Siempre que es consistente es insesgado. No tiene porque ser insesgado y consistente a la vez. Siempre que es insesgado es eficiente. Ninguna de las anteriores. Un estimador de un parámetro poblacional es: Una cantidad desconocida. La realización de una variable aleatoria. Una variable aleatoria que depende de la información muestral. Una variable aleatoria que depende de la información poblacional. Todo falso. Se proponen dos estimadores T1 y T2 para estimar un cierto parámetro. Si la elección entre ambos se basa en el criterio de eficiencia: Se elige el estimador insesgado y si ambos son sesgados, el de mínima varianza. Se elige el estimador con menor varianza, independientemente del sesgo. Se elige el estimador con menor error cuadrático medio. Se elige el estimador que recoja la mayor cantidad de información de la muestra. Ninguna de las anteriores. ¿Cuándo podemos afirmar que un estimador es insesgado?. Cuando recoge la máxima información de la muestra. Cuando la varianza del estimador es mínima. Cuando la esperanza esté centrada en el parámetro que pretende estimar. Cuando a medida que aumente el tamaño de la muestra, se aproxima al valor del parámetro estimado. Ninguna de las anteriores. La media muestra es un estimador de µ: Insesgado e inconsistente. Eficiente pero no suficiente. Tiene un error cuadrático medio nulo. Insesgado, eficiente, consistente y suficiente. Ninguna de las anteriores. El método de máxima verosimilitud se basa en: Determinar el punto que anula la función de verosimilitud. Hallar la probabilidad máxima que tienen los elementos de la muestra. Elegir como estimación del parámetro el que hace más probable los valores observados de la muestra. Minimizar la distancia global entre los valores observados y los proporcionados por una función ajustada que depende del parámetro desconocido. El principio de cuanto mayor sea la muestra, más se aproximarán las estimaciones a los valores poblacionales de los parámetros. Un estimador es suficiente, si: Es insesgado y consistente. El sesgo y la varianza de un estimador tiende a cero, cuando el tamaño de la muestra es infinito. Las vulneraciones de los supuestos de partida en que se basa el proceso de estimación no alteran significativamente los resultados que proporcionan. El estimador conserva toda la información contenida en la muestra sobre el parámetro desconocido de la población objeto de estudio. El estimador de la función de un parámetro sea igual a la función del estimador del parámetro. 9. Dados estos dos estimadores, : El primero es sesgado y el segundo insesgado. El primero es el más eficiente. El segundo es el más eficiente. Los dos son sesgados. Ninguna de las anteriores. El primero es insesgado y el segundo sesgado. El método de estimación consistente en igualar los momentos poblacionales con los muéstrales se llama: Método de los mínimos cuadrados. Método de máxima verosimilitud. Método de los momentos. Método de suficiencia. Ninguno de los anteriores. Cuál de las siguientes características no corresponde al método de estimación de los momentos: Se basa en el principio de que cuanto mayor sea la muestra, más se aproximan las estimaciones a los valores poblaciones de los parámetros que queremos estimar. Este método se utiliza mucho en investigación. Conduce a estimadores consistentes. Su aplicación es más sencilla que el método de máxima verosimilitud. Ninguna de las anteriores. El método de estimación de los momentos se basa en: La buena convergencia de los momentos poblacionales a los muéstrales. La buena convergencia de los estimadores a los parámetros. La buena convergencia de los estadísticos a los parámetros. La buena convergencia de los momentos muéstrales a los poblacionales. La varianza de un estimador θ ̂ puede ser: Siempre igual que la varianza del parámetro a estimar. Siempre menor o igual que cero. Siempre mayor que cero. Siempre coincide con el E.C.M. Todo falso. Los estimadores de Máxima verosimilitud son: Centrados en algunos casos. Siempre centrados. Insesgados para muestras pequeñas. Ninguna de las anteriores. El estimador del parámetro “a” de una distribución de Poisson es por el método de los momentos: a=x ̅/n. a=nx ̅. a=x ̅-n. a=x ̅. Dada una variable aleatoria uniformente distribuida U(a,10). El estimador de “a” es: 2x ̅. 2x ̅+10. 2x ̅-10. x ̅-10. Ninguna. Sea X una variable aleatoria con distribución Normal y β un parámetro poblacional desconocido siendo β=2μ+1 y su estimador es 2x ̅+1: Es estimador es sesgado. La varianza del estimador es constante. La varianza del estimador aumenta con el tamaño de la muestra. La varianza del estimador esta en función del tamaño de la muestra. Ninguna de la anteriores. Un estimador es: Un parámetro que se utiliza para estimar estadísticos. Un estadístico que se utiliza para estimar los parámetros de la muestra. Un parámetro que se utiliza para estimar algunos estadísticos. Un estadístico que se utiliza para estimar parámetros poblacionales. Ninguna de las anteriores. El error cuadrático medio de un estimador de un parámetro θ mide: La dispersión del estimador alrededor de su sesgo. La dispersión del estimador alrededor de su media. La dispersión del estimador alrededor del parámetro. La diferencia del estimador con respecto a su media. Todo falso. Cuál de estas afirmaciones es cierta: Todos los estimadores son estadísticos. Todos los estadísticos son estimadores. Hay funciones de la muestra que no son ni estadísticos ni estimadores. Solo hay un estimador por muestra. Ninguna de las anteriores. ¿Cuál de las siguientes propiedades de los estimadores no es correcta?. Suficiencia. Robustez. Invarianza. Deficiencia. todo falso. El error cuadrático medio de un estimador determina: La distancia por término medio del estimador a su media. La distancia por término medio del estimador al parámetro. La varianza del estimador. El sesgo del estimador. Ninguna de las anteriores. La combinación lineal de estimadores insesgados es: Un estimador insesgado. Un estimador de mínima varianza. Un estimador más elegante. Un estimador consistente. Entre dos estimadores insesgados es preferible: El que tenga menor error cuadrático medio. El que tenga menor esperanza matemática. El que tenga mayor dispersión. El que tenga mayor sesgo. ¿Qué diferencias hay entre un estimador y una estimación?. Ninguna, ya que son funciones de elementos muestrales. La primera es una función si objetivo, mientras que la segunda es una función para estimar un parámetro concreto. La primera es una variable aleatoria función de los elementos de la muestra, mientras que la segunda es un valor concreto obtenido gracias a los valores de la muestra. Ninguna de las anteriores. Señale la afirmación verdadera sobre los conceptos de estimador y estimación: La estimación es una variable aleatoria. Todos los estimadores son estadísticos todos los estadísticos son estimadores. Si realizamos una buena estimación, el valor del parámetro coincidirá con la estimación. El estimador es igual para cualquier muestra, mientras que la estimación cambia en función de la muestra. Para estimar el porcentaje de docentes a favor de una determinada ley educativa se extrae una muestra aleatoria de 250 personas de las que 25 de ellas están a favor: Esta muestra es menos verosímil que otra en la que se obtienen 100 profesores partidarios de la ley. La verosimilitud de la muestra es bastante escasa. Lo más verosímil es que ese porcentaje sea del 10% en todo el colectivo de docentes. Para hablar de verosimilitud de la muestra habría que conocer la función de densidad. Ninguna de las anteriores. Un estimador por intervalos para un parámetro poblacional es: Un par de variables aleatorias que con cierta probabilidad contiene al verdadero valor del parámetro poblacional. Un par de valores que con cierta probabilidad contiene al verdadero valor del parámetro poblacional. Un intervalo de valores centrado en el verdadero valor del parámetro poblacional. Un par de valores que con cierta probabilidad no contienen al verdadero valor del parámetro poblacional. Todo falso. Un intervalo de confianza es: La probabilidad “a priori” de que el intervalo contenga el verdadero valor del parámetro. Un intervalo donde se encuentra el estimador con un nivel de confianza determinado. La región del espacio muestral donde se va a encontrar el verdadero valor del parámetro con una determinada probabilidad. Un intervalo de extremos aleatorios donde se encuentra el valor del parámetro con un nivel de confianza determinado. Todo falso. Señale la afirmación correcta: La media muestral es una estimación de la media poblacional. La varianza poblacional es el estimador de la cuasivarianza muestral. Un estimador es una función de los valores muestrales. Un estimador no es una variable aleatoria porque depende de la muestra y esta es conocida. Ninguna de las anteriores. La diferencia entre las tasas de paro de dos municipios próximos se ha estimado al 95% en (-0,03,0,05). Entonces: La diferencia observada es estadísticamente significativa. La diferencia observada es estadísticamente nula. La primera proporción poblacional es superior a la segunda. La segunda proporción poblacional es superior a la primera. Ninguna de las anteriores. Para estimar una media por intervalos de confianza, se utiliza el estadístico t-Student cuando: La variable aleatoria no se distribuye normalmente. La población es normal pero la varianza de la muestra es muy grande. La varianza de la población es muy pequeña y la muestra también. La muestra proporciona una estimación puntual insesgada de la varianza. La población normal pero no se conoce la varianza de la población. Dadas dos m.a.s. independientes entre sí, se obtienen como medias muéstrales 325 y 300 respectivamente, siendo la longitud del intervalo de la diferencia de medias al 95% de 30 unidades: Existe evidencia empírica de que las medias poblacionales no son iguales. Es un problema de pares de datos ya que se compara la diferencia entre dos muestras. La diferencia real entre las medias poblacionales aumentará si el nivel de confianza aumenta al 99%. El intervalo de confianza al 95% es (-5,25). Ninguna de las anteriores. El intervalo de confianza de la media poblacional será tanto más amplio cuanto: Mayor sea la dispersión de los datos. Mayor sea el nivel de confianza que exijamos. Menor sea el tamaño de la muestra. Todas las anteriores. Ninguna de las anteriores. Un fabricante desea saber la proporción de jóvenes que preferirían un móvil de su marca. Se toma una m.a.s. de 100 jóvenes y 20 dicen que les gustaría el móvil. Con un 95% de confianza: El error en la estimación es 0,2780. Con un 95% de confianza la proporción de jóvenes que preferiría el móvil de dicha marca está entre 12,20% y 27,80%. La longitud del intervalo es 0,5. Con un 5% de confianza la proporción de jóvenes que preferiría el móvil de dicha marca está entre 12,20% y 27,80%. La longitud del intervalo es 0,5. Si el intervalo de confianza al 90% del cociente de varianzas poblacionales es [1,53; 2,79], entonces las varianzas: Son prácticamente nulas. No existen diferencias significativas. La varianza de la primera es mayor que la varianza de la segunda. La varianza de la segunda es mayor que la varianza de la primera. Ninguna de las anteriores. Si el intervalo de confianza al 90% del cociente de varianzas poblacionales es [-1,53; 2,79], entonces las varianzas: No existen diferencias significativas. La varianza de la primera es mayor que la varianza de la segunda. La varianza de la segunda es mayor que la varianza de la primera. Los datos no son compatibles. Ninguna de las anteriores. Si el intervalo de confianza del cociente de varianzas poblacionales es [0,898; 2,79], entonces se puede afirmar: Las varianzas poblacionales son prácticamente nulas. La varianza de la primera población es mayor que la varianza de la segunda. La varianza de la segunda población es mayor que la varianza de la primera. No existen diferencias significativas entre ellas. El intervalo de confianza en la estimación de una proporción será: Menor cuando la proporción poblacional tenga un valor muy extremo. Menor cuando la proporción poblacional tenga un valor próximo a 0,5. Mayor cuando la proporción muestra esté cerca de 0,5. Menor cuando la proporción muestral esté cerca de 0 o 1. Ninguna de las anteriores. La precisión de una estimación de la media poblacional disminuye cuando: Disminuye la confianza. Aumenta el tamaño de la muestra. Mayor sea la variabilidad en la población. a y b son correctas. Ninguna de las anteriores. La estimación de la media poblacional: Se hace cuando se desconoce tal media. Se realiza por un proceso de inferencia llamado estimación. Se calcula el error estándar de la media basándose en la desviación muestral. Se dice entre que valores puede estar la media poblacional, con una probabilidad de equivocarse conocida. Son todas ciertas. El nivel de confianza es la probabilidad de: Que, al construir un intervalo de confianza, de cada 100 intervalos construidos (1-α )100% de ellos contiene el parámetro. 100(1-α) % de los intervalos construidos no contienen el parámetro especificado. α 100% de los intervalos contienen el parámetro. Ninguna de las anteriores es correcta porque no se conoce el parámetro del cual se está hablando. Todo falso. Sea I1 el intervalo de confianza para la media de una población normal con varianza conocidas, obtenida para un nivel de confianza del 98% y a partir de una muestra de tamaño n1. Suponiendo una muestra de tamaño n2 < n1 y todo lo demás igual, se obtiene un nuevo intervalo I2 . La relación existente entre los dos intervalos es: Los dos intervalos tienen la misma amplitud. El primer intervalo tiene mayor amplitud que el segundo. El primer intervalo tiene el doble de amplitud que el segundo. El primer intervalo tiene menor amplitud que el segundo. Todo falso. Los intervalos de confianza de la media poblacional: Son simétricos con respecto al estimador puntual para ese parámetro. Nunca son simétricos con respecto al estimador puntual. Son simétricos si el estimador es sesgado. Ninguna de las anteriores. Sea el siguiente intervalo de confianza al 95% de confianza para la media poblacional sobre una muestra de 50 observaciones de una variable X IC(μ)=[87.3 ;95.7]. Señalar la afirmación correcta: Seguro que la media poblacional es 90. La media muestral siempre estará incluida en el intervalo obtenido. El intervalo de la media no es válido pues se basa en la normalidad y no conocemos esa propiedad de X. La media muestral no estará incluida en el intervalo obtenido. Todo falso. En un intervalo de confianza para la media poblacional cuando conocemos la varianza poblacional; señale la FALSA: La varianza de la población no afecta al error. El error aumenta cuando disminuye la muestra. El nivel de significación influye en el error. El error y la amplitud están relacionados. Señale cuál de las siguientes afirmaciones es cierta: Una estimación de la media poblacional es la media muestral. Un buen estimador ha de ser sesgado y eficiente. Un estimador es una estimación de un parámetro poblacional. Un estimador es una función de las variables muestrales. La importancia del intervalo de confianza para la estimación está en el hecho de que. Contiene información del estimador puntual, pero nunca del posible error en la estimación. Contiene información del estimador puntual, y sobre el posible error en la estimación. Contiene información del estimador del intervalo, pero nunca del posible error en la estimación. Contiene información del estimador del intervalo, y sobre el posible error en la estimación. Con un intervalo de confianza al 95% para una muestra con x ̅=10, Sx = 4 y n= 100. Si el resultado con una muestra de 225 fuera el mismo y con el intervalo de confianza al 99%, ¿Cómo debería ser el intervalo?. Más pequeño. Más grande. Igual. Ninguna de las anteriores. En un intervalo de confianza para la media, buscamos disminuir el margen de error. Cuál de las siguientes posibilidades nos permite realizarlo: Aumentar el tamaño muestral y la confianza. Aumentar el tamaño muestral y disminuir confianza. Aumentar la confianza. Disminuir la varianza muestral. Para reducir el error en una estimación: Se utiliza la distribución normal. Hay que reducir el nivel de confianza. La muestra tiene que ser grande. Hay que aumentar el nivel de confianza. Para aumentar la longitud de un intervalo de confianza podemos: Disminuir la variabilidad de los datos. Aumentar el tamaño muestral. Aumentar el nivel de confianza. No se puede aumentar la longitud de un intervalo. La manera correcta de definir la Potencia de Contraste en un contraste de hipótesis es: Como la probabilidad de aceptar la hipótesis nula siendo esta falsa. Como el nivel de significación al que tenemos que garantizar para que sea más fiable el contraste. Como la probabilidad de rechazar la hipótesis nula siendo esta cierta. Como la probabilidad de rechazar la hipótesis nula siendo esta falsa. Ninguna es correcta. La probabilidad de aceptar la hipótesis nula cuando es cierta es: Potencia de contraste. Error del tipo I. Error del tipo II. Complementario del error I. Complementario del Error II. La probabilidad de cometer el error del Tipo I en un contraste de hipótesis es: La probabilidad de aceptar la hipótesis nula siendo esta falsa. La inversa de la potencia de contraste, debido a que es el error más grave que se puede cometer. La probabilidad de rechazar la hipótesis nula cuando esta es correcta. El nivel de significación que tenemos que garantizar para que sea más fiable el contraste. Ninguna de las anteriores. El nivel de significación o de significancia es la probabilidad de: Rechazar la hipótesis nula cuando es falsa. Rechazar la hipótesis nula dado que es verdadera. No rechazar la hipótesis nula cuando es falsa. No rechazar la hipótesis nula dado que es verdadera. Ninguna de las anteriores. La capacidad de encontrar diferencias habiéndolas: Es imprescindible. Es el error de tipo I. Es el error de tipo II. Usualmente es de 0.05. Es el poder o potencia de contraste. Al realizar un contraste de hipótesis, ¿Cuál de las siguientes situaciones es mejor?. ∝=0,05 β=0,05. ∝=0,05 β=0,10. ∝=0,01 β=0,01. ∝=0,01 β=0,05. Un test de hipótesis es tanto mejor cuando mayor sea: Confianza. Potencia. Nivel de significación. Error tipo II. La hipótesis nula es: La que vale cero. La que en principio se piensa más estable. La que en principio se piensa menos estable. La que es falsa. Cuál de las siguientes afirmaciones no es correcta: El contraste de hipótesis implica la posibilidad de aceptar o de fracasar en la elección, al no saber cuál es la verdadera. En una hipótesis simple el parámetro a estimar se compone de un solo elemento. El espacio muestral del estadístico se divide en dos conjuntos disjuntos. Para intentar controlar los errores en el contraste de hipótesis el nivel de significación tiene que ser máximo y la potencia de contraste mínima. Ninguna de las anteriores es correcta. Indicar cuál de los siguientes pasos no es una etapa en una prueba de hipótesis: Calcular el valor muestral del estadístico usado en la prueba. Enunciar hipótesis nula y alternativa. Para el nivel de significación elegido, obtener los valores de la distribución que separan la región crítica de la región de aceptación. Elegir el estadístico adecuado, con distribución desconocida. Aplicar el test, es decir, dependiendo de si el estadístico cae en la región de aceptación o de rechazo, tomar la decisión de aceptar una de las dos hipótesis. El test de hipótesis: Es un tipo de estadística descriptiva. La hipótesis nula plantea la diferencia. La hipótesis alternativa plantea la no diferencia. La hipótesis nula y alternativa pueden no ser excluyentes. Sabes la probabilidad de equivocarte en la afirmación. Señale la respuesta falsa en lo que concierne a los contrastes de hipótesis: La hipótesis nula puede ser rechazada. La hipótesis alternativa puede ser aceptada. Si no se rechaza la hipótesis nula, los resultados no son concluyentes. La hipótesis nula es aquella para la que buscamos evidencia a favor. Un contraste de hipótesis: Solo sirve para contrastar medias muéstrales. Sirve para hacer inferencias sobre cualquier parámetro muestral. Sirve para hacer inferencias sobre cualquier parámetro poblacional. Es una herramienta matemática menos fiable que los intervalos de confianza. El nivel de significación de un test de hipótesis: Suele ser pequeño y lo fija el investigador o u convenio generalmente aceptado. Da la posibilidad de declarar significativo el resultado de un test, cuando esto es falso. Al disminuir hace aumentar la probabilidad del error tipo II. Todo lo anterior es cierto. Al hecho de aceptar la hipótesis alternativa siendo cierta se le denomina: Nivel de significación. Error de tipo I. Error de tipo II. Potencia de contraste. Selecciona un par de hipótesis que sea correcta de acuerdo a las reglas para escribir hipótesis: H_0 x ̅ =10 H_1 x ̅ ≠10. H_0 S_x^2 ≥64 H_1 S_x^2 <64. H_0 μ>10 H_1 μ≤10. H_0 μ≤50 H_1 μ>50. Ninguna de las anteriores. Al contrastar la hipótesis nula de que la media de edad de un colectivo de estudiantes no supera los 20 años frente a la alternativa de que, si los supera, se obtiene un valor crítico de 20,5 y un estadístico muestral de 19,6. Entonces: No podemos decidir porque desconocemos el nivel de significación. Rechazamos la hipótesis nula al nivel de significación establecido. Aceptamos la hipótesis nula al nivel de significación establecido. Aceptamos la hipótesis nula porque se observan diferencias significativas. Ninguna de las anteriores. En el contraste para la comparación de dos varianzas, indicar cual no es la correcta: El estadístico del contraste es ((S_c1^2)/(σ_1^2 ))/((S_c2^2)/(σ_2^2 ))~F_(n_1-1,n_2-1). Si la hipótesis alternativa es σ_1^2>σ_2^2, en este contraste rechazamos la hipótesis nula si f >F_α. Si la hipótesis alternativa es σ_1^2>σ_2^2, en este contraste rechazamos la hipótesis nula si f >F_α⁄2. Si la hipótesis alternativa es σ_1^2<σ_2^2, en este contraste rechazamos la hipótesis nula si f <〖F'〗_α. Ninguna de las anteriores es completamente correcta. En un contraste de hipótesis se ha rechazado H_0 ∶ θ=θ_0 en favor de la alternativa H_1 ∶ θ≠θ_0 a un 5% de significación. Esto significa que: θ_0 pertenece al intervalo de confianza al 95% de confianza. Puede asegurarse que θ no tomará el valor θ_0. θ_0 no pertenece al intervalo de confianza al 95% de confianza. Puede asegurarse que θ tomará el valor θ_0. Todas falsas. Un contraste de hipótesis se considera significativo si: Una muestra aleatoria es coherente con la hipótesis nula. La hipótesis alternativa es más probable que la nula. Una muestra aleatoria no es coherente con la hipótesis nula. Todo lo anterior es cierto. Un contraste de hipótesis se considera no significativo si: Una muestra aleatoria es coherente con la hipótesis nula. Una muestra aleatoria no es coherente con la hipótesis nula. La hipótesis alternativa es más probable que la nula. Todo lo anterior es cierto. En los contrastes paramétricos, se compara un valor poblacional con uno muestral. Si las diferencias observadas se deben a fluctuaciones del muestreo o al azar, tales diferencias: Se consideran significativas. Se consideran significativas y H_0 se acepta. No se consideran significativa y H_0 no se acepta. No se consideran significativas y H_0 se acepta. Para el problema anterior y con una significación del 5% concluimos que: La cantidad de mujeres a favor es más alta porque 8,40> Ztab. La cantidad de mujeres a favor no es más alta que la cantidad de hombres porque ztab= 1,6449. La cantidad de hombres a favor es menor porque ztab ≠8,40. La cantidad de mujeres a favor no es más alta que la cantidad de hombres porque z = 8,40. Supongamos que el Intervalo de Confianza al 95% para la media de una población es [20,30]. Dado el contraste de hipótesis H_0 μ=22 H_1 μ≠22 : La hipótesis nula está mal planteada. Con un nivel de significación del 1% se aceptaría la hipótesis nula. Se rechaza la hipótesis nula porque las diferencias son significativas al 5%. Se acepta la hipótesis alternativa pues la media muestral es 25, lo cual contradice la hipótesis nula. Ninguna de las anteriores. La región crítica para el contraste H_(0 ): σ_1^2= σ_2^2 frente a H_(1 ): σ_1^2≠ σ_2^2 es (-∞,-1)∪ (1,∞). La decisión a tomar será: Aceptar la hipótesis nula. Rechazar la hipótesis nula. No se puede realizar el contraste porque falta el nivel de significación. Los datos son incoherentes. Ninguna de las anteriores. Para contrastar mediante la prueba “t” si dos poblaciones tienen la misma media se requiere que: Las dos muestras sean independientes. Los tamaños de las muestras sean iguales. Las medias muestrales sean iguales. Los tamaños de muestra sean grandes, siempre. La región crítica de un test de hipótesis es: Una región del espacio paramétrico tal que si el parámetro pertenece a ella se rechaza la hipótesis nula. Una región del espacio paramétrico tal que si el parámetro pertenece a ella se rechaza la hipótesis falsa. Un subconjunto del espacio muestral tal que si la muestra pertenece a él se rechaza la hipótesis falsa. Un subconjunto del espacio muestral tal que si la muestra pertenece a él se rechaza la hipótesis nula. Las puntuaciones en un test de razonamiento abstracto siguen una distribución Normal de varianza 20. Para evaluar un programa de mejora de las capacidades intelectuales a 27 individuos que están realizando este programa se les pasa el test, obteniéndose una varianza de 28 ¿Puede asegurarse, a un nivel de confianza del 90%, que el programa incrementa las diferencias individuales en esta variable?. Sí, utilizando un contraste unilateral de cola derecha. No, utilizando un contraste unilateral de cola izquierda. Sí, utilizando un contraste unilateral de cola izquierda. No, utilizando un contraste unilateral de cola derecha. Un anuncio afirma que la utilización de un determinado producto para eliminar manchas industriales es efectiva como mínimo en el 90% de los casos. Una asociación de empresarios, por el contrario, afirma que la afirmación del anuncio es falsa. Para determinar si el fabricante tiene razón o no se ha probado en 200 talleres de forma aleatoria y el resultado ha sido positivo (limpieza satisfactoria) e 175 casos: La hipótesis que se quiere contrastar son H_0 ∶ p=0,9 y H_1 ∶ p>0,9. La hipótesis que se quiere contrastar son H_0 ∶ p=0,9 y H_1 ∶ p≠0,9. No se rechaza H_0 para α=0,05, por tanto el fabricante tiene razón. No se rechaza H_0 para α=0,05, por tanto la asociación tiene razón. |