M.I.E
![]() |
![]() |
![]() |
Título del Test:![]() M.I.E Descripción: Explicaciones y cuestiones sobre M.I.E |




Comentarios |
---|
NO HAY REGISTROS |
Entre las condiciones de aplicación del Enfoque Paramétrico encontramos que la V.D es una variable cuantitativa. Verdadero. Falso. Entre las condiciones de aplicación del Enfoque Paramétrico encontramos que la V.D es una variable cualitativa. Verdadero. Falso. Entre las condiciones de aplicación del Enfoque Paramétrico encontramos la homoscedasticidad. Verdadero. Falso. Entre las condiciones de aplicación del Enfoque Paramétrico no encontramos la Normalidad. Verdadero. Falso. Entre las condiciones de aplicación del Enfoque Paramétrico encontramos la dependendencia de observaciones. Verdadero. Falso. Para que se de normalidad, los índices de asimetría y de apuntamiento deben ser iguales a 1. Verdadero. Falso. Para medir la normalidad utilizamos las pruebas Shapiro-Wilk y Kolmogorov-Smirnov. Verdadero. Falso. La prueba de Shapiro-Wilk es para muestras menores o iguales a 50. Verdadero. Falso. La prueba de Kolmogorov-Smirnov es para muestras menores o iguales a 50. Verdadero. Falso. La violación de la normalidad se minimiza con muestras grandes y diseños balanceados. Verdadero. Falso. La homoscedasticidad es la homogeneidad de medias. Verdadero. Falso. La prueba más utilizada para evaluar la homoscedasticidad es la prueba F de Levene. Verdadero. Falso. Si no existe homoscedasticidad, hay mayor probabilidad de cometer error Tipo I. Verdadero. Falso. El sesgo provocado por la no homoscedasticidad se corrige con la prueba de Welch aplicada sobre la T de Wilcoxon. Verdadero. Falso. El sesgo provocado por la no homoscedasticidad se puede corregir con la prueba de Welch, que modifica los estadísticos t, incorporando las diferencias entre varianzas y modificando los grados de libertad. Verdadero. Falso. Si no se cumplen los supuesto Paramétricos, no podemos realizar ningún contraste. Verdadero. Falso. La prueba t de student solo se aplica en muestra independientes. Verdadero. Falso. La prueba t de student es adecuada para datos de dos grupos cuando la VD sea cuantitava, medida en escala de intervalo o razón. Verdadero. Falso. La prueba t de student es adecuada para datos de dos grupos cuando la VD sea cualitativa. Verdadero. Falso. La prueba t de Student transforma la diferencia entre las medias muestrales en una variable cuya distribución de frecuencia es conocida para determinar su significación. Verdadero. Falso. Los grados de libertad se calculan únicamente sumando los individuos que componen cada grupo. Verdadero. Falso. La distribución T del estadístico t de student es simétrica con respecto al eje Y. Verdadero. Falso. La distribución T del estadístico t de student se considera valores anómalos los que se acercan a 0. Verdadero. Falso. Si en una prueba F de Levene obtenemos que p<0.05, existe homoscedasticidad. Verdadero. Falso. Si en una prueba F de Levene obtenemos que p>0.05, existe homoscedasticidad. Verdadero. Falso. Si en una prueba F de Levene obtenemos que p>0.05, utilizaremos los datos de la fila "Se han asumido varianza iguales". Verdadero. Falso. Si en una prueba t de student seleccionamos los datos de "No se han asumido varianzas iguales", utilizaremos los datos de la pruba de Welch. Verdadero. Falso. Si en una prueba t de student obtenemos un valor de significación menor que el de alfa, determinamos que el resultado no es significativo, por lo que no rechazamos la hipótesis nula. Verdadero. Falso. El enunciado "¿Existen diferencias entre las medias de los dos grupos?" es bilateral. Verdadero. Falso. En el resultado de una prueba t de Student obtenemos lo siguiente : [t(16)=5,12; p<0,001]. Los 16 corresponden a los grados de libertad. Verdadero. Falso. En el resultado de una prueba t de Student obtenemos lo siguiente : [t(16)=5,12; p<0,001]. Los 5,12 corresponde a la significación. Verdadero. Falso. La prueba t de Student solo se puede aplicar cuando exista homoscedaicidad. Verdadero. Falso. Si las observaciones numéricas obtenidas no se distribuyen de forma normal, y cada muestra es pequeña (menos de 40). Es adecuado aplicar la prueba no paramétrica para muestras independientes de U Mann Whitney. Verdadero. Falso. Las pruebas para muestras dependientes son adecuadas en los diseño con dos niveles en la VI. Verdadero. Falso. Para comparar más de dos grupos de datos cuantitativos independientes usamos ANOVA. Verdadero. Falso. Para comparar más de dos grupos de datos cuantitativos independientes usamos la prueba H de Kruskal-Wallis. Verdadero. Falso. No podemos aplicar ANOVA si los datos de la VD están medidos en escala de intervalo o razón. Verdadero. Falso. ANOVA es una prueba Paramétrica. Verdadero. Falso. Para corregir el sesgo de la no homoscedasticidad en la prueba ANOVA podemos aplicar las prueba Brown-Forsythe o la de Welch. Verdadero. Falso. Para comparar más de dos grupos de datos cuantitativos independientes que no cumplen los supuestos paramétricos usamos la prueba T de Wilcoxon. Verdadero. Falso. Según el ANOVA existen tres fuentes de variación entre las puntuaciones: la media cuadrática total (MCT), la media cuadrática entregrupos (MCE) y la media cuadrática intragrupo (MCI). Verdadero. Falso. Según el ANOVA, la Media Cuadrática Total (MCT) representa la variabilidad entre las medias de los grupos. Verdadero. Falso. Según el ANOVA, la Media Cuadrática Entregrupos (MCE) indica la variabilidad entre las medias de los grupos. Verdadero. Falso. Según el ANOVA, la Media Cuadrática Intragrupos (MCI) es la variabilidad entre las puntuaciones dentro de cada grupo. Verdadero. Falso. Según el ANOVA, en el análisis de varianzas la variabilidad entre-grupos es debida a variables extrañas como el azar. Verdadero. Falso. Según el ANOVA, en el análisis de varianzas la variabilidad intra-grupo o error es debida a variable estrañas como el azar. Verdadero. Falso. La variabilidad total es la suma de la variabilidad entre-grupo y la variabilidad inter-grupo. Verdadero. Falso. La variabilidad total es la suma de la variabilidad entre-grupo y la variabilidad intra-grupo o error. Verdadero. Falso. Existen efectos de la Vi en la Vd si la variabilidad entregrupo es mayor que la intragrupo. Verdadero. Falso. Las medias cuadráticas se calculan dividiendo las sumas cuadráticas por los grados de libertad. Verdadero. Falso. La media cuadrática entregrupos es la varianza insesgada de todas las puntuaciones. Verdadero. Falso. Si la MCE y la MCI son iguales no rechazamos la hipotesis nula. Verdadero. Falso. La prueba ANOVA utiliza el estadístico F de Levene, que es el ratio entre las MCE y MCI. Verdadero. Falso. La distribución del estadístico F de Snedecor solo toma valores negativos. Verdadero. Falso. Los grados de libertad entregrupos se calculan restando 1 al número de grupos de la investigación. Verdadero. Falso. El contraste de la F en ANOVA siempre es bilateral. Verdadero. Falso. En ANOVA, los datos se presentan [F(gl intra, gl entre) = valor de F, MCI, p<>Alfa. Verdadero. Falso. Tras obtener resultados significativos en una prueba ANOVA, procedemos a realizar una prueba a priori como es la prueba de Scheffé. Verdadero. Falso. Cuando se cumple la homoscedasticidad las pruebas Post hoc más utilizadas son la prueba de Scheffé y la prueba Brown-Forsythe. Verdadero. Falso. Cuando no se cumple la homoscedasticidad las pruebas Post hoc más utilizadas son la prueba de Tamhene y la prueba Dunnett. Verdadero. Falso. La significación en las pruebas post hoc se marca con un asterisco. Verdadero. Falso. Si en un caso podemos aplicar ANOVA, pero el número de sujetos es muy pequeño podemos aplicar la H de Kruskal-Wallis. Verdadero. Falso. Si en un caso podemos aplicar ANOVA, la VD esta medida en una escala ordinal aplicaremos la F de Friedman. Verdadero. Falso. La H de Kruskal-Wallis reemplaza los valores originales de la VD por rangos. Verdadero. Falso. Rango es la puntuación que ordena a los sujetos de mayor a menor. Verdadero. Falso. La H de Kruskal-Wallis no se puede aplicar a VD cuantitativa. Verdadero. Falso. Cuando aplicamos la H de Kruskal-Wallis con VD cuantitativas, comparamos la media de la VD convertida a rangos. Verdadero. Falso. En una prueba de Kruskal-Wallis, cuando el número de sujetos es igual o menor que 10 debemos utilizar la probabilidad exacta asociada al estadístico. Verdadero. Falso. Entre los estadísticos de contraste de la prueba Kruskal-Wallis encontramo Chi-Cuadrado. Verdadero. Falso. Un contraste a posteriori de la prueba H de Kruskal-Wallis es la utilización de pruebas U de Mann-Whitney por el procedimiento Bonferroni. Verdadero. Falso. Un contraste a posteriori de la prueba H de Kruskal-Wallis es las comparaciones múltiple por el procedimiento de Tukey. Verdadero. Falso. El resultado de una prueba H de Kruskal-Wallis se representa como [ χ²(G.l)= valor de Chi cuadrado; p<>alfa]. Verdadero. Falso. |