Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEESTADÍSTICA APLICADA

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
ESTADÍSTICA APLICADA

Descripción:
Repaso examen.

Autor:
EECC
(Otros tests del mismo autor)

Fecha de Creación:
10/12/2023

Categoría:
Personal

Número preguntas: 107
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
¿Qué tipo de error se daría en el caso de que la investigadora rechazara la hipótesis nula cuando esta es realmente verdadera? Error tipo I o falso positivo. Error tipo II No sería un error, sino una decisión incorrecta.
¿Qué tipo de error se daría en el caso de que la investigadora aceptara la hipótesis nula cuando esta es realmente falsa? Error Tipo I Error Tipo II o Falso Negativo No sería un error, sino la decisión correcta.
¿Qué tipo de error se daría en el caso de que la investigadora rechazara la hipótesis nula cuando esta es realmente falsa? Error Tipo I Error Tipo II No sería un error, sino la decisión correcta.
Siempre que nos encontremos con un valor p inferior a 0,05 debemos: Rechazar la hipótesis alternativa. Aceptar la hipótesis nula. Rechazar la hipótesis nula.
Cuando afirmamos que los ejercicios de respiración diafragmática no mejoran el rendimiento, cuando realmente sí lo están haciendo, hablamos de: Error Tipo I Potencia estadística Error Tipo II.
Para comprobar el supuesto de normalidad se debe elegir: El test de Kolmogorov - Smirnov si los grupos son de tamaño inferior a 50 personas. El test de Kolmogorov - Smirnov si los grupos son de tamaño superior a 50 personas. El test de Shapiro - Wilk si los grupos son de tamaño superior a 50 personas.
Para comprobar el supuesto de normalidad se debe elegir: El test de Kolmogorov - Smirnov si los grupos son de tamaño inferior a 50 personas. El test de Shapiro - Wilk si los grupos son de tamaño superior a 50 personas. El test de Shapiro - Wilk si los grupos son de tamaño inferior a 50 personas.
Ante el supuesto de homocedasticidad de la varianza cuando el p valor es superior a 0.05 debemos: Rechazar la Hipótesis Nula. Mantener la Hipótesis Nula. Mantenemos la Hipótesis Alternativa.
Para llevar a cabo análisis paramétricos los supuestos más importantes: Normalidad y homocedasticidad. Normalidad, homocedasticidad, independencia y la escala de medida de la variable dependiente debe ser continua. Normalidad, homocedasticidad, independencia y la escala de medida de la variable dependiente debe ser ordinal.
Hablamos de potencia estadística cuando: Afirmamos que un efecto existe cuando la hipótesis nula es verdadera. Afirmamos que un efecto existe cuando sí lo hay. Afirmamos que un efecto no existe cuando no lo hay.
Sobre el supuesto de homogeneidad de varianzas: La hipótesis nula supone que las varianzas de los grupos son estadísticamente diferentes. La hipótesis nula supone que las varianzas de los grupos son estadísticamente iguales. La hipótesis alternativa supone que las varianzas de los grupos son estadísticamente iguales.
Ante un valor p > 0,05: Se rechaza la hipótesis sobre la normalidad. Se mantiene la hipótesis nula. Se rechaza la hipótesis nula.
Decimos que dos grupos son independiente cuando: Un grupo influye en otro en los resultados obtenidos. Se comparan grupos que no están relacionados entre sí. Se comparan grupos que están relacionados.
Según el tamaño de la muestra ¿Qué test estadístico es más adecuado interpretar para estudiar la normalidad? Kolmogorov - Smirnov. Curtosis y asimetría. Shapiro - Wilk.
Para comprobar de manera visual el supuesto de normalidad utilizaremos: Diagrama de caja y bigotes. Gráfico de tallo y hojas. Histograma.
Nos referimos al nivel de confianza cuando: Se rechaza la hipótesis nula cuando es falsa. Se mantiene la hipótesis nula cuando es verdadera. Se rechaza hipótesis nula cuando es verdadera. .
En una comparación de dos medias, la hipótesis nula (H0) siempre es que éstas son iguales. Verdadero Falso.
En una comparación de dos medias, asumimos que existen diferencias significativas entre ellas cuando p < 0.05 Verdadero Falso.
El supuesto de homogeneidad de varianzas es necesario para una prueba t de medias dependientes. Verdadero Falso.
La interpretación del estadístico t y su valor p es distinta para la comparación de medias dependientes e independientes. Verdadero Falso.
La ecuación de la prueba t se fundamenta en dividir la variación de la CD explicada por la VI, entre la variación no sistemática (i.e. aquella influenciada sobre la VD que es explicada por otras variables que no estamos controlando). Verdadero Falso.
Utilizamos el t-test para medias independientes cuando estamos ante el diseño clásico de comparación pre-post (i.e. medimos a los mismos sujetos en dos momentos temporales distintos). Verdadero Falso.
Utilizamos el t-test para medias dependientes cuando estamos ante el diseño clásico de comparación grupo control-experimental. Verdadero Falso.
La ecuación de la d de Cohen consiste en dividir la diferencia de las dos medias entre la desviación típica agrupada de éstas. Verdadero Falso.
Un tamaño del efecto d = -0.80 se interpreta como una magnitud baja al ser un valor negativo. Verdadero. Falso.
Aunque encontremos diferencias significativas entre dos medias, podemos encontrarnos con un tamaño del efecto muy bajo. Verdadero Falso.
En una comparación de tres o más medias, la hipótesis nula (H0) siempre es que todas ellas son iguales entre sí. Verdadero Falso.
El ANOVA se usa frente a múltiples comparaciones t-test por separado para evitar el incremento del error tipo II (aceptar la H0 cuando realmente es falsa). Verdadero Falso.
La fórmula del valor F consiste en dividir la variación debida al azar entre individuos del mismo grupo, por la variación entre las medias de los diferentes grupos debido al azar y el efecto del tratamiento (si lo hay). Verdadero Falso.
La suma de cuadrados del modelo (SCm) hace referencia a la variación total que se ha producido en el estudio. Verdadero Falso.
La suma de cuadrados residual(SCr) consiste en restar la suma de cuadrados del modelo a la suma de cuadrados totales para obtener la cantidad de variación puramente debido a otros factores. Verdadero Falso.
Utilizamos la ANOVA unifactorial de medias repetidas cuando estamos ante el diseño clásico de comparación de un grupo control y dos o más grupos que reciben distintos tipos de tratamiento. Verdadero Falso.
Un valor eta2 parcial igual a 0.07 corresponde a un tamaño del efecto moderado. Verdadero Falso.
El valor de eta2 es un tamaño del efecto que puede ser negativo y que se utiliza para interpretar la magnitud de las diferencias entre dos medias. Verdadero Falso.
Utilizamos la ANOVA unifactorial para grupos independientes cuando estamos ante el diseño clásico de comparaciones intrasujetos en diferentes momentos temporales (e.g. antes del tratamiento, después del tratamiento y seguimiento posterior después del tratamiento) Verdadero Falso.
La suma de cuadrados totales (SCt) hace referencia a la variación debida a que las puntuaciones provienen de grupos diferentes. Verdadero Falso.
En la correlación podemos asumir causalidad de una variable sobre otra. Verdadero Falso.
En la regresión lineal, la variable predictora (VI) va siempre en el eje Y, mientras que la variable de resultado (VD) va en el eje X. Verdadero Falso.
La constante (b0) hace referencia al valor de la variable de resultado cuando la puntuación en la variable predictora es de cero. Verdadero Falso.
Si la pendiente (b1) es negativa, la variable de resultado aumenta cuando la variable predictora disminuye y viceversa. Verdadero Falso.
El método de los mínimos cuadrados consiste en encontrar una línea recta que maximice el valor de los residuos (es decir, la distancia entre cada una de las puntuaciones y dicha línea). Verdadero Falso.
En el modelo de no relación, cualquier cambio en la variable predictora va a dar lugar a un valor aleatorio en la otra variable. Verdadero Falso.
La suma de cuadrados del modelo (SCm) es la diferencia entre la cantidad de información que el modelo de no relación no puede explicar y la cantidad de información que el modelo de relación no puede explicar. Verdadero Falso.
En la regresión múltiple debe existir multicolinealidad: que dos o más variables predictoras están altamente relacionadas entre sí. Verdadero Falso.
El coeficiente de determinación (R2) en una regresión múltiple podría inflarse si existen numerosas variables predictoras, por lo que conviene calcular y considerar el R2 ajustado. Verdadero Falso.
Que un R2=0.26 sea interpretado como bajo, medio o alto depende de muchos factores, pero equivaldría a una relación alta entre dos variables si fuera transdormado en correlación (r) Verdadero Falso.
¿Qué análisis Post Hoc utilizaremos cuando no existe un número planeado de comparaciones y tenemos la misma N en cada grupo? HSD Tukey. Tukey - Kramer. Bonferroni.
Cuando no se asumen varianzas iguales, se pueden utilizar otras alternativas de análisis Post Hoc, se puede hacer: C de Dunnett. T2 de Tamhane. Todas son correctas.
El supuesto de esfericidad se cumple cuando: P < 0.01 P ≥ 0.05 P < 0.05.
El ANOVA se usa frente a múltiples comparaciones t - test por separado para: Evitar el incremento del error tipo I. Evitar el incremento del error tipo II. Evitar el incremento del error tipo III.
Señala la opción incorrecta. Cuando hacemos Tukey debemos corregir el nivel de significación. Cuando hacemos Bonferroni debemos corregir el nivel de significación. Cuando hacemos Tukey no debemos corregir el nivel de significación.
Para conocer el tamaño del efecto en el ANOVA , nos fijamos en… D de Cohen. Prueba de esfericidad. Eta2 o Eta2 parcial.
¿Cuál de estas afirmaciones es falsa? En el t-test de medias dependientes se evalúa a cada sujeto una sola vez. En el t-test de medias dependientes se evalúa a cada sujeto dos veces. En el T - Test de medias independientes se evalúa a cada sujeto una sola vez.
T - Test es una prueba paramétrica. Y como tal, la variable dependiente debe ser una escala de medida ordinal y la distribución debe presentar asimetría. Y como tal, la variable dependiente debe ser una escala de medida continua y la distribución debe ser normal. Y como tal, la variable dependiente debe ser una escala de medida ordinal y la distribución debe ser normal.
En una comparación de dos medidas, ¿qué gráfico es el más adecuado para ver si hay diferencias en la VD? Tallo y hojas. Diagrama de dispersión. Gráficos de barras.
¿Cuál de estas afirmaciones es falsa? Siempre que encontremos diferencias significativas entre dos medias, el tamaño del efecto será alto. Aunque encontremos diferencias entre dos medias, podemos encontrarnos con un tamaño del efecto muy bajo. La D de Cohen cuantifica la magnitud de las diferencias entre dos medias, sean dependientes o independientes.
¿Qué valor de D de Cohen es medio? 0.6 0.06 0.9.
Aceptar H0 significa que… No existe normalidad. Las medias son iguales. Las varianzas son diferentes.
¿Qué Test estadísticos escogemos si tenemos que comparar 4 medidas de un experimento con grupo control y grupo experimental sobre el dolor de cabeza? T de Student unifactorial para muestra dependientes. ANOVA multifactorial para muestras dependientes. ANOVA unifactorial para muestras independientes.
Para la T de Student, ¿qué Post Hoc se utiliza? Bonferroni Tukey No se hace post hoc en t de Student.
Un valor de Eta2 grande sería… 0.20 0.12 0.08.
Para Anova, ¿qué Post Hoc se utiliza? Eta2 si no sabemos entre qué grupos comparar. Tukey si calculamos todos los grupos. Bonferroni si calculamos todos los grupos. .
¿En qué valores se puede medir la correlación? Sólo en valor absoluto (siempre + independiente del resultado). Tanto en - como + con valores límite 1. Solo en +, la correlación no puede ser negativa.
¿La VD está determinada por la VI? No, la VI está determinada por la VD. Si, la VI puede influir sobre la VD. Sí, la VD determina la VI.
¿Qué hay que valorar para saber si un test es paramétrico o no? Normalidad, homogeneidad de Varianza, la escala de medida de la variable dependiente debe ser continua (de intervalo o razón) y debe existir independencia. Normalidad, homogeneidad de Varianzas, la escala de medida de la Variable Independiente debe ser discontinua y debe existir independencia. Normalidad, Homogeneidad de Medias, Shapiro-Wilk y Kolmogorov-Smirnov y asimetría y curtosis. .
¿Qué es SCt? Es una medida estadística que se utiliza en el análisis de varianza (ANOVA) para cuantificar la variabilidad total de los datos. Es una medida estadística que se utiliza en el análisis de varianza (T Test) para cuantificar la variabilidad total de los datos. Las dos respuestas son correctas.
Un error de tipo I es cuando… Aceptas H1 cuando es falsa. Rechazas H0 cuando es falsa. Rechazas H0 cuando es verdadera.
Hablamos de potencia cuando… (SEÑALAR LA RESPUESTA INCORRECTA) Hay probabilidad de obtener un resultado significativo (p > .05) cuando el efecto realmente no existe. Hay probabilidad de obtener un resultado significativo (p < .05) cuando el efecto existe realmente. Cuando afirmamos que un efecto existe cuando si lo hay. .
El P valor es... Probabilidad de que un resultado en una prueba concreta se deba alzar y no a un efecto verdadero. Probabilidad de que un resultado en una prueba ANOVA se deba a un efecto falso y no al azar. Probabilidad que un resultado en una prueba concreta se deba a un efecto verdadero y no al azar. .
¿Qué test estadísticos se utilizan para un ANOVA unifactorial para medidas independientes que no cumple los supuestos? U de Mann-Whitney. Kruskal-Wallis. Wilcoxon.
Aplicamos la prueba de esfericidad cuando tenemos un… T de Student unifactorial para medidas dependientes. Se mira siempre, tanto en T de Student como en Anova. Anova unifactorial para medidas repetidas.
Covarianzas: Indica si ambas variables van en la misma dirección o en dirección opuestas. Indica la proporción de cambio en una variable a partir del cambio en otra. Mide la dependencia lineal entre dos variables cuantitativas (X e Y).
Correlación: Mide la dependencia lineal entre dos variables cuantitativas (X e Y). Indica si ambas variables van en la misma dirección o en dirección opuesta. Indica la proporción de cambio en una variable a partir del cambio en otra. .
Coeficiente de correlación de Pearson: Indica si ambas variables van en la misma dirección o en dirección opuestas. Mide la dependencia lineal entre dos variables cuantitativas (X e Y). Indica la proporción de cambio en una variable a partir del cambio en otra. .
¿Cuál es el valor t? El Error multiplicado por la Cantidad de Variación Sistemática (ANOVA). Cantidad de Variación No Sistemática/Cantidad de Variación Sistemática (al cuadrado). Cantidad de Variación Sistemática/Cantidad de Variación No Sistemática (T Student). .
Los test estadísticos que nos interesan para comprobar el supuesto de normalidad, teniendo siempre en cuenta el tamaño de la muestra, son: Test de Shapiro-Wilk o Kolmogorov-Smirnov. Test de Levene. Tukey.
Para comprobar el supuesto de normalidad se debe elegir: El test de Kolmogorov-Smirnov si los grupos son de tamaño superior a 50 personas. El test de Shapiro-Wilk si los grupos son de tamaño superior a 50 personas. El test de Kolmogorov-Smirnov si los grupos son de tamaño inferior a 50 personas.
¿Qué diseño utilizamos cuando no existe un número planeado de comparaciones y tenemos distinta N en cada grupo? Tukey-Kramer. Bonferroni HSD Tukey.
En Bonferroni el valor p se corrige… Dividiendo p = 0,05 entre el error tipo I. Dividiendo p = 0,05 entre el número de comparaciones posibles. Dividiendo p = 0,05 entre el número de grupos que vamos a comparar.
¿Qué tipo de es común en Común en estudios de comparación pre-, post- y seguimiento? Diseño de medidas repetidas. Diseño de grupos independientes. Diseño de grupos mixtos.
En el ANOVA de 2 factores de medidas independientes: Tenemos una H0 y dos H1. Formulamos una H0 y una H1 para cada una de las variables trabajadas. Tenemos solo una H0 y una H1.
En la ecuación de la prueba T, las cantidad de variaciones no sistemáticas: Es provocada por variables como: haber dormido poco durante la noche. No tiene ninguna influencia en la ecuación de la prueba T. Es provocado por el efecto sobre la VD que es explicado por la VI.
Utilizamos Tukey cuando: Tenemos planeado un número de comparaciones concreto. Cuando se mantiene la hipótesis nula del ANOVA. Queremos estudiar las diferencias entre todas las combinaciones posibles de grupo.
El supuesto de homogeneidad de varianzas es necesario para una prueba t de medida dependiente. Sí, solo para medias dependientes. No, solo para medias independientes. Tanto para medias dependientes como independientes.
En el T test de medidas independientes: La variable dependiente se mide una sola vez en cada sujeto. La variable independiente se mide dos veces en cada sujeto. La variable dependiente se mide dos veces en cada sujeto. .
En una comparación de dos medidas, la hipótesis nula: Es que no existen diferencias entre ambas medidas. Es que el grupo experimental supera al grupo control. Es que sí existen diferencias entre ambas medidas.
La ecuación de la prueba t consiste en: Dividir el efecto sobre la VI que es explicado por la VD entre el efecto sobre la VI que es explicado por otros factores. Dividir la variación no sistemática entre la variación sistemática. Dividir el efecto sobre la VD que es explicado por la VI entre el efecto sobre la VD que es explicado por otros factores. .
Un tamaño del efecto d = -0,80 se interpreta como: Una magnitud media al ser mayor o igual que 0,80. Una magnitud baja al ser un valor negativo. Una magnitud alta al ser mayor o igual que 0,80.
Cuál de estas afirmaciones es cierta: En el t-test de medias independientes los grupos dependen el uno del otro. En el t-test de medias independientes los grupos no dependen el uno del otro. En el t-test de medias independientes los grupos dependen el uno del otro. .
Un tamaño del efecto d = 0,15 se interpreta como: Una magnitud media al ser menor que 20. Una magnitud muy baja o trivial al ser menor que 20. Una magnitud baja al ser menor que 20.
El test de Levene... Evalúa la hipótesis nula de las varianzas en grupos similares. Se utiliza en los diseños en los que se quiere comparar grupos para averiguar si las varianzas de los grupos son homogéneas. Ambas son correctas.
Relación que puede existir entre dos variables: N/C Test de Levene Correlación.
Respecto a la hipótesis del test para evaluar homogeneidad de varianzas: N/C La hipótesis nula es que la varianza o dispersión del grupo A difiere a la varianza o dispersión del grupo B. La hipótesis nula es que la varianza o dispersión del grupo A es igual a la varianza o dispersión del grupo B.
Grados de libertad: Número total de participantes - número de grupos. SCt SCr SCm.
La correlación puede tener relación: Positiva, negativo o de no relación. Positiva, simétrica o de no relación. Ambas son correctas.
Si tenemos un valor p 0.08 decimos que: Rechazamos hipótesis nula (H0), heterogeneidad de varianza d. Aceptamos hipótesis nula (H0), 0.08 > 0.05, homogeneidad de varianzas. Aceptamos hipótesis alternativa (H1), 0.08 < 0.05, heterogeneidad de varianza.
En una comparación de dos medias, asumimos que existen diferencias cuando: Asumimos que no existen diferencias. Asumimos que existen diferencias significativas entre ellas cuando p < 0.05 Asumimos que existen diferencias significativas entre ellas cuando p > 0.05.
Las comparaciones post hoc deben su nombre a que se llevan a cabo después de realizar el ANOVA. Verdadero Falso.
El tipo de post hoc se decide en función de si se cumple el supuesto de normalidad o no. Verdadero Falso.
Utilizamos Bonferroni cuando no tenemos planeado un nº de comparaciones concreto. Verdadero Falso.
En Bonferroni, el valor p se corrige dividiendo p = 0,05 entre el número de grupos que vamos a comparar. Verdaero Falso.
Utilizamos Tukey cuando queremos estudiar las diferencias entre todas las combinaciones posibles de grupos. Verdadero Falso.
La esfericidad es un supuesto que debe de cumplirse en el ANOVA de medidas repetidas. Verdadero Falso.
Los contrastes planeados se pueden llevar a cabo siempre y cuando tengamos hipótesis específicas desde antes de recoger los datos de nuestro estudio. Verdadero Falso.
En los contrastes planeados, podemos utilizar la misma variables varias veces siempre y cuando el número de contrastes sea igual o inferior al número de grupos menos 1 (k-1). Verdadero Falso.
Cuando el supuesto de normalidad no se cumple, debemos llevar a cabo un análisis no paramétrico llamado Kruskal-Wallis. Verdadero Falso.
Después de un post hoc, sería lógico e incluso práctico calcular una d de Cohen que complemente nuestro análisis usando las medias y desviaciones típicas de cada grupo. Verdadero Falso.
Denunciar test Consentimiento Condiciones de uso