METODOLOGÍA TEORÍA
![]() |
![]() |
![]() |
Título del Test:![]() METODOLOGÍA TEORÍA Descripción: rezos a papadios |




Comentarios |
---|
NO HAY REGISTROS |
La siguiente gráfica corresponde a los errores de estimación de los intervalos de 8 segundos en la primera serie de respuestas: Hay al menos dos puntuaciones extremas: 13,0 y 13,7. Hay una puntuación extrema que vale 13,7. Es muy frecuente el error igual a 7. Los datos tienen dos puntuaciones extremas en los valores más bajos. La gráfica representa las distribuciones de las respuestas medias en cada intervalo de tiempo a estimar. En ella, entre otras cosas, encuentra puntuaciones extremas. Una de las siguientes afirmaciones es correcta. Las medianas de las distribuciones se encuentran siempre en el centro de los cuartos 1º y 3º. Los bigotes inferiores corresponden en todos los casos a la puntuación teórica inferior. La puntuación extrema más influyente se encuentra en la distribución del intervalo de 12 segundos. La puntuación influyente de todas es cercana a 70. En la misma gráfica anterior: Las barras centrales gruesas en las graficas representan a las medias. Todas las medianas tienen un valor mayor (sobreestimación) que el valor del intervalo al que corresponden. La variabilidad de las distribuciones no tiene ninguna relación con el tamaño de los intervalos de tiempo a estimar. A mediana más alta corresponde distribución más variable. En las dos gráficas de contorno siguientes: En ambas gráficas la pendiente es negativa. El núcleo central de la distribución de 8 segundos no parece coincidir con la recta de regresión. Es el efecto de una puntuación extrema. En la gráfica de las medias a 31 segundos hay más casos que en la de las medias a 8 segundos. La pendiente de la recta de regresión es la misma porque en estas variables hay una única ecuación de regresión posible. Se han puesto juntas las gráficas de caja y la “cesta” (bagplot) para las medias de 12 segundos. Lo que ocurre es que las puntuaciones extremas univariadas no lo son desde la perspectiva bivariada. Las gráficas de caja no tienen relación con las de cesta. Deben estar mal. Hay balas perdidas en las gráficas de caja y no las hay en la de cesta. La gráfica de cesta no permite detectar puntuaciones extremas. Estas son las gráficas de caja de las medias de la segunda serie. En ellas: Las puntuaciones extremas son, en general, menos extremas que en la serie 1. Si nos fijamos solo en la amplitud de los bigotes, todas son muy asimétricas. Mirando las medias de estas gráficas podemos afirmar que se producen sobre todo sobreestimaciones. No tiene sentido que solo haya “balas perdidas” en el extremo alto de la distribución. Debiera haber alguna también bajo los bigotes inferiores. La gráfica siguiente corresponde a los errores para el mismo casi de la pregunta anterior, segunda serie. Los errores (subestimación o sobre-estimación) tienen variabilidad distinta que las medias. Es normal que las puntuaciones extremas coincidan en ambas gráficas. Corresponden a la misma variabilidad. Las dos gráficas de las dos preguntas solo por azar dan resultados parecidos. La dispersión de los errores (subestimación o sobreestimación) es homocedástica. La gráfica que aparece en esta pregunta corresponde a las respuestas directas de los participantes ante las seis presentaciones del intervalo de 8 segundos (tres en primera serie y tres en la segunda) solo que ahora agrupadas por ensayos y no por series. En ellas se observa claramente que: Es extraño que la distribución de datos del primer ensayo segunda serie no tena puntuaciones extremas. Cada gráfica corresponde a una escala diferente. En general, las respuestas en la segunda serie tienden un poco más a la subestimación que las de la primera. En general, las medias son muy similares. Observe la gráfica siguiente y elija la opción correcta: Se observa un decrecimiento de las medianas, más claro en la segunda serie. Es anormal que haya puntuaciones extremas en la cola inferior. Todas las distribuciones son equivalentes. Las distribuciones tienen en general el mismo nivel, y las medias decrecen, lo que no es muy lógico. El análisis exploratorio de datos permite, entre otras cosas: Abordar un análisis preparatorio de datos. Es siempre posterior al análisis preparatorio de datos. Seleccionar participantes para las muestras del experimento. Calcular pruebas de significación de diferencias entre medianas. La siguiente gráfica corresponde a los errores de estimación en el intervalo de 31 segundos en la 2ª serie. En ella: La puntuación -20,7 debe ser más extrema que la de 16,3. Si las puntuaciones 16,3 y -20,7 son consideradas extremas depende del tamaño de la caja. No se observan anomalías aparentes. Hay muchas personas que cometen error igual a 7. Las gráficas siguientes se corresponde a las medias y los errores de estimación en el experimento de percepción del tiempo. Las comparamos y observamos: Que contienen la misma información, con agrupaciones de datos diferentes. En una predomina más la puntuación 7 que en otra. Son distintas informaciones. De hecho el número de intervalos es distinto. Que contienen información distinta, ya que las colas y las agrupaciones inferiores son distintas. La gráfica de caja corresponde a algunos de los datos que se han representado en las gráficas de las anteriores preguntas. Debe haber algún error. Esta gráfica no se corresponde con la información de ninguna de las anteriores. La media esta muy centrada entre los cuartiles. Los criterios de los que es una bala perdida son más rígidos en la gráfica de caja que en la de tallo y hoja. Los datos son bastante normales, con una ligera perturbación en el extremo superior de las puntuaciones. Comparando las dos gráficas de caja observamos: Que no hay ninguna relación entre las dos series. Que, en general, las puntuaciones de la segunda serie son más variables que las de la primera. Que la diferencia entre las medias es probablemente significativa. Que, en general, las puntuaciones de la segunda serie son más bajas que las de la primera. Las dos gráficas de caja de la pregunta anterior ¿guardan alguna relación con las dos gráficas de tallo y hoja de la pregunta 12?. No. Contienen informaciones contradictorias. No. no hay ninguna relación entre ellas. Sí, una de las gráficas de caja se construye con una de las gráficas de tallo y hoja. Sí. Contienen la misma información exactamente. Las gráficas siguientes contienen relaciones entre las gráficas de caja univariadas y la de “cesta” bivariada. Al verlas conjuntamente observamos que las de caja tienen más balas perdidas que las de cesta. Eso no puede ocurrir, no tiene sentido. Puede que las gráficas de caja no sean las que corresponden con las de cesta. Eso es normal. Las puntuaciones extremas univariadas y las bivariadas pueden no coincidir. Las gráficas de caja tienen asimetría positiva y las de cesta asimetría negativa. Comparando las cuatro gráficas siguientes observamos rectas de regresión que se ajustan a los datos. Recuerde que en el intervalo de 12 segundos falta una puntuación y, por ello, no se pudo calcular el contorno para la gráfica. Aunque eso para su respuesta no tiene ninguna relevancia. Las gráficas muestran dispersiones parecidas, y las rectas de regresión lo reflejan. Las gráficas de contorno varían todas alrededor de las medias de los grupos. En algunos casos, la recta de regresión depende demasiado de alguna puntuación extrema. Salvo variaciones al azar, las cuatro rectas de regresión es normal que sean prácticamente iguales. ¿Cree Vd. que la recta de regresión en esta gráfica pasa por el núcleo central de los datos sin que influya ninguna puntuación extrema?. No influyen ninguna puntuación extrema, sencillamente porque no las hay. Es posible que influyan. De hecho, la puntuación del extremo inferior debería hacer que la recta se inclinase más, pero las cuatro del extremo superior desvían la recta disminuyendo su inclinación. Los contornos no tienen nada que ver con la recta de regresión. No influye ninguna otra puntuación. La recta se ajusta bien al centro de la distribución. En las cuatro gráficas siguientes: Es poco lógico que solo haya puntuaciones extremas en el extremo superior de los datos. La variabilidad de los datos decrece cuando decrecen las medias. La puntuación extrema de la gráfica de 8 segundos es probablemente la más influyente de todas las que hay en las cuatro distribuciones. Las medias de los cuatro grupos representados decrecen cuando crece el intervalo. Otra forma de denominar las variables dependientes de un experimento: Variables de respuesta. Interacciones. Tratamientos. Factores. Las variables organísmicas son aquellas que operacionalizan la variabilidad debida a los atributos de los sujetos, o bien la debida a sus: respuestas comportamentales. respuestas fisiológicas. condiciones estimulares. diferencias intraindividuales. Al conocimiento de cómo se comportan las variables de un diseño experimental se le denomina: Linealidad. Confusión. Aditividad. Control. Diseñamos experimentos fundamentalmente para conseguir: comparaciones sesgadas entre medias de tratamientos. que las varianzas de los grupos o bloques sean heterogéneas. determinar si los efectos de los distintos tratamientos son diferentes. que las medias de los tratamientos sean significativas. El uso de la terminología variable independiente-variable dependiente: es práctica común en las ciencias naturales aunque sea infrecuente en psicología. es práctica común en todas las ciencias. es práctica común en psicología y en algunas ciencias sociales, pero muy infrecuente en las ciencias naturales. Es inadecuado porque no hay verdaderas variables independientes en psicología. ¿A qué tipo de variables llamamos nosotros “variables de tarea”?. a las también llamadas independientes. a las organísmicas. a las también llamadas dependientes. a las que no son de sujeto. A los niveles de las variables independientes en un experimento se les llama también: tratamientos. factores. variables de asignación. variables intermedias. Uno de los siguientes símbolos corresponde al término que representa a todas las fuentes de variación no controladas que pueden afectar a la puntuación individual. ¿Cuál?. αj. μj. μ. Ɛ i(j). Las diferencias entre las distintas μj en un experimento se reflejan en: Ɛi(j). Ơ ^2α. μ. Ơ^2Ɛ. Cada grupo de un diseño al azar siempre y en cualquier caso representa una muestra: heterocedástica. de una población de tratamiento. aleatoria de la población. estratificada. La expresión “(μ.j- μ…)” corresponde a: la varianza intra. la varianza inter. el efecto de tratamiento de “j”. el efecto del error “j”. En un experimento de grupos al azar es requisito imprescindible tener de los sujetos experimentales: un número de medidas iguales a “n”. un número de medidas iguales a “p”. una única medida por cada tratamiento. una única medida. La diferencia entre modelo matemático y modelo estructural de un diseño estriba en que: El modelo estructural se expresa en lenguaje no matemático, mientras que el matemático necesariamente se expresa con símbolos numéricos. no hay diferencias, se usa una u otra denominación indistintamente para referirse al mismo concepto. el primero contiene parámetros y el segundo estimadores. no existe el modelo estructural de diseño. La razón “F” tiene como valores teóricos mínimo y máximo, respectivamente: -1 y 1. 0 y ᴔ. 1 y ᴔ. no tiene límites teóricos exactos. La razón “F” del análisis de varianza puede obtenerse conociendo los tamaños de muestras, el número de grupos y…: si los efectos son aditivos. la Mce. la proporción de la varianza explicada por los tratamientos. la correlación entre las variables independientes. La prueba “F” en un diseño de grupos al azar se considera robusta frente a la violación de algunos supuestos y muy sensible a la violación del de: aditividad de los errores. independencia. normalidad. circularidad. Cuando, tras realizar la prueba de homogeneidad apropiada, en un experimento encontramos que las varianzas de los grupos son significativamente diferentes: no debemos preocuparnos demasiado si nuestras muestras son suficientemente pequeñas y desiguales. no debemos preocuparnos demasiado si nuestras muestras son suficientemente grandes e iguales. debemos utilizar en todos los casos la Mce en los contrastes. debemos promediar las varianzas para el cálculo de los contrastes. Utilizamos pruebas robustas de contrastes de diferencias entre medias cuando se viola uno de los supuestos: independencia. homocedasticidad. normalidad. aditividad. A veces las pruebas de normalidad de las distribuciones no detectan violaciones del supuesto de normalidad causada por balas perdidas. Una de las pruebas menos sensibles en ese caso es la prueba: Brown-Forsythe. Kolmogorov-Smimov-Lilliefors. Fmax de Pearson y Hartley. Shapiro-Wilks. Cuando las varianzas de los datos de los grupos de un experimento son homogéneas: el promedio de todas ellas estima la varianza de error o media cuadrática del error. la prueba de Barlett es estadísticamente significativa. Se cumple el supuesto de esfericidad. Todas son correctas. Se debe utilizar una transformación logarítmica cuando los datos. son no paramétricos. se distribuyen asimétricamente. se distribuyen asintóticamente. son estimaciones de parámetro. El M-Estimador de un paso utiliza un índice de variabilidad como referencia. Este índice es: La desviación típica. MADN. la desviación típica. MAD. Para determinar si una puntuación es extrema (outlier o bala perdida) se utiliza: el M-Estimador biponderado de Tukey. el criterio informado del investigador apoyado en algunas técnicas robustas. basta con la gráfica de tallo y hojas. un criterio estadístico fijo. Con la gráfica de tallo y hojas se puede obtener: una suma de cuadrados de los tratamientos. un valor del percentil dado. certeza de la existencia de balas perdidas. todas las respuestas anteriores son correctas. ¿Cuál de las siguientes oraciones representa un procedimiento para la estimación del error típico de un estadístico?: obtención a partir de la desviación típica y del tamaño de la muestra. todas las opciones son correctas. estimador bootstrap. obtención a partir de la varianza y el tamaño de la muestra. Se denomina contraste a: una combinación lineal cuya suma de coeficientes es 0. la significación de una diferencia entre medias. un vector ortogonal. dos vectores ortogonales entre sí. PREGUNTA IMPORTANTE: Cualquier suma de cuadrados de tratamientos se puede descomponer exactamente: en un número indeterminado de contrastes. en (p-1) contrastes independientes. en una matriz de varianza-covarianza. en una varianza sistémica y en una de error. Cada contraste complejo (que involucra a más de dos grupos),¿cuántos grados de libertad tiene?: depende del número de grupos involucrados. (p-1). 1. p(p-1)/2. Usamos los grados de libertad de Welch cuando calculamos t para: varianzas separadas y tamaños de muestras iguales. varianzas separadas y tamaños de muestra desiguales. varianzas promediadas y tamaños de muestra iguales. varianzas promediadas y tamaños de muestra desiguales. Alguna prueba de homogeneidad de varianzas son sensibles a la violación de otros supuestos como el de normalidad. La más sensible es: Barlett. Brown-Forsythe. Flinger-Kileen. Scheffé. El procedimiento según el cual la distribución del estadístico se determina simulando un número elevado de muestras aleatorias directamente a partir de los datos observados se denomina: Brown-Forsythe. Flinger-Kileen. Scheffé. Bootstrap. Los grados de libertad de las pruebas de comparaciones múltiples entre medias, si no hay violación del supuesto de homocedastecidad, son: los calculados a partir de la fórmula de Welch. los calculados a partir de la fórmula de Cochran y Cox. los correspondientes a la σ^2 error (e). los correspondientes a la σ^2 tratamientos (a). El número de contrastes ortogonales que se pueden realizar en un experimento depende: del número de grupos y tratamiento. del tamaño de la suma de cuadrados de tratamientos. de los grados de libertad del error. del tamaño de la suma de cuadrados de error. El número de comparaciones ortogonales entre medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: p(p-1)/2. indeterminado. p. p-1. PREGUNTA IMPORTANTE: En un diseño de cuatro grupos al azar, el vector ( 1 0 – 1 0 ) representa: un contraste entre el grupo 1º y el 3º. un contraste entre dos grupos cualesquiera. un contraste lineal. un contrate entre el grupo 2º y 4º. t^2 es igual a F cuando: σ es igual a MADN. las calculamos en un diseño simple de dos grupos al azar. siempre. nunca. toda suma de cuadrados de tratamiento se descompone en (p-1) componentes ortogonales, cada uno de los cuales tiene: 1 grado de libertad. (p-1) grados de libertad. (n-1) grados de libertad. depende de la suma de cuadrados de que se trate. Si se utilizan pruebas clásicas, es decir, no se utilizan pruebas robustas, en caso de violación del supuesto de homocedastecidad existe el riesgo de que tal vez: disminuyan los grados de libertad. aumente mucho. disminuya mucho. aumente la potencia de análisis. Una esperanza se define como: un valor diferente de 0. una probabilidad. una VI. una media. La expresión (1-(1-αC corresponde a: la probabilidad de cometer al menos un error tipo I en “C” contrastes. la probabilidad de no cometer ningún error tipo II en “C” contrastes. la probabilidad de no cometer ningún error tipo I en “C” contrastes. la probabilidad de cometer al menos un error tipo II en “C” contrastes. El problema de la tasa de error tiene como corolario que cuantos más contrastes realicemos mayor será: α pc. α pE. α pp. α j. Respecto al problema de la tasa de error cabe decir, en general, que: para intentar resolverlo se utilizan pruebas potentes. para intentar resolverlo se utilizan pruebas conservadoras. cuando se aumenta el número de contrastes ortogonales por encima de (p-1) se incrementa exponencialmente la tasa de error. no es un problema en la de los diseños experimentales. Se conoce como tasa de error en un experimento: al número de contrastes independientes que se pueden realizar. al número de contrastes que se pueden realizar. al nivel de confianza. a los contrastes a priori menos los contrastes a posteriori. El número de comparaciones entre medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: (p-1). indeterminado. p(p-1)/2. p. Puesto que podemos elegir entre los diferentes contrastes algunos más potentes, otros menos, la elección de ellos dependerá, a igualdad de otras cosas, de: si se violan los supuestos del análisis. las necesidades de la investigación. el modelo estructural del diseño. si el análisis es “a priori” o “a posteriori". Una de las siguientes pruebas no está específicamente diseñada para comparaciones complejas entre medias: Scheffé a priori. Brown-Forsythe. Dunnet. todas las anteriores sirven para comparaciones complejas. Una de las siguientes es una prueba compleja: Tukey. Welch. Fisher. Scheffé. La prueba de Dunn-Sidak está relacionada con: la desigualdad de Bonferroni. la modificación de Games-Howell. la pérdida de grados de libertad en la solución de Bahrens-Fishers. la pérdida de grados de libertad en la solución de Welch. En general, y salvo excepciones concretas (como Welch, por ejemplo), los grados de libertad de la mayoría de las pruebas de comparaciones múltiples entre medias pertenecen a la: σ2 de error. σ2 de tratamientos. σ2 de grupos. σ2 sistemática. La prueba de Dunnet se utiliza para: contrastes “a priori” entre pares de varianzas. contrastes “a posteriori” entre pares de medias. contrastes “a priori” entre un media control y (p-1) experimentales. las opciones (b) y (c) son ambas correctas. Una prueba de comparaciones múltiples entre medias para el caso de violación grave del supuesto de homocedastecidad es la de: Scheffé “a posteriori”. Bonferroni. Brown-Forsythe. todas son correctas. La prueba de Dunn o Bonferroni se aplica: cuando queremos una prueba más potente que la Tukey. cuando queremos realizar un número alto de contrastes y no queremos superar en mucho α pE. porque constituye una solución exacta al problema de la tasa de error. las opciones (b) y (c) pueden ser correctas. La suma de todas las sumas de cuadrados de las tendencias calculables en un experimento equivale a: Σy2 error. Σy2 total. Σy2 residual. Σy2 tratamientos. Cuando se describe la tendencia de las medias de un experimento a través de un polinomio de segundo orden, se está realizando de hecho un análisis: de varianza. de regresión no lineal. de regresión lineal. heterocedástico. La expresión sum {{y} ^ {2} no lineal” hace referencia a la suma de cuadrados de: los componentes de la varianza de error y tratamiento. los componentes de varianza de bloqueo y tratamiento. los componentes de varianza de cualquier tipo de curvatura. los componentes de varianza de error, bloqueo y tratamiento. La expresión “MC No Lineal” estima algún componente de la: σ2 de error. σ2 intra. σ2 de tratamientos. depende de los casos. En un análisis de tendencias, el coeficiente de correlación múltiple al cuadrado nos informa de: la varianza explicada conjuntamente por los componentes por los componentes lineal, cuadrático, cúbico hasta alcanzar la tendencia de grado (a-1). la probabilidad de varianza explicada por las tendencias no lineales. la probabilidad de réplica de las tendencias del experimento. en el análisis de tendencias no se calcula nunca un coeficiente de correlación. Suponga que se desea saber la relación que hay entre las diferentes concepciones de educación (liberal, autoritaria, mixta) y el rendimiento en matemáticas de los alumnos de un colegio. Jamás podrá utilizar: Un análisis de tendencias. Pruebas paramétricas. Un análisis de regresión. Se podrá usar cualquiera de las pruebas anteriores. Para poder calcular la tendencia lineal y la cuadrática con las medias de un experimento necesario: obtener estimadores de la regresión polinómica. que la razón F ómnibus haya sido significativa. que haya al menos tres grupos y un factor cuantitativo. que el diseño sea correlacionado. Suponga que un psicólogo decide probar únicamente la tendencia cuadrática en un experimento que realice, porque tiene razones teóricas que así lo aconsejan. ¿Qué diría usted de ese único contraste cuadrático?. del contraste nada. Del psicólogo diría que no sabe metodología. que si corresponde a la hipótesis del usuario, todo está bien, la teoría es la única guía que sentido a los datos. que es teórico. que se debe probar primero la tendencia lineal y después las demás. En análisis de regresión se puede realizar junto con el análisis de varianza la prueba de Dunnet si utilizamos una codificación: ortogonal. de efectos. Dummy. todas son falsas. Los coeficientes de contrastes de tendencias se obtienen: a partir de las esperanzas de las medias cuadráticas. directamente, en función de nuestras preferencias. a partir de tablas de coeficientes de tendencias. En un experimento se induce a los sujetos a diferentes estados de humor: alegre, deprimido y neutral. Uno de los análisis estadísticos siguientes no se puede realizar en este caso: pruebas a priori. análisis de tendencias. análisis de regresión. pruebas a posteriori. El número de comparaciones entre pares de medias que pueden efectuarse en un experimento con “p” niveles de tratamiento es: (p-1). indeterminado. p(p-1)/2. p. Puesto que podemos elegir entre los diferentes contrastes algunos más potentes, otros menos, la elección de ellos dependerá, a igualdad de otras cosas, de: si se violan los supuestos del análisis. las necesidades de la investigación. el modelo estructural del diseño. si el análisis es “a priori” o “a posteriori”. En un diseño de cuatro grupos al azar, el vector ( 0 1 0 –1 ) representa: un contraste entre el grupo 1º y el 3º. un contraste entre dos grupos cualesquiera. un contraste lineal. un contraste entre el grupo 2º y el 4º. Cuando no se tienen ningún término de error correcto para probar una interacción de primer orden en un diseño factorial 2x2x2, se recurre a: la esperanza de la Mce. una razón cuasi-F. la prueba de Behrens-Fisher. este caso no se da en ningún modelo factorial 2x2x2. ¿Existe algún diseño experimental que pueda tener más de un término de error para poder probar las razones “F” de diferentes medias cuadráticas?. no, nunca. sí, en los factoriales, modelo aleatorio, por ejemplo. sí, en los jerárquicos, modelo aleatorio, por ejemplo. las opciones (b) y (c) pueden ser ambas correctas. Si encontramos en el modelo matemático de un diseño experimental la expresión (αβ)jk podemos afirmar que se trata de un diseño: factorial de, al menos, dos factores cruzados. jerárquico B (A). factorial con dos factores A y B anidados. de bloques al azar. Suponga que en un diseño factorial de dos factores, no tiene Vd. término de error correcto para probar un determinado efecto principal. En ese caso debe utilizar: razones cuasi-F. pruebas conservadoras. pruebas potentes. no puede ocurrir en un diseño de factores. En un diseño en el que varios niveles de una variable se cruzan con uno solo de otra se dice que: existe interacción entre ambas. la primera está anidada en la segunda. la segunda está anidada en la primera. ambas están anidadas. En un diseño en el que todos los niveles de una variable se cruzan con todos los de la otra se dice que: la primera está anidada en la segunda. la segunda está anidada en la primera. ambas están anidadas. es un diseño factorial cruzado. En un diseño de bloques al azar cada celdilla contiene necesariamente: un único sujeto. un único valor. “p” valores. “n” valores. En los diseños de bloques, la varianza del efecto de interacción πα puede estimarse a través de: la prueba de Pearson. la prueba de no aditividad de Tukey. la prueba de no aditividad del ANOVA. las opciones (a), (b) y (c) son correctas. Mientras que en el diseño de grupos al azar la Mce se calcula a partir de la varianza “intra-grupos”, en el de bloques, si se calculase así, la Mce contendría una parte debida a: errores. bloques. tratamientos. todas las opciones anteriores son falsas. Un factor crítico en la identificación de un diseño como “factorial” o “de bloques” es: la forma de la tabla de puntuaciones. el nivel de medición de las variables independientes. el tipo de variables que lo compongan, según el criterio manipulativo. se trata del mismo tipo de diseños. PREGUNTA IMPORTANTE: La expresión Σy2 No Aditividad hace referencia a la Σy2 de interacción entre: los componentes de varianza de error y tratamiento. los componentes de varianza de bloqueo y tratamiento. los componentes de varianza de error y bloqueo. los componentes de varianza de error, bloqueo y tratamiento. Suponga que en un diseño factorial mixto de tres factores, no tiene usted término de error correcto para probar determinado efecto principal. En ese caso debe utilizar: razones “cuasi-F”. pruebas conservadoras. pruebas potentes. este caso no se puede dar en un diseño de tres factores. Un diseño en el que la variable B sea intrasujetos y las variables A y C sean intersujetos se suele denominar: B.AC. AC.B. A.B.C. A.C.B. Una variable como sexo es: atributiva. fija. empírica. puede ser atributiva y fija. Si le dicen que en un experimento tiene una fuente de variación “sujetos intra-grupos”, Vd. podrá sospechar que se trata de un diseño: de grupos al azar. de bloques. factorial. de ninguno de los anteriores. Si le dicen que un experimento tiene una fuente de variación “sujetos”, Vd. podrá sospechar que se trata de un diseño (si pregunta por sujetos debe aparecer “intra”): de grupos al azar. de bloques. factorial. intrasujetos. La ventaja principal de un diseño de bloques es que: minimiza la varianza de error debida a las diferencias interindividuales. maximiza la varianza de los tratamientos. maximiza la varianza de las variables relevantes. minimiza la varianza de tratamientos debida a las diferencias entre los sujetos. En un diseño factorial ABC (tres factores 2x2x2): se puede calcular la interacción ABC. se pueden obtener el efecto principal simple C (A1) y el C (A2). se pueden calcular las interacciones AB y BC. todas las opciones son correctas. Un diseño Solomon (donde ponga factoriales) puede considerarse como: un diseño de bloques. un diseño factorial sobre las post-observaciones. un diseño con cuatro grupos intra-sujetos. un diseño normal pre-test, post-test. En el diseño de cruce (“crossover”): se utilizan dos factores cruzados. es un diseño sin pre-test. se altera el orden de los tratamientos en los distintos grupos. es otra forma de ver el diseño Solomon. Si los efectos A y B en un diseño 2x2 son ambos significativos, la interacción AxB: es necesariamente significativa. no se puede interpretar, ya que es el efecto conjunto de ambas. no puede ser significativa. es ortogonal a A y B, por lo que no depende de que ellos sean o no factores significativos. ¿Cuántos términos de error tiene un diseño inter-intra de dos factores?. dos. depende del tamaño de la muestra. uno. (p-1). En un experimento factorial en el que las variables se cruzan siguiendo el esquema A1B1-A1B2-A2B1-A2B2, el vector 1,0,-1,0 define: la interacción AB. el efecto de B2. el efecto de A en B2. el efecto de A en B1. Cuando se asignan sucesivamente todas las combinaciones de tratamiento de varios factores a cada sujeto, tenemos diseños: factoriales de grupos al azar. factoriales intra-sujetos. factoriales inter-intra. factoriales de bloques. En un diseño de medidas repetidas ha de considerarse frecuentemente la técnica de control conocida como: aleatorización de la secuencia de tratamientos. todas las opciones son correctas. aleatorización en bloques de las secuencias de tratamientos. contrabalanceo. En un experimento factorial en el que las variables se cruzan siguiendo el esquema A1B1-A1B2-A2B1-A2B2, si se resta la suma de cuadrados definida por el vector 0,0,1,-1 de la suma de cuadrados definida por el vector 1,-1,0,0: el resultado es necesariamente 0. obtenemos la suma de cuadrados B (A) o B dentro de A. el resultado es la suma de cuadrados de B. obtenemos la suma de cuadrados de la interacción AB. Un diseño intra-sujetos difiere de un diseño de bloques en: el modelo matemático del diseño. el procedimiento experimental. el tamaño relativo al efecto del tratamiento. el tamaño relativo a la no aditividad. PREGUNTA IMPORTANTE: En un diseño factorial inter-intra A.B, el error de la variable A es: un error intra. una interacción como en bloques. un error inter. menor que el de la variable B. Los inter-intra son un tipo de diseños en los que: Una VI no interactúa con la VD porque está anidada en ella. los tratamientos de una variable se asignan a diferentes grupos y los de la otra a los mismos sujetos. la VD no se cruza con todos los niveles de la VI. la VD no interactúa con la VI porque está anidada en ella. El supuesto de simetría compuesta de la matriz de covarianzas es importante en los diseños: inter-intra. todas son correctas. de grupos al azar. factoriales al azar. PREGUNTA IMPORTANTE: Una interacción en un diseño factorial se define como: la suma de los efectos principales simples (por ejemplo, A(B1)+A(B2). el efecto conjunto no aditivo de dos o más variables. el efecto conjunto de dos variables. la suma de los efectos principales A y B. En diseño experimental con el modelo matemático Yijk=μ+α +β+π+ϵ es: un factorial parcialmente jerárquico. no existe un diseño experimental con ese modelo. un factorial inter-intra. un factorial de bloques. El diseño factorial AxBxSujetos (factorial intrasujetos) puede seguir un modelo aditivo o un modelo no aditivo. En el análisis estadístico del diseño, ambos modelos son distintos: no hay diferencias en el análisis estadístico. los grados de libertad asociados al efecto de A. los grados de libertad de la interacción AxB. que el no aditivo tiene más término de error que el aditivo. Una interacción de 2º orden: se calcula también en los diseños jerárquicos incompletos de tres factores. es una interacción de primer orden distinta a distintos niveles de una tercera variable. no se puede calcular en los diseños factoriales cruzados de tres o más factores. es la suma de dos interacciones de primer orden. Una desventaja de los diseños intrasujetos es: no existen técnicas que permitan controlar los errores de tiempo. no sabemos calcular el efecto de los sujetos en la variable de respuesta. a veces los efectos de los tratamientos son duraderos, en cuyo caso son desaconsejables. todas las respuestas son correctas. En los diseños de bloques, los grados de libertad de la suma de cuadrados de bloques es igual a: p (n-1). p-1. n-1. (p-1)(n-1). En un diseño factorial de grupos al azar, la suma de cuadrados de interacción AxB: no existe el diseño factorial de grupos al azar. se descompone en (p-1)(q-1) componentes ortogonales. no es significativa si no lo son las sumas de cuadrados de A y la suma de cuadrados de B. se descompone en p-1 componentes ortogonales. En un diseño experimental A inter x B intra, la interacción AxB: se calcula en la parte intra del análisis. se calcula como un residuo. no se puede calcular. se calcula en la parte inter del análisis. Para probar el supuesto de aditividad en un diseño intrasujetos se compara la matriz de varianza-covarianza promediada: no existe tal tipo de comparación en los diseños intrasujetos. no existe tal tipo de prueba. en efecto se trata de la prueba de Mauchly. en efecto se trata de la prueba de Box. Si en un diseño factorial 2x4 encontramos que los efectos A(B1), A(B2) y A(B3) son significativamente iguales y A(B4) es significativamente distintos de los anteriores, tenemos: una interacción AxB. un diseño jerárquico A(B). un efecto significativo de la variable B. un efecto significativo de la variable A. Una ventaja de los diseños intrasujetos es: el escaso número de sujetos necesarios para probar los efectos de los tratamientos. la coherencia metodológica en el estudio de procesos de conducta que operan con el paso del tiempo. todas las respuestas son correctas. la reducción de la varianza de error. Un diseño inter-intra: es un diseño factorial mixto. incluye solamente factores cruzados. se conoce también como diseño jerárquico. incluye factores anidados y cruzados. ¿En qué tipo de diseño no se puede utilizar la prueba de un grado de libertad de Tukey?: medidas repetidas. factorial de bloques. factorial cruzado AxB. Split-plot. En el modelo o ecuación estructural de un diseño intrasujetos de una única VI aparece siempre un término asociado a: la interacción sujeto-tratamiento. los efectos principales simples. la interacción entre los factores. la variabilidad interindividual. Una de las principales ventajas de utilizar un diseño de bloques es que: disminuye el número de términos de error. puede haber interacción bloque-tratamiento. se controla la variabilidad entre las unidades experimentales. se aumentan las diferencias individuales. Se entiende como diseño factorial de modelo mixto a un diseño: factorial con una variable inter y otra de bloqueo. de bloques intrasujeto. análogo al cuadrado latino. factorial en el que una variable es fija y otra aleatoria. Tenemos un diseño de bloques cuando: a cada sujeto se le aplica un único tratamiento y se le mide varias veces. se asignan tratamientos a los sujetos experimentales clasificados según una variable atributiva. los sujetos se asignan al azar a cada uno de los bloques. a cada sujeto se le aplican todos los niveles de la variable experimental. El término de error de un diseño intrasujetos es: igual a la de un diseño de grupos al azar. menor o igual que el de un diseño de grupos al azar. menor al de un diseño de grupos al azar. mayor al de un diseño de grupos al azar. ¿Cuántas son las interacciones que pueden aparecer en un diseño factorial AxB?: solamente la interacción AxB. dependerá del tamaño del cuadrado latino. todas las posibles entre tratamientos y ninguna entre bloques. ninguna. La utilización de un diseño de medidas repetidas sobre los mismos sujetos: controla la varianza sistemática primaria mediante aleatorización. consigue que la variable de bloqueo se relacione con la VI. selecciona bloques heterogéneos de sujetos o unidades experimentales. consigue en general una prueba F más potente que en los diseños de grupos. Las interacciones de segundo orden son aquellas en las que: la relación entre una VI (A) y la VD es diferente a diferentes niveles de la otra VI (B). se suman los efectos del factor A y del factor B. se puede generalizar como actúa una VI (A) si necesidad de determinar el nivel de la otra VI (B). existe una interacción entre tres VI. Cada bloque de un diseño de bloques al azar representa: una muestra heterocedástica. una muestra estratificada de una población de tratamientos. un conjunto homogéneo de sujetos. una población de tratamientos. Si no hay efectos principales en un diseño AB es inútil buscar una interacción porque: la interacción es la suma de los efectos principales. este tipo de interacciones no existen en este diseño factorial. esta afirmación es falsa, la interacción y los efectos son independientes en este diseño. ocurre lo mismo que con la razón F y los contrastes. Si no es significativa la F es inútil buscar después comparaciones entre medias. El problema fundamental de los diseños intrasujetos (o de bloques) es: su escasa potencia. su potencial falta de aditividad entre sujetos y tratamientos. su escaso error. su gran cantidad de error. Si utilizamos un diseño experimental de grupos al azar para evaluar una variable determinada, y otro diseño de bloques con esa misma variable, cabe esperar: que la aditividad en el diseño de bloques no sea significativa. que el diseño de grupo tenga menos error que el de bloques. que la varianza de tratamientos sea menor en el de bloques que en el de grupos. que el diseño de bloques tenga menos error que el de grupos. En un diseño de medidas repetidas, un sujeto concreto: recibe un único tratamiento y se le mide “p” veces. ha de ser contrabalanceado. recibe sucesivamente un número de tratamientos igual a “p”. ha de ser balanceado. Cuando consideramos sólo un nivel de una variable, y probamos en ese nivel los efectos de otra variable, los efectos se llaman: jerárquicos. principales. principales simples. interactivos. Un diseño intrasujetos o uno de bloques se utilizan, entre otras razones, porque: disminuyen la probabilidad de cometer error tipo I. son más conservadores que los de grupos. controlan mejor la varianza sistemática primaria. su varianza de error es menor o igual que la del diseño simple. En uno de los siguientes diseños hay más de un término de error. ¿En cuál?: AB.C. ABC. de regresión. jerárquico. ¿En algún caso concreto el modelo matemático de un diseño de bloques contiene un término de interacción “bloque por tratamiento”?: no, nunca. no, en principio, aunque depende de la teoría que pretenda probar el investigador. sí, en el modelo aditivo. sí, en el modelo no lineal. El modelo matemático de un diseño intrasujetos difiere del de un diseño de bloques en: el tamaño relativo del efecto del tratamiento. no difiere en nada. el tamaño relativo de la no aditividad. en todo. La técnica de bloqueo: controla la varianza sistemática secundaria mediante aleatorización. consiste en formar bloques homogéneos antes de aplicar los diferentes tratamientos. selecciona bloques heterogéneos de sujetos o unidades experimentales. consigue que la variable de bloqueo se relacione con la VI. La varianza de error de un diseño de bloques es mayor que la de un diseño de grupos al azar: cuando la fuente de variación de error es significativa. cuando la fuente de variación de interacción es significativa. cuando la fuente de variación de tratamientos es significativa. nunca, eso no es posible. La varianza de error de un diseño de bloques es menor que la de un diseño de grupos al azar cuando: la fuente de variación de bloques es significativa. la fuente de variación de error es significativa. la fuente de variación de tratamientos es significativa. la fuente de variación de interacción es significativa. Un diseño jerárquico A(B): incluye solamente factores cruzados. se conoce también como diseño Split-pot. contiene un factor anidado. incluye factores anidados y cruzados. Se diseña un experimento factorial porque se quiere conocer fundamentalmente: el error intra. la aditividad bloque-tratamiento. el posible efecto de interacción. el efecto principal de cada VI. ¿Existe algún diseño factorial AxB en que la suma de cuadrados de tratamientos no se descomponga exactamente en la suma de las sumas de cuadrados de A, de B y de la interacción AB?. no, no existe tal tipo de diseño. sí, en los factoriales aleatorios. sí, en los diseños “Split-pot”. sí, en los no ortogonales. El valor a en la teoría de Neyman-Pearson es: la probabilidad obtenida asociada a una PSHO. la probabilidad de cometer un error tipo I cuando se rechaza una Ho. el efecto. la probabilidad previa, a priori, de un error tipo I. La regla de Cohen que sugiere un tamaño de efecto pequeño cuando sea 0,2 o menor, medio cuando esté alrededor de 0,5, y grande cuando sea 0,8 mayor, se aplica: a la distancia estandarizada entre medias. a todos los índices de tamaño de efecto. a todos los índices de distancia entre medias. a los índices basados en correlaciones. PREGUNTA IMPORTANTE: Algunos índices de tamaño de efecto se interpretan como proporciones (proporción tiene que ser al cuadrado) de varianza explicada, y otros no. De entre los siguientes, sólo uno se interpreta así. ¿Cuál?. r de Rosenthal. “omega” cuadrado. f. d de Cohen. Geoffrey Loftus tituló uno de sus artículos así: Una gráfica vale más que mil p. Con ello se refería a que: al rechazar una hipótesis nula no sabemos nada que no supiésemos antes: toda Ho es falsa si el resultado del contraste no es exactamente igual a 0, basta con aumentar el tamaño de la muestra. puede no ser necesaria una prueba de significación estadística si se proporcionan gráficas de medias con intervalos de confianza. se abusa de las pruebas de significación, cuando éstas no nos dicen nada de cómo varían los datos. Todas las opciones son correctas. En las reglas a ojo de Cumming y Finch: importa si se solapan o no las gráficas de caja de los datos. se usa preferentemente el solapamiento entre intervalos de confianza de las medias para cualquier tipo de diseño. sólo importa si se solapan o no las barras de error. importa mucho la información acerca de lo que se mide, de qué significan las medias y los intervalos desde un punto de vista teórico o sustantivo. ¿Puede ocurrir alguna vez que un factor tenga un efecto muy pequeño y que se rechace la hipótesis nula?. no, porque solo se rechaza la hipótesis nula cuando hay efectos significativos. sí, porque cuando el tamaño de la muestra es muy grande, la potencia es muy grande. sí, porque cuando el tamaño de la muestra es muy grande, la probabilidad de un error tipo I es muy grande. no, porque la potencia de un factor no depende del tamaño de la muestra, sino del número de niveles que tenga. Un investigador realiza un experimento y, siguiendo la teoría de Neyman-Pearson decide rechazar su H0 al obtener un valor menor que 0,01. Concluye entonces que, en un experimento posterior, con la misma población y el mismo plan de muestreo, obtendrá resultados parecidos, y probablemente volverá a obtener un valor p que le permitirá rechazar de nuevo H0 al mismo nivel de confianza. Esta conclusión merece el siguiente comentario: la probabilidad de una réplica no depende solo del muestreo, sino también del valor del parámetro, del diseño y del tamaño del efecto. es una conclusión correcta, porque la replicabilidad de los experimentos depende de la población y el plan de muestreo que se realice. no es correcto afirmar que probablemente volverá a obtener un valor p parecido. Es más correcto si se afirma que se obtendrá el mismo. es una conclusión correcta, porque en la teoría de Neyman-Pearson la inferencia se basa en el muestreo repetido. Mientras que la hipótesis estadística es un enunciado acerca de parámetros de la población, la hipótesis experimental es: exactamente lo contrario que una estadística. exactamente lo mismo que una estadística. el efecto de una VI sobre una VD. la proposición de una relación entre variables. Para mantener bajo control la probabilidad de rechazo correcto de una hipótesis nula falsa en un contraste de diferencias entre dos medias, debemos proponer antes del experimento el valor de: β. d. α. la distribución muestral. Uno de los siguientes índices del tamaño del efecto se utiliza como distancia estandarizada para el caso de una prueba global del análisis de varianza. ¿Cuál?. Eta cuadrado. g de Hedges. f. delta. El valor beta en la teoría de Neyman-Pearson es: el efecto de la variable B. la probabilidad obtenida asociada a PSH1. la probabilidad de cometer un error tipo II cuando se acepta H0. La probabilidad previa, o a priori, de cometer un error tipo II. En el cálculo de la potencia de un experimento hay varios parámetros relacionados: las probabilidades alfa y beta, el tamaño del efecto y…: la varianza de error. la potencia. el tamaño de la muestra. todas las respuestas son correctas. Si se rechaza H0 p es la probabilidad de que esa decisión sea incorrecta: no, p es la probabilidad de que esa decisión sea correcta. no, p es la probabilidad asociada a un estadístico cuando H0 es cierta. en efecto, p nos proporciona la probabilidad de que H0 sea correcta o incorrecta. en efecto, p es la probabilidad de cometer un error tipo I. Cuando Cohen dice que un tamaño de efecto es pequeño, medio o grave admite que: hay tamaños de efecto con los que es más fácil cometer un error tipo I que con otros. no tienen ningún uso práctico. hay tamaños de efecto con los que es más fácil cometer un error tipo II que con otros. es una propuesta subjetiva, aunque han llegado a ser de uso general. Si tenemos una muestra muy grande y rechazamos una H0 cuando el tamaño del efecto es pequeño: cometemos un error tipo II. el experimento tiene poca potencia. eso no puede ocurrir. Si el tamaño del efecto es pequeño, no se rechaza H0. confundimos la significación estadística con la importancia práctica. Imagine que dos investigadores realizan el mismo experimento por separado y uno rechaza H0 y el otro no rechaza H0. Suponga que el control ha sido adecuado en los dos experimentos: en ambos experimentos pueden haberse obtenido tamaños de efectos iguales. eso no puede ocurrir nunca. depende de α. Si en ambos se usó la misma, la probabilidad de una réplica es 1-α. El enunciado de la pregunta se refiere, entonces, a algo muy improbable. algo está mal. Si se ha hecho todo adecuadamente, entonces debieran haberse aceptado o rechazado las H0 en los dos experimentos. en una prueba de significación de una hipótesis nula un valor p pequeño indica un efecto grande: sí es verdad. El tamaño del efecto solo depende de p. no es cierto. Depende también del tamaño de la muestra. no es cierto. A mayor valor p, mayor efecto. sí es cierto. A menor valor p, mayor efecto del tratamiento. Para el análisis de la potencia a posteriori: se usa la prueba de Newman-Keuls. solo hay análisis de potencia a priori. el efecto observado en un estudio se toma como efecto en la población, y se estima la probabilidad de rechazo de la H0. se determinan las probabilidades de los errores tipo I y tipo II, y el tamaño del efecto, y se calcula el tamaño de la muestra necesario. La diferencia entre la d de Cohen y la g de Hedges estriba en: no hay diferencias entre ambas. Son dos nombres distintos para la misma prueba. que la primera utiliza la desviación típica de la muestra y la segunda la estimación de la desviación típica en la población. que una es una prueba a priori y la otra a posteriori. que la primera pertenece a la familia d y la segunda a la familia r. Entre los factores que afectan a la potencia se encuentra: si se trata de un diseño correlacionado o no. todas las respuestas son correctas. si se realizan pruebas paramétricas o no paramétricas. si la hipótesis alternativa es direccional o no. Las pruebas estadísticas, teniendo en cuenta el error muestral, miden: la discrepancia entre un estadístico y un parámetro especifico de la H0. la probabilidad de cometer un error tipo I cuando se rechaza una H0. la probabilidad de que H0 sea falsa. si el parámetro es igual a, o distinto de, cero. En los diseños experimentales simples de grupos al azar la diferencia entre modelo fijo y modelo aleatorio: obliga a utilizar distinto término de error en un caso que en otro. se refiere a la representatividad de los sujetos. se refiere a la representatividad de los tratamientos. se refiere al comportamiento de los errores. en un diseño de grupos al azar con un único factor, modelo de efectos fijos, la variabilidad de las puntuaciones de cada grupo: es la variabilidad de los errores. depende de la variabilidad de los tratamientos. no depende de la variabilidad de los errores. depende de si hay interacción. ¿Recuerda qué era G-Power?. una prueba de homogeneidad de varianzas. una prueba de significación de la potencia estadística. el programa de ordenador de intervalos de confianza de Cumming para la inferencia a ojo. un programa de ordenador que calcula la potencia de los estudios experimentales. El muestreo que se lleva a cabo sobre los valores de la VI en un experimento de modelo fijo será: accidental. intencional. en 2 etapas. aleatorio. Por otra parte, en el modelo aleatorio, el mismo muestreo habrá de ser: accidental. intencional. en 2 etapas. aleatorio. Cuando realizamos un experimento en el que solo queremos generalizar los resultados a un conjunto concreto de valores de VD, utilizamos: un modelo fijo. un modelo aleatorio. las técnicas de muestreo adecuadas sobre la población seleccionada. ese caso nunca se da en la Psicología Experimental. Se caracteriza como diseño de modelo fijo: aquel en el que solo se quiere generalizar a un conjunto concreto de sujetos. al diseño en que no se desea generalizar a la muestra a la población de sujetos. aquel que contiene únicamente VI o de bloqueo fijas. al diseño cuya VD es fija. Se caracteriza como diseño de modelo aleatorio: al diseño cuya VD es aleatoria. al que contiene únicamente VI o de bloqueo al azar. al diseño en que se desea generalizar de la muestra a la población de sujetos. aquel en que solo se quiere generalizar a un conjunto concreto de sujetos. Una diferencia fundamental entre el modelo fijo y el aleatorio en un diseño simple es: la representatividad de los valores de la VI contenidos en el experimento respecto de todos los posibles valores de esa variable. el nivel de medición de la VI del experimento. el número de valores de la VI. la esperanza de la Media Cuadrática del error. La varianza de los tratamientos dentro de cada grupo es diferente de cero: en el modelo fijo. en el modelo aleatorio. cuando no hay efectos de los tratamientos. nunca. Cuando hablamos de un diseño de modelo fijo hablamos de: representatividad de la población. niveles de tratamiento. estrategia del diseño. muestreo de sujetos. El modelo fijo y el aleatorio en un diseño de un único factor difieren en: la representatividad de los valores de la VI contenidos en el experimento respecto de todos los posibles valores de esa variable. la esperanza de la Media Cuadrática de error (E(Mce)). el nivel de medición de la VI del experimento en comparación con el de la VD. el número de valores de la VI. La probabilidad marginal es: una probabilidad que podemos ignorar por ser muy pequeña. la probabilidad de un suceso sin considerar ningún otro. la probabilidad condicional. la probabilidad posterior. Se llama “probabilidad condicional” a la probabilidad de un evento…: independientemente de la probabilidad de cualquier otro. sin considerar la probabilidad de otro. condicionada a la independencia de los demás eventos. dado que otro ya ha ocurrido. La probabilidad de los datos condicional a que sea cierta la hipótesis alternativa, según la teoría de Neyman-Pearson es la de: rechazar una hipótesis nula verdadera. aceptar una hipótesis nula verdadera. rechazar una hipótesis nula falsa. aceptar una hipótesis nula falsa. En la teoría de Neyman-Pearson rechazar una hipótesis nula: equivale a considerarla falsa. no equivale a aceptar la alternativa. equivale a aceptar la hipótesis de investigación. no equivale a considerarla falsa. El concepto de nivel de confianza tiene tres significados. De los cuatro siguientes uno no es un significado correcto: el nivel de estándar convencional. el nivel de confianza exacto, determinado por el experimentador. la frecuencia relativa a largo plazo de los errores tipo I. la confianza subjetiva que se pone en la probabilidad asociada a una hipótesis nula. Entre las diferencias más notables entre las teorías de la inferencia de Fisher y Neyman-Pearson se encuentra: la existencia de un punto de corte precio para rechazar la hipótesis nula, propuesto por Fisher. la propuesta de una teoría epistémica de la inferencia propuesta por Neyman y Pearson. el concepto de población, asociado a la distribución muestral: muestras repetidas de distribuciones (N-P) frente a distribución teórica hipotética. todas son correctas. La diferencia fundamental entre los diseños experimentales y los pre experimentales escriba en que los experimentales: Es irrelevante cuando se asignan los tratamientos. Cada sujeto recibe solo un tratamiento, seleccionado al azar. La asignación de los participantes queda bajo control del experimentador. Los sujetos se consideran auto-seleccionados. En el diseño de réplicas conmutadas: Se utiliza el mismo tratamiento en cada grupo en momentos diferentes. Se altera el orden en el que se dan dos tratamientos en los dos grupos. Se utilizan dos factores, uno en cada grupo, en momentos diferentes. Se utilizan dos tratamientos, uno en cada grupo en momentos diferentes. En uno de los diseños siguientes se asignan dos tratamientos, indique cual: De cruce. Pre-test post-test. Solomon. De réplicas comunitarias. ¿Se utilizan en algunas ocasiones varios pre-test antes de asignar tratamientos?. Si. En los denominados, pre-test repetidos. No. Esto hace que los diseños sean difíciles de analizar. Si. En los denominados pre-test simulado. No. Impide estudiar el efecto de la maduración. En el experimento de Foa et. Al. Entrevistado en prácticas había cuatro grupos que recibían los tratamientos siguientes: Inoculación al estrés, exposición prolongada, consejo con apoyo y lista de espera. El grupo de “consejo con apoyo”, puede considerarse un grupo control especial, ¿de que tipo?. placebo. Grupo atendido. Expectativas. Remisión espontánea. El análisis de ANCOVA , se usa entre otros en los diseños: Jerárquicos. De series temporales. Todas las respuestas son correctas. Con pre-test. Una medición de la variable de respuesta ( o dependiente) previa a la administración de tratamiento, constituye: Un residuo de regresión. Una variable de bloqueo. Un factor o variable independiente. Un pre-test. Algunos índices del tamaño de efecto se interpretan como distancia estandarizada y otros no. De los siguientes, uno no se interpreta así, ¿Cuál?. g de Hedges. f. Eta cuadrado. D de cohen. Algunos índices de tamaño del efecto se interpretan como proporciones de varianza explicada y otros no. De entre los siguientes, uno no se interpreta así, ¿Cuál?. r Rosenthal. Omega cuadrado. D cohen. F. ¿Puede ocurrir alguna vez que un factor tenga un efecto muy pequeño y se rechace la hipótesis nula?. No, porque solo se rechaza la hipótesis nula cuando hay efectos significativos. Si, cuando el tamaño de la muestra es muy grande, la potencia es muy grande. No, porque la potencia de un factor no depende del tamaño de la muestra, sino del número de niveles que tenga. Si, cuando el tamaño de la muestra es muy grande, la probabilidad de un error tipo I es muy grande. El valor final de una prueba T se compara con el valor de tablas que, cuando la HO es falsa, ese valor de tablas es: t separada. t promediada. t no central. t. La regla de Cohen que sugiere que un tamaño del efecto pequeño cuando sea 0,2 o menor, medio cuando esté alrededor de 0,5 y grande cuando sea de 0,9 o mayor, se aplica con cautela: A todos los índices del tamaño del efecto. A la distancia estandarizada entre medias. A los índices basados en correlaciones. A todos los índices de distancias entre medias. Cohen analizó un conjunto de estudios de psicología social y patológica a lo largo de los años y encontró que: Como promedio, la probabilidad de H1 era proximadamente igual a 0,5. Como promedio, la probabilidad de detectar un efecto significativo condicional a que H1 fuese verdadero era aproximadamente igual a 0,5. Como promedio, la probabilidad de una HO era aproximadamente igual a 0,5. Como promedio la p (D/HO) era aproximadamente igual a 0,5. Por definición un error de tipo II sólo se puede cometer cuando: Usamos estadística Bayesiana. La hipótesis nula es verdadera. La hipótesis nula es falsa. La probabilidad de los datos condicional a la hipótesis nula es muy baja. P (D/HO) es muy distinta de p ( Ho/D) sobre todo cuando: Eso es falso. Son exactamente iguales. Eso es falso. Siempre son prácticamente iguale, lo que permite rechazar Ho si p es baja. Las probabilidades previas de HO y H1 son muy distintas. Las probabilidades posteriores de Ho y H1 son muy distintas. p (D/HO) = probabilidad de los datos suponiendo la hipótesis nula… Entonces, usando la estadística Bayesiana básica para conocer p( HO/D) debemos conocer también: p (D/HA) = probabilidad de los datos suponiendo la hipótesis alternativa. p (HA)= probabilidad de la hipótesis alternativa antes de obtener datos. p (HO) = probabilidad de la hipótesis nula antes de obtener los datos. Todas las opciones son correctas. SI p < 0,05 (1-p) es la probabilidad de H1 sea correcta, dados los datos: es decir la probabilidad de que H1 sea correcta es mayor que el 95 %. Evidentemente, si una es del 5 % la otra será del 95%. Eso depende de si se comete un error tipo I. Si no se comete entonces es cierto. Falso en toda falsedad, p no es p HO/D). Por lo que (1-P) no es p(HI/D). Este depende de si se comete el error tipo II. Si no se comete, entonces es cierto. Si usted calcula los efectos de los tratamientos, los suma y los multiplica por el tamaño de la muestra, obtiene la: SCY. SCE. SC total. SCA. En la gráfica de caja y bigotes, se considera “bala pérdida” o “outlier” a la puntuación: Que supera una vez y media el valor de la mediana. Que supera una vez y media el valor promedio de los cuartos. Que supera algún límite empírico (bigote) superior o inferior. Qué supera algún límite teórico, superior o inferior. Los grados de libertad de las pruebas de comparaciones múltiples entre medias cuando se sostiene el supuesto de homogeneidad de varianzas en un diseño de grupos, son: Los correspondientes a la MCERROR. Los calculados a partir de la fórmula de Welch. Los correspondientes a la MC tratamientos (a). Los calculados a partir de la fórmula de Brown- Forsythe. ¿Recuerda cuántas interacciones entre las variables se podían calcular en los diseños jerárquicos?. Depende del modelo (fijo, aleatorio o mixto) del diseño. Todas excepto los potencialmente existentes entre las variables anidadas y aquellas que se aniden. Depende del tamaño de la tabla. Todas las posibles entre tratamientos, ninguna entre bloques. PREGUNTA IMPORTANTE: Hemos olvidado como se calculan las pruebas de contraste de diferencia de medias y en los libros de estadística un genio ha borrado las fórmulas. Pero sabemos calcular intervalos de confianza. Mediante ellos sabemos si dos medias son iguales o distintas, determinando: Si la diferencia absoluta entre los parámetros es mayor que alfa. El grado de solapamiento entre los bigotes de las gráficas de caja a un determinado nivel de confianza. Si el valor de la HO (usualmente igual a cero) se encuentra dentro o fuera del intervalo de confianza de la diferencia de medias. Si la diferencia entre las variables de los parámetros es mayor que alfa. La diferencia entre los diseños inter- intra escriba en que los segundos: Hay una variable de tratamiento y otra de bloqueo. El error de la parte intra es un error intra. La variable intra es la entrada de filas. El error de la parte inter es una interacción. Si usted calcula la suma de cuadrados de error de cada grupo en un diseño de grupos al azar, y las suma, obtiene la: SCA. SCE. SC total. SCY. En un análisis de tendencia de un diseño experimental de cuatro grupos al azar, la suma de cuadrados cuadrática: No se suele calcular porque la línea es significativamente casi siempre. Estima la variabilidad no lineal. Tiene un grado de libertad. Tiene dos grados de libertad. En el análisis de tendencias cuando realizamos únicamente los contrastes lineales y cuadráticos ¿Cuántos grados de libertad se usan para ellos?. (p-2). (n-2). dos. p (n-2). En un intervalo de confianza de la diferencia entre dos medias: Se utiliza el solapamiento de los intervalos de ambas medias. Utilizamos para determinarlo el error típico de la diferencia entre medias. Se calcula la correlación entre ambas medias. Siempre se encuentra el parámetro. Un tipo de variable muy importantes porque definen un tipo de diseños clásico son: Los errores. Las de asignación o atributivas. Las dependientes. Los factores. Una de las cuatro técnicas estadísticas siguientes es muy buena para la acumulación de evidencias de distintos experimentos ¿Cuál?. La estadística exploratoria. El análisis de regresión lineal múltiple. Intervalos de confianza. Las pruebas robustas. En un diseño jerárquico ABC(B). No se puede calcular la interacción AB. No se puede calcular la interacción ABC. No se puede calcular la interacción AC. Se pueden calcular las interacciones AB y BC. El supuesto de aditividad se viola en los diseños experimentales: Cuando los tratamientos son una variable aleatoria. Cuando existe interacción entre alfa y error. Siempre que las varianzas sean heterogéneas. Cuando los errores son una variable fija. En el experimento de Ellsworth et al. Se encuentra que el valor F para la variable “mirada” es igual a 43.595 con 1 y 80 g.l y una probabilidad asociada menor que 0,00001. Por eso puede afirmarse que: Todas las opciones son correctas. El efecto de la variable “mirada” es grande. La hipótesis experimental (la mirada es un estímulo para el escape) queda confirmada. Es un estadístico F muy grande dada HO. En el experimento de Ellsworth et al. Aparece una gráfica que muestra la posible interacción de segundo orden (medias de mirada x experimentador x sujeto). Tras la simple inspección visual, puede afirmarse que: Existe interacción de segundo orden. En la condición “mirada” cuando el experimentador es una mujer, los tiempos de las condiciones son claramente distintos. Sin pruebas de significación no puede concluirse absolutamente nada. La prueba de la HO es imprescindible. Esa no es una gráfica de interacción de segundo orden, sino de dos gráficas de interacción de primer orden. La validez interna mejora: Si no se realiza un ANCOVA. Si la validez discriminante es alta. En los diseños experimentales de laboratorio. Cuanto más se replique la investigación. La validez externa: Si la validez discriminante es alta. Cuánto más se replique la investigación. En diseños experimentales de laboratorio. Si no se realiza un ANOVA. |