option
Cuestiones
ayuda
daypo
buscar.php

XII w: 1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
XII w: 1

Descripción:
Antiguos2

Fecha de Creación: 2017/12/16

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

El coeficiente de correlación de Pearson, al cuadrado: Nos indica el error cometido al hacer los pronósticos. Es el error típico de estimación. Nos indica la proporción de azar que afecta a los pronósticos. Es el coeficiente de determinación. Es directamente proporcional al error de estimación.

En estadística, el error de Tipo II es: La probabilidad de rechazar la hipótesis nula siendo verdadera. La probabilidad de mantener la hipótesis nula siendo falsa. La probabilidad de rechazar la hipótesis nula siendo falsa. El error que se comete siempre que aceptamos una hipótesis nula. El error que se comete debido a las deficiencias del diseño, o error experimental.

¿Qué se entiende por modelo equilibrado en el análisis de varianza?: Cuando los grupos que se comparan tienen el mismo número de elementos o unidades experimentales. Cuando el número de factores coincide con el de niveles. Cuando uno de los factores es de efectos fijos y el otro de efectos aleatorios. Cuando se ha controlado al máximo el error experimental. Cuando las varianzas son homogéneas.

¿Qué se entiende por estimador insesgado?: Cuando utiliza toda la información muestral posible para estimar un parámetro. Cuando su esperanza matemática coincide con el valor del parámetro poblacional que estima. Cuando las estimaciones que proporciona se van aproximando cada vez más al valor del parámetro poblacional a medida que aumenta el tamaño de la muestra. Cuando tiene una varianza mínima. Cuando está libre de error experimental.

La potencia de una prueba o contraste es: La probabilidad de detectar una hipótesis nula falsa. La probabilidad de mantener una hipótesis nula verdadera. Sinónimo de nivel de confianza. Sinónimo de nivel de riesgo. La probabilidad de aceptar una hipótesis nula falsa.

El análisis de covarianza o ANCOVA: Se utiliza para controlar, estadísticamente, parte del error experimental. Es una técnica que estudia la covariación entre dos variables. Es una técnica alternativa al análisis de varianza para cuando no se cumplen los supuestos de aplicación de ésta. Se aplica cuando no tenemos datos suficientes para realizar un análisis de varianza. Presenta sus resultados en términos de correlaciones.

Si en un experimento consideramos el número de hermanos de un sujeto, como variable independiente, ésta será: Continua. Discreta. Extraña. Sistemática. Organísmica.

¿Cuál de las siguientes es una propiedad fundamental de la media aritmética?: La suma de las diferencias al cuadrado de las puntuaciones respecto a su media vale 0. La suma de las diferencias de las puntuaciones respecto a su media vale 1. La suma de las diferencias de las puntuaciones respecto a su media vale 0. La suma de las diferencias al cuadrado de las puntuaciones respecto a su media es mayor que respecto a cualquier otro valor distinto de la media. La suma de las diferencias al cuadrado de las puntuaciones respecto a su media es igual que respecto a cualquier otro valor distinto de la media.

En los contrastes de hipótesis estadísticas: Toda hipótesis nula debe ir acompañada de una hipótesis alternativa. Para cada hipótesis nula existe una única hipótesis alternativa. El rechazar la hipótesis nula implica, también, rechazar la hipótesis alternativa. Si rechazamos una hipótesis nula, tenemos certeza total de que el hecho probado no se cumple. La hipótesis nula es la que nunca se cumple.

Las escalas centiles: Son escalas ordinales. Son escalas de intervalos. Pueden tomar valores negativos. Tienen unidad de medida constante. Son escalas normalizadas.

En el contraste de hipótesis estadísticas: Una hipótesis nula que ha sido rechazada en un contraste unilateral, a un determinado nivel de confianza, puede no ser rechazada, a ese mismo nivel de confianza, si el contraste es bilateral. Una hipótesis nula que ha sido rechazada en un contraste unilateral, a un determinado nivel de confianza, no puede ser rechazada a ese mismo nivel de confianza, si el contraste es bilateral. Una hipótesis nula que ha sido no rechazada, a un determinado nivel de confianza, en un contraste bilateral, será también no rechazada, si el contraste es unilateral. A un determinado nivel de confianza, es más fácil rechazar la hipótesis nula en el contraste bilateral que en el unilateral. Cuanto mayor es el nivel de confianza al que trabajemos, mayor será la probabilidad de rechazar la hipótesis nula.

En estadística inferencial decimos que un estimador es insesgado cuando: Tiene una varianza pequeña. Utiliza, para la estimación, toda la información disponible en la muestra. Es consistente. La media de su distribución muestral coincide con el parámetro que tratamos de estimar. No podemos fiarnos de él.

La prueba Chi cuadrado de bondad de ajuste: Sólo es aplicable cuando el nivel de medida de los datos es de intervalo. Sirve para probar si los resultados muestrales son compatibles con una hipotética distribución poblacional. Se utiliza cuando se quiere probar la homogeneidad de las varianzas. Sólo es calculable cuando se conocen los parámetros poblacionales. No es una prueba de bondad de ajuste.

Para la estimación puntual de un parámetro poblacional: Debemos utilizar el estimador insesgado de dicho parámetro. Nos basamos en el intervalo de estimación. Conocemos la probabilidad de error de la estimación. Debemos calcular el error típico de estimación. Debemos saber el nivel de confianza al que trabajamos.

Si en un contraste de hipótesis estadísticas, tenemos más de dos muestras independientes una posible prueba a aplicar es: La prueba U de Mann-Whitney. El test de signos. La prueba de Wilcoxon. El test de Friedman. El test de Kruskal-Wallis.

En estadística inferencial la probabilidad de mantener una hipótesis nula que es cierta, es: El nivel de riesgo al que trabajamos en el contraste de hipótesis. El nivel de confianza al que trabajamos en el contraste de hipótesis. La potencia de contraste. El punto que señala la frontera entre la región de aceptación y la de rechazo. Una probabilidad con la que nunca se trabaja.

En estadística descriptiva, el coeficiente de variación: Es un término sinónimo a coeficiente de correlación. Mide la variación conjunta de dos variables. Se utiliza para saber si una varianza es significativa. Se puede utilizar para comparar variabilidades muestrales de características de distinta naturaleza. Es un coeficiente de correlación con variables categóricas.

Tenemos un conjunto de puntuaciones que se distribuyen normalmente, con media igual a 20 y desviación típica igual a 4. Sabemos que la puntuación de un sujeto que pertenece a dicho conjunto es de 20. Esto nos permite afirmar: Que su puntuación coincide con el 50% de las puntuaciones de su grupo. Que su puntuación supera el 50% de las puntuaciones de su grupo. Que no tenemos datos suficientes para conocer la posición de su esta puntuación en el grupo. Que todos los sujetos obtienen la misma puntuación. No es posible obtener una puntuación que coincida exactamente con la media, dada la variabilidad.

Cuando queremos realizar la representación gráfica de variables cualitativas, usamos un: Diagrama de sectores o pictograma. Histograma. Polígono de frecuencias. Polígono de barras. Diagrama de tallos y hojas.

Si tenemos una ecuación de regresión lineal Y = 2 - 2X que nos pronostica el consumo de alcohol en función de las puntuaciones de un test, podemos afirmar que: A mayor puntuación en el test, mayor consumo de alcohol. No existe relación entre la puntuación del test y el consumo de alcohol. La correlación de Pearson entre la puntuación del test y el consumo de alcohol es igual a cero. A mayor puntuación en el test, menor consumo de alcohol. La correlación lineal entre la puntuación del test y el consumo de alcohol es positiva.

Tenemos un conjunto de puntuaciones X, cuya varianza es igual a 8. Si a cada una se le multiplica por 2 y se le suma 4, se obtienen unas nuevas puntuaciones Y = 4 + 2X. ¿Cuál es la varianza de las nuevas puntuaciones Y?: 36. 34. 32. 20. 16.

La distribución muestral de la media es normal: Cuando, independientemente del tamaño de la muestra, es normal la distribución de la variable estudiada. Aunque la distribución de la variable estudiada no sea normal, si la muestra es pequeña. Siempre, independientemente de la distribución de la variable estudiada y del tamaño de la muestra. La distribución muestral de la media no es normal, sino que se distribuye según una binomial. La distribución muestral de la media es discreta.

Si la varianza común entre dos variables es del 49%, ¿cuál es la correlación entre ambas?: +0,98. +0,49. –0,49. –0,51. –0,70.

Si P (z<-0,5) = 0,3085 y P (z<0,5) = 0,6915, ¿qué porcentaje de una población con una distribución normal puede esperarse que obtenga puntuaciones comprendidas entre z = -0,5 y z = 0,5?: 1,0000. 0,6915. 0,5000. 0,3830. 0,3085.

En los diseños de medidas repetidas, la interacción de los sujetos con las ocasiones de medida puede dar lugar a que la prueba F resulte negativamente sesgada. ¿Cuál de las siguientes posibilidades puede evitar el problema?: Incrementar el tamaño de la muestra. Incrementar los niveles de la variable independiente. Reducir el nivel de significación. Transformar las puntuaciones. Espaciar la presentación de los tratamientos.

Una puntuación típica igual a 2 indica que la puntuación directa correspondiente: Se separa de la media dos unidades. Se separa de la media dos veces el valor de la desviación típica. Es el doble de la media. Se separa de la media dos unidades en valor absoluto. Es menor que la puntuación media.

La unidad de medida en que se expresa el coeficiente de variación es: La misma en la que están expresados los datos. La de los datos al cuadrado. Aquella en la que viene expresada la desviación típica. Aquella en la que viene expresada la media y la desviación típica. En ninguna.

El error de Tipo I es: La probabilidad de rechazar una hipótesis nula falsa. La probabilidad de rechazar una hipótesis nula verdadera. La probabilidad de aceptar una hipótesis nula falsa. La probabilidad de aceptar una hipótesis nula verdadera. El coeficiente confidencial.

La prueba de bondad de ajuste es un contraste estadístico acerca de: La distribución de una variable aleatoria en la población. La igualdad de dos variables aleatorias en la población. La igualdad de dos proporciones en la población. La pendiente de la función ajustada en la población. La igualdad de k medias en la población.

Si en un contraste de hipótesis estadísticas disponemos de más de dos muestras pequeñas e independientes, un posible estadístico de contraste a aplicar es: El test de Friedman. La prueba de Wilcoxon. El test de signos. La U de Mann-Whitney. El test de Kruskal-Wallis.

Si la relación entre dos variables es lineal y se expresa como Y = A + B*X, entonces: A es una constante que indica la pendiente de la recta. B es la ordenada en el origen. B es la pendiente de la recta. Y es la variable que indica la pendiente de la recta. X es la variable predictora, Y la variable criterio, y A y B son las constantes en el origen.

La probabilidad del error Tipo II (beta) y la potencia de un contraste: Mantienen una relación lineal directa. Sólo dependen de la magnitud del efecto o grado de falsedad de la hipótesis nula. Dependen del nivel de significación fijado por el investigador y del tamaño de la muestra, pero es independiente de la magnitud del efecto. Mantienen una relación lineal inversa: de hecho la potencia es 1 menos probabilidad del error de Tipo II. Son completamente independientes.

Aunque el análisis de varianza es una prueba robusta, cuando se incumple el supuesto de normalidad de las puntuaciones: Debe abandonarse la idea de utilizar esta prueba para analizar los datos. Deben transformarse los datos (ejemplo, Y’=logY), antes de proceder a su análisis. Deben suprimirse los valores extremos (los que están por debajo del cuartil primero y por encima del cuartil tercero) para después proceder al análisis. Si la variable independiente es nominal dicotómica, o puede dicotomizarse, puede utilizarse el ANOVA pero, en este caso, F se distribuye como Chi cuadrado. Si la variable independiente es nominal dicotómica, o puede dicotomizarse, puede utilizarse el ANOVA pero, en este caso, F se distribuye según la distribución de Poison.

Una puntuación típica indica: El valor promedio de una distribución de frecuencias. La dispersión de una distribución. La probabilidad de cometer un error en una predicción probabilística. El número de desviaciones típicas que una observación se separa de la media de su grupo. Una propiedad de la distribución.

Fuera del intervalo comprendido entre la media y más/menos dos desviaciones típicas se encuentra, como máximo el 25% de las observaciones: Sólo si la distribución de frecuencias es binomial. Sólo si la distribución de frecuencias es simétrica. Sólo si la distribución de frecuencias es normal. Sólo si la distribución de frecuencias es multinominal. Sea cual sea la forma de la distribución de frecuencias.

El error típico de un estimador es: La varianza de la distribución muestral del estimador. La desviación típica de la distribución de la variable en la población. La desviación típica de la distribución muestral del estimador. La raíz cuadrada del estimador. La desviación media de la variable en la población.

El modelo estadístico que impone como condición que las pendientes de las rectas de regresión de k subpoblaciones sean iguales entre sí, es el análisis de: Varianza de dos factores con medidas independientes. Varianza de dos factores, diseño mixto, uno con medidas repetidas y otro con medidas independientes. Varianza con un criterio de clasificación y efectos aleatorios. Varianza sobre puntuaciones corregidas mediante curva normal. Covarianza con un criterio de clasificación y efectos fijos.

Se considera eficiente un estimador cuando: Agota toda la información que existe en la muestra en orden a estimar un parámetro. Su valor esperado coincide con el valor del parámetro de la población que estima. Su varianza muestral es mínima. Su valor esperado coincide con el valor del parámetro poblacional que estima si el tamaño de la muestra tiende a infinito. El valor esperado de la varianza del estimador coincide con el parámetro.

Si el coeficiente de correlación múltiple entre una variable criterio y k variables predictoras es nulo, entonces podemos afirmar que: La variabilidad de la variable criterio está asociada en su totalidad a la variabilidad de las k variables predictoras. No cometemos ningún error al pronosticar mediante la ecuación de regresión múltiple. La suma de los cuadrados residual o error es nula. La variable criterio no tiene variabilidad común con las k variables predictoras. Las k variables predictoras no están relacionadas linealmente entre sí.

Si el coeficiente de correlación múltiple entre una variable criterio y k variables predictoras es nulo, entonces podemos afirmar que : La variabilidad de la variable criterio está asociada en su totalidad a la variabilidad de las k variables predictoras. No cometemos ningún error al pronosticar mediante la ecuación de regresión múltiple. La suma de los cuadrados residual o error es nula. La variable criterio no tiene variabilidad común con las k variables predictoras. Las k variables predictoras no están relacionadas linealmente entre sí.

En la formulación de la hipótesis “si X, entonces Y”: X representa a la variable dependiente. Y representa a la variable independiente. X e Y son las variables dependientes. X e Y son las variables independientes. Y representa a la variable dependiente.

Las siguientes hipótesis nulas: H0: η1 = η2 y H0: η1 ≥ η2, expresan: Un contraste unilateral izquierdo y un contraste bilateral, respectivamente. Un contraste unilateral derecho y un contraste unilateral derecho, respectivamente. Un contraste bilateral y un contraste unilateral derecho, respectivamente. Un contraste bilateral y un contraste unilateral izquierdo, respectivamente. Un contraste unilateral izquierdo y un contraste unilateral derecho, respectivamente.

Cuando se aplica el estadístico CHI CUADRADO de Pearson para la independencia de variables, la hipótesis alternativa, de una forma general, será: En la muestra, la variable dependiente observada X, no es independiente de la variable dependiente observada Y. En la población, la variable dependiente observada X, es independiente de la variable dependiente observada Y. En la muestra, la variable independiente aplicada X, es independiente de la variable dependiente observada Y. En la población, la variable dependiente observada X, no es independiente de la variable independiente aplicada Y. En la población, la variable dependiente observada X, no es independiente de la variable dependiente observada Y.

¿Cuál de las siguientes frases es errónea si nos referimos a las condiciones que deben cumplir los datos para aplicar como estadístico de contraste un T de Student para dos muestras independientes?: Variable independiente medida a nivel de intervalo. Poblaciones normales no mayor que 29 sujetos en cada muestra. Supuesto de homocedasticidad (si las varianzas son desconocidas) o tamaños iguales de ambas muestras si no se da este supuesto de homocedasticidad. Variable dependiente medida a nivel de intervalo. Las n1 + n2 observaciones son independientes y aleatorias.

Entre las características que indican la bondad de los estimadores se encuentran: La suficiencia y el sesgo. La suficiencia y la eficiencia. El sesgo y la eficiencia. La inconsistencia y la carencia de sesgo. La representatividad y la carencia de sesgo.

Señala la afirmación correcta entre las cinco siguientes: Una variable debe ser un subconjunto representativo. Un estadístico es un valor numérico que describe una característica de una población. Una muestra es un conjunto de elementos de una población. Un parámetro es un valor numérico que describe una característica de una muestra. Lo más característico de una población es que todos los elementos son identificables.

Se tiente un variable Xi, con un número de personas en la muestra igual a n, y se genera una nueva variable Yi a partir de los valores de Xi, siendo: Yi=2Xi+3, se conoce la media de X (que es X ). ¿Cuánto vale la media de la variable Y ?. Y = 2 X. Y = 2^n X. Y = 2 X + 3. Y = X + 3. Y = 2^n X +3^n.

Se tiene una variable Xi, con un número de personas en la muestra igual a n. ¿Qué es el primer cuartil (Q1) de la variable Xi?: Es la suma de los valores de Xi dividida entre 4: Q1 = Σ^n X/ 4. Es la cuarta parte de n: Q1 =n/4. Es la suma de los valores de los n primeros naturales dividida entre 4: Q1 = 1+2+...+n-1+n / 4. Es el máximo valor de la variable Xi dividido entre 4: Q1 =Máx(X) / 4. Es el valor de Xi que deja por debajo a la cuarta parte de la muestra.

Se tiene una variable Xi, con un número de personas en la muestra igual a n. ¿Cuánto vale la suma de las puntuaciones diferenciales de la variable Xi [Σ^n (Xi - X )]?: Σ^n (Xi - X) = n. Σ^n (Xi - X) = X. Σ^n (Xi - X) = nX. Σ^n (Xi - X) = 0. Σ^n (Xi - X) = Σ^n (Xi).

Se tiene una variable Xi, con un número de personas en la muestra igual a n, se tipifica cada valor de Xi en su correspondiente valor zi . ¿Cuánto vale la media de las puntuaciones típicas, z ?: z = 1. z = n. z = 0. z = X. z = Sx.

Denunciar Test