option
Cuestiones
ayuda
daypo
buscar.php

Mem

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Mem

Descripción:
Tipo test

Fecha de Creación: 2024/01/15

Categoría: Otros

Número Preguntas: 76

Valoración:(1)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

En un modelo de regresión lineal múltiple, si el contraste de significación global es aceptable indica que: Todas las variables explicativas son influyentes, y por lo tanto, deben considerarse en el modelo. Ninguna variable explicativa es influyente, y por lo tanto, el modelo es rechazado. Podemos eliminar alguna variable explicativa pero el modelo es válido.

En el modelo de regresión LOGIT binario para que el modelo sea asumible: El R2 debe ser mayor que 0,5. La hipótesis nula del contraste global debe ser rechazada. Las variables explicativas deben ser cuantitativas.

Un covarianza negativa: Nos indica que va a haber una correlación lineal negativa entre las variables. No puede darse, siempre tiene que ser positiva. Nos indica que las variables están poco correlacionadas.

A la vista de la siguiente gráfica correspondiente a una análisis factorial, indique cuál de las siguientes afirmaciones es correcta. la variable %de ocupación finde semana, tiene una correlación mayor con factor 1 que la variable nº de plazas. La variable nº de plazas tiene una correlación próxima a 0 con la variable número de establecimientos hosteleros. La variable % ocupación fin de semana tiene mayor correlación con factor 2 de todas las variables.

En un análisis de componentes principales ¿Cual de las siguientes afirmaciones es cierta?. en el ACP los componentes se obtienen como combinación lineal de las variables. En el ACP las variables se obtienen como combinación lineal de las componentes principales. Para que el ACP sea aplicable es necesario que las variables observadas estén incorreladas.

En relación a esta tabla, donde representa la comunidad y especificidad en un análisis factorial con 6 variables cuantitativas, indica la respuesta correcta: La comunidad de la variable nº de habitaciones es superior que la comunidad de la variable personal empleados. La especificidad de la variable % de ocupación fin de semana es mayor que la especifilidad de la variable nº de establecimientos hosteleros. La variable nº de plazas es la más comunalidad tiene todas las que participa en el análisis factorial.

En relación a esta tabla donde se representa el programa de aglomeración en un análisis clúster de 7 provincias andaluzas, indica la respuesta: La provincia 4 participa en la etapa 1,3 y 6. La provincia 3 solo participa en la etapa 4. La provincia 4 y 7 son las más diferentes.

A la vista de esta matriz de distancias obtenidas a partir de un análisis clúster con 3 provincias andaluzas, utilizando el vecino más cercano, indica la respuesta correcta: En la siguiente etapa se fusionan Cádiz y Huelva a distancia 3. En la última etapa se fusiona Cadiz y Huelva con Sevilla a distancia 3. En la siguiente etapa se fusionan Cadiz con Sevilla a distancia 3.

En relación a esta salida del software Statgraphics, donde se representa la tabla de clasificación de un análisis discriminante con 3 grupos(interior, occidental y oriental) de 7 provincias andaluzas, indica la respuesta: Todas las provincias están bien clasificadas. Las provincias de interior y orientales están bien clasificadas. El 100% de las provincias occidentales están bien clasificadas.

Sean X1, X2 y X3 las tres variables que aparecen representadas. SI las tres variables son centradas, entonces si r(Xi, Xj) representa el coeficiente de correlación lineal entre las variables Xi y Xj, entonces: r(X1, X3)<0. r(x1,x3)>0. r(x1,x2)>0.

Considere la siguiente salida para una regresión lineal múltiple. El p-Valor 0.0000 indica que todas las variables independientes son significativamente influyentes en el modelo. El p- Valor 0.0000 indica que ninguna de las variables independientes es significativamente influyente en el modelo. El p-Valor 0.0000 indica que hay al menos una variable independiente que es influyente en el modelo.

A partir de la siguiente salida correspondiente a un análisis de regresión binaria, señalar cuál de las siguientes afirmaciones es correcta: El modelo es adecuado ya que todos los coeficientes serían distintos de cero. El modelo es adecuado pero deberemos estudiar una a una la influencia de cada variable. El modelo no es adecuado.

Consideremos un análisis factorial en el que inicialmente hemos extraído 2 factores. Si decidimos añadir un tercer factor. Cambian todos los pesos factoriales. Los pesos de los dos primeros factores no cambian. Cambian los pesos de los dos primeros factores.

A la vista de la tabla de correspondiente a un modelo de regresión lineal múltiple, cuál de las siguientes afirmaciones es cierta: El 69,6821% de la variabilidad de la variable respuesta esta explicada por el modelo. El 84,8411% de la variabilidad de la variable respuesta esta explicada por los residuos. El 84,8411% de la variabilidad de la variable respuesta esta explicada por el modelo.

En un análisis de componentes principales ¿cuál de las siguientes afirmaciones es cierta?. En el ACP las variables se obtienen como combinación lineal de las componentes `principales. En el ACP las componentes se obtienen como combinación lineal de las variables. Para que el ACP sea aplicable es necesario que las variables observadas estén incorreladas.

Consideremos que disponemos de 3 poblaciones P1, P2 y P3 sobre cuyos individuos se han medido a 3 variables X1, X2 y X3. Queremos obtener un modelo de análisis discriminante. El número de funciones discriminantes que necesitaremos es: 1. 2. 3.

En el modelo logit binario. Bj indica lo que incrementa la variables respuesta cuando xj aumenta una unidad. Indica lo que incrementa la variable respuesta cuando Xj aumenta una unidad. El signo de Bj nos indica si un aumento de la variable xj produce un aumento o un decrecimiento de la probabilidad de que la variable tome el valor 1.

Un análisis factorial será tanto más adecuado. Cuanto más correlacionadas estén las variables originales. Cuanto menos correlacionadas estén las variables originales. Cuanto menos correlacionadas estén los factores.

En una representación gráfica de variables estandarizadas , indique cuál de las siguientes afirmaciones es verdadera: Cuanto mayor sea el ángulo que formen en el mismo cuadrante, mayor será la correlación entre las variables. Si las variables son ortogonales, entonces están incorreladas. Si coinciden gráficamente ambas variables, la correlación es exactamente igual a 0.

La diferencia fundamental entre un análisis de componentes principales y un análisis factorial es: El análisis de componentes principales trabaja con la matriz de covarianzas y el análisis factorial lo hace con la matriz de correlaciones. El modelo del análisis de componentes principales expresa las componentes en función de las variables y el del análisis factorial expresa las variables en función de los factores. Que el análisis factorial trabaja con las variables originales tipificadas.

En un modelo de regresión múltiple,. El signo del coeficiente de determinación nos indica si la relación es directa o inversa. El coeficiente de determinación nos informa sobre el grado de correlación de las variables explicativas y la variable respuesta. El coeficiente de determinación nos indica si el modelo es aceptable o no.

En un modelo de regresión lineal múltiple, si el contraste de significación global es aceptado indica que. Todas las variables explicativas son influyentes, por lo tanto, deben considerarse en el modelo. Podemos eliminar alguna variable explicativa pero el modelo es válido. Ninguna variable explicativa es influyente, por lo tanto, el modelo debe ser rechazado.

En un análisis factorial, la varianza de cada factor es: Igual a la raíz cuadrada del autovalor correspondiente. Es siempre 1. Igual al autovalor correspondiente.

Consideremos un análisis discriminante con 2 poblaciones cuyos centroides son M1 Y M2, respectivamente. Si F es la función discriminante y w un individuo a clasificar. Indique cuál es cierta. Si F(w) > F(M2) entonces el individuo w queda asignado a la población 2. Nos falta información para saber a qué poblaciones quedará asignado. Di F(w)<F(m1) entonces el individuo w queda asignado a la población 1.

Si en un análisis discriminante con 2 poblaciones la función discriminante tiene término independiente. Las variables no están estandarizadas. La función discriminante va a dar valores negativos para uno de los centroides. La función discriminante va a dar valores negativos para los dos centroides.

En un modelo de regresión lineal múltiple, el estadístico R-cuadrado ajustado. Se utiliza para comparar modelos con diferente número de variables independientes. Coincide con el valor del coeficiente de determinación. Coincide con el cuadrado del coeficiente de correlación.

Consideremos una matriz de datos centrados(media= 0) multivariantes con 32 individuos. Si la variable Xj tiene módulo 4, entonces su varianza será: 0,25. 0,5. 2.

En el modelo de regresión múltiple. Los residuos tiene que ser cero. Los residuos tienen que tener media cero. Los residuos tiene que tener varianza cero.

En un análisis logit una variable con oda-ratio negativa indica: Que P(Y=1) disminuye al incrementar una unidad el valor de la variable. No puede ser negativa. Que P(Y=1) aumenta al incrementar una unidad el valor de la variable.

En un análisis cluster el método de las medias consiste en: Utilizar como distancia la distancia entre las medias de ambos grupos. Utilizar como distancia la medias de todas las posibles distancias entre los individuos de uno y otro grupo. Utilizar como distancia la distancia entre los vectores de medias de ambos grupos.

En un modelo de regresión múltiple,. El signo de coeficiente de determinación nos indica si la relación es directa o inversa. El coeficiente de determinación nos informa sobre el grado de correlación de las variables explicativas y la variable respuesta. El coeficiente de determinación nos indica si el modelo es aceptable o no.

En el modelo de regresión lineal múltiple el terminoU (perturbación o error aleatorio). Tiene que tener varianza igual a cero. Recoge el efecto del conjunto de variables explicativas sobre la variable explicada. Recoge el efecto de factores que no han sido considerados en el modelo.

En un modelo de regresión lineal múltiple podemos optar entre introducir como variables explicativas el total de variables disponibles o hacerlo mediante un proceso de selección paso a paso(hacia delante o hacia atrás). Indicar cuál de las siguientes afirmaciones es cierta: La selección paso a paso es preferible porque, aunque se pierda la información de algunas variables que no utilizamos, esta no es muy relevante. La introducción en el modelo de todas las variables disponibles es preferible porque tendremos mayor información para poder predecir. La selección paso hacia delante o hacia atrás son equivalentes.

Para predecir el valor de una variable x un investigador toma el modelo A de regresión lineal múltiple que tiene un R-cuadrado igual a 0.84 y otro investigador toma un modelo B que tiene R-cuadrado igual a 0.76. Entonces: El modelo A es preferible al B porque A tiene menos variables explicativas que B. El modelo A es preferible al B si ambos tienen el mismo número de variables explicativas. El modelo A es preferible al B si el modelo A tiene un mayor número de variables explicativas.

A la vista de la siguiente tabla asociada a un modelo de regresión múltiple obtenido con el software. Indicar la respuesta correcta: El 84,8411% de la variabilidad de la variable respuesta está explicada por los residuos. El 69,6821% de la variabilidad de la variable respuesta está explicada por el modelo. El modelo es globalmente significativo al 95% por el p-valor es mayor que 0,05.

La siguiente salida tabla nos indica los valores de los residuos atípicos en una regresión lineal múltiple. Puede verse que hay residuos positivos y residuos negativos. El signo del residuo para la observación 27 es negativo: Porque el signo de la variable respuesta para la observación 27 es negativo. Porque el valor de la variable respuesta para la observación 27 dada por el modelo es mayor que el valor observado. Porque los coeficientes Bi, del modelo son negativos.

Una covarianza negativa entre dos variables: Nos indica que va a haber una correlación lineal negativa entre las variables. Nos indica que las variables están poco correlacionadas. No puede darse, siempre tienen que ser positiva.

La matriz de covarianzas y la matriz de correlaciones. son siempre distintas. son iguales si las variables son centradas. son iguales si las variables están estandarizadas.

Si en un modelo de regresión múltiple se acepta la hipótesis de que todos los coeficientes BETA son iguales a cero, entonces: El modelo es aceptable pero deberemos estudiar una a una la influencia de cada variable. el modelo es aceptable. el modelo no es aceptable.

Indicar cuál de las siguientes afirmaciones es cierta: La matriz de covarianzas es una matriz simétrica. La matriz de covarianzas es una matriz diagonal. La matriz de covarianzas es cuadrada si el número de individuos coincide con el de variables.

En el modelo de regresión logística la variable respuesta: Solo puede tomar dos valores. Puede tomar valores negativos. Toma cualquier valor entre 0 y 1.

El coeficiente Pseudo-R2 en un modelo Logit. es un coeficiente que mide la capacidad predictiva del modelo. Mide el porcentaje de la variable respuesta que queda explicado por las variables explicativas del modelo. Es equivalente al coeficiente R2 del modelo de regresión lineal múltiple.

Consideremos un modelo logit en el que la odd-ratio para una cierta variable es menor que 1. En este caso, si aumentamos en una unidad el valor de esa variable, la probabilidad de que la variable respuesta tome el valor 1: disminuye. es igual a la probabilidad de que tome el valor cero. aumenta.

En un análisis logit una variable con oda-ratio negativa indica: Que p(Y=1) disminuye al incrementar una unidad el valor de la variable. no puede ser negativa. que p(y=1) aumenta al incrementar una unidad el valor de la variable.

Consideremos variables estadísticas bidimensionales estandarizadas X,Y y Z.El ángulo que forman Xe Y es de 20 grados. El ángulo que forman X y Z es de 160 grados. Indicar cuál es cierta: X está más correlacionada con Z que con Y. X está más correlacionada con Y que con Z. X está igualmente correlacionada con Y que con Z.

En el modelo del análisis de componentes principales realizado a partir de la matriz de covarianzas, ¿cuál de las siguientes afirmaciones sería cierta?. las componentes principales son variables que podemos medir directamente en los individuos estudiados. r(Ci,Xj)= a. Si a¡1= 0,83 y a¡2= 0,55, entonces r(Ci,X1)>r(Ci,X2).

Un análisis de componentes principales será tanto más adecuado. Cuanto más correlacionadas estén las variables originales. Cuanto menos correlacionadas estén las variables originales. Cuantas más variables haya.

Un análisis de componentes principales será tanto más adecuado. cuantas menos componentes principales consideremos en el modelo. cuanto mayores sean las variantes de las componentes principales consideradas en el modelo. cuantas más componentes principales consideremos en el modelo.

Indicar cuál de las siguientes afirmaciones es cierta en relación con el ACP obtenido a partir de la matriz de correlaciones R: El coseno del ángulo que forman 2 variables es el coeficiente de la correlación lineal entre ambas. si dos variables forman un ángulo próximo a cero quiere decir que están escasamente correlacionadas. el ángulo formado por una variable observada y la primera componente principal es siempre mayor que el ángulo que forma con la segunda componente principal.

En un análisis de componentes principales: Las componentes principales son variables ortogonales solo si hemos partido de la matriz de correlaciones. Las componentes principales son variables ortogonales. Las componentes principales son variables correlacionadas.

Indicar cuál de las siguientes afirmaciones es ciertas en un análisis de componentes principales: Las variables originales deben estar correlacionadas. Las componentes principales deben estar correlacionadas. El número mínimo de componentes principales debe ser 2.

En un análisis factorial las comunalidades indican: El porcentaje de cada variable original que queda explicada por cada factor común. El porcentaje de la varianza de cada variable original que queda recogida por los factores comunes que se han extraídos. El porcentaje de varianza total que queda recogida por los factores comunes.

En un análisis factorial al hacer una rotación varimax. Los pesos factoriales y las comunalidades varían. Los pesos factoriales permanecen constantes y las comunalidades varían. Los pesos factoriales varían y las comunalidades permanecen constantes.

Supongamos que tenemos 10 variables y consideramos inicialmente un modelo factorial con 3 factores.Supongamos que no conseguimos interpretar fácilmente alguno de los factores y probamos a ampliar el modelo y tomar factores comunes. Al hacer esta ampliación: Los pesos factoriales de los 3 primeros factores permanecen invariables. Los pesos factoriales de los 3 primeros factores cambian. La suma de los pesos factoriales en el modelo de 4 factores es la misma que la suma de los pesos factoriales en el modelo de 3 factores.

La interpretación de los factores obtenidos en un análisis factorial se obtiene, principalmente, a partir de : Las gráficas. los pesos factoriales. Las correlaciones entre las variables.

En un modelo de análisis factorial,¿ cuál de las siguientes afirmaciones es cierta?. Interesa que la especificidad de cada variable sea alta. El modelo será tanto mejor cuantas menos variables originales haya. Interesa que la especificidad de cada variable sea baja.

La distancia de Mahalanobis y Fisher son: Métodos distintos. Métodos distintos que llegan mismos resultados. Métodos distintos que llegan distintos resultados.

Al aplicar la función discriminante a un nuevo individuo obtenemos: Un vector. una media. un número.

Al realizar un análisis discriminante. Las opciones paso adelante y paso atrás proporcionan el mismo modelo. es preferible inicialmente considerar todas las variables. La opción paso adelante es preferible a la opción paso atrás.

En un análisis discriminante con 2 poblaciones, la probabilidad de asignación correcta del modelo se obtiene: A partir de los mismos datos que hemos utilizado para obtener el modelo. A partir de la asignación de nuevos individuos a las poblaciones y la cuantificación del porcentaje de correctamente clasificados. Dividiendo la proporción entre individuos del grupo 1 que quedan clasificados en el 2 por la proporción de individuos del grupo 2 que quedan clasificados en el 1.

En un análisis discriminante para 2 poblaciones, la función discriminante F(z) se determina de forma que si la aplicamos a los centroides de las 2 poblaciones entonces: Los separa lo más posibles. Obtiene un valor medio. Los acerca lo más posible.

En un modelo de análisis discriminante la probabilidad de asignación correcta se estima: A partir de los individuos que se pretenden clasificar. A partir de los datos observados. A partir de los centroides.

En un análisis discriminante podemos utilizar el procedimiento de incorporación progresiva. En este caso, el número de variables con las que se forma el modelo: Es el mayor número posible ya que de este modo, al disponer de más variables tedremos más información y por tanto mayor capacidad de discriminación. Depende del número de variables iniciales. Es el más pequeño posible siempre que se obtenga una suficiente capacidad de discriminación o clasificación que no mejoraría significativamente si incorporamos más variables.

El análisis cluster pretende: Clasificar individuos en distintos grupos previamente establecidos. Clasificar individuos en grupos lo más parecidos posibles. Clasificar individuos lo más parecidos entre sí y diferentes de los de los demás grupos.

En un análisis cluster indicar cuál de las siguientes informaciones es cierta: Los diferentes métodos para hacer el análisis (vecino más cercano, vecino más lejano,etc) conducen a resultados distintos pero todos ellos válidos. El método del vecino más cercano es mejor que los demás porque estaríamos agrupando las observaciones más próximas. El método del vecino más lejano es peor que los demás porque estaríamos formando grupos con los individuos más alejados, y, por tanto, habría menos homogeneidad en los grupos formados.

El objetivo de un análisis cluster es: Formar grupos para luego clasificar. Obtener grupos de individuos con un perfil parecido. Hacer un dendograma.

En un análisis cluster por el método del vecino más lejano: Utilizamos como distancia la distancia más alejada entre los vectores de medias de ambos grupos. Agrupamos los individuos que se encuentren más cerca. Agrupamos los individuos que se encuentran más alejados.

Al realizar un análisis cluster, es de especial importancia: La interpretación de las características (perfiles) de los grupos formados. El tipo de distancia a utilizar. El tamaño de la muestra.

Si una observación es un punto influyente, indique cuál de las siguientes afirmaciones es cierta: Se trata de una variable que influye significativamente en la variable dependiente. Es una observación que si la quitamos de la muestra los parámetros del modelo cambian sustancialmente. Es una observación que conviene quitar de la muestra.

La suma de la diagonal principal de la matriz de correlaciones: Coincide con el número de variables independientes. Coincide con la suma de la diagonal principal de la matriz de covarianzas. Está entre cero y uno.

Si el p-valor del modelo es cero indica: El modelo es globalmente significativo. El modelo no es globalmente significativo. Todas las variables independientes son significativos.

Los residuos son: La diferencia entre el verdadero valor observado de las variables independientes y el predicho. La diferencia entre el verdadero valor observado de la variable dependiente y el predicho. La diferencia entre el verdadero valor de las variables independientes y la dependiente.

Las variables independientes deben tener entre sí: Un coeficiente de correlación lo más próximo a cero posible. Un coeficiente de correlación lo más próximo a uno posible. Un coeficiente de correlación positivo.

El estadístico de Durbin Watson nos permite saber si: No existe autocorrelaciones entre las perturbaciones. Las variables explicativas son independientes. No existe correlación entre las variables explicativas y el error aleatorio.

Si la odd-ratio es mayor que 1 en el modelo que estudia si a un cliente le gusta la decoración de un restaurante: Aumenta la probabilidad de que no le guste el restaurante. Aumenta la probabilidad de que le guste el restaurante. No podemos sacar una conclusion solo con esa información.

La odd-ratio es mayor que 1 cuando: El coeficiente de la variable Xi es positivo. El coeficiente de la variable Xi es negativo. El coeficiente de la variable Xi no tiene nada que ver con la oda-ratio de un modelo logit.

Denunciar Test