ESTADISTICA IIB.
![]() |
![]() |
![]() |
Título del Test:![]() ESTADISTICA IIB. Descripción: ESTADISTICA IIB. |




Comentarios |
---|
NO HAY REGISTROS |
La recta de mínimos cuadrados proporciona la recta de mejor ajuste. V. F. El error estándar de estimación mide la variación alrededor de la recta de regresión. V. f. En el análisis de regresión se determinan medidas para expresar la fuerza y la dirección de la relación lineal entre dos variables. V. F. Una de las características del coeficiente de correlación es que un valor cercano a 0 indica que hay poca asociación entre las variables. V. F. El análisis de regresión es una ecuación matemática que permite estimar el valor de una variable con base en el valor de otra. V. F. La prueba de hipótesis también se interpreta en términos de valores p. Un valor p es la probabilidad de determinar un valor del estadístico de prueba más extremo que el calculado, cuando Ho es verdadera. V. F. Una de las características del coeficiente de correlación indica que cuando el valor es cercano a -1 significa que existe una asociación directa o positiva entre las variables. F. V. El intervalo de confianza, reporta el valor medio de Y para una X dada. V. F. Cuando no hay ninguna relación entre dos conjuntos de variables, la r de Pearson es cero. V. F. En general es imposible que el comportamiento de Y (variable dependiente) sea explicada en gran medida por solo una variable independiente. V. F. Un coeficiente de correlación con un valor calculado de -1.00 revela que las variables están perfectamente relacionadas en un sentido lineal inverso. V. F. En una correlación espuria, se concluye que, cuando hay dos variables con una fuerte correlación es que hay una relación o asociación entre ambas variables, no que un cambio en una ocasiona un cambio en la otra. V. F. para explorar otras relaciones no lineales, una posibilidad es transformar una variable, por ejemplo en lugar de emplear ¨Y¨ como variable dependiente, se puede emplear su logaritmo, recíproco, cuadrado o raíz cuadrada. V. F. Un valor de r puede indicar que no hay una relación lineal, pero puede ser que haya una relación de alguna otra forma no lineal o curvilínea. V. F. Un coeficiente de correlación r cercano a cero indica que la relación lineal es muy fuerte. F. V. Cuando el valor t calculado se encuentra en la región de rechazo, se rechaza la Ho, esto significa que la correlación entre la población es cero. F. V. Si el error estándar es pequeño, significa que los datos están relativamente cercanos a la recta de regresión, y la ecuación de regresión sirve para predecir ¨Y¨ con poco error. V. F. Si se obtiene un coeficiente de determinación de 0,576 se dice que el 57,6% de la variación en la variable ¨Y¨ se explica, o está representada por la variación de la variable ¨X¨. V. F. En una regresión los valores positivos indican una relación directa y los valores negativos una relación indirecta. V. F. Si existe una correlación de 0,76 se puede concluir que existe una asociación muy débil entre las variables ya que el valor está muy cercano a 1. F. V. Un ejemplo de variable dependiente es por ejemplo que se desea predecir el número esperado de productos que se venderán si un representante visita 20 micro mercados. La variable sería productos que se venden. V. F. En la siguiente función promedio de notas de Estadística (Base matemáticas que tiene el estudiante). La variable dependiente sería Si el estudiante de la asignatura de estadística tiene o no bases de matemáticas. F. V. ¿Qué ocurre si se rechaza la hipótesis nula? Se deduce que la pendiente de la recta de regresión de la población no es igual a cero, es decir existe una relación significativa entre ambas variables. V. F. Cuando los puntos en el diagrama de dispersión aparecen cerca de la recta, se observa que el coeficiente de correlación tiende a ser grande. V. F. Se puede afirmar que identificar y estudiar las relaciones entre variables puede proporcionar información para: elevar ganancias, reducir costos, predecir la demanda, etc. V. F. El método de mínimos cuadrados también permite inferir o generalizar a partir de la relación de una población completa. V. F. En la regresión múltiple existe una relación directa entre la variable dependiente y el conjunto de variables independientes. V. F. La distribución F es sesgada de manera positiva cuando aumentan los valores de X, entonces la curva se aproximará al eje horizontal. F. V. Cuando los residuos sucesivos están correlacionados, a esta condición se le conoce como homocedasticidad. F. V. Si el valor p es menor que el nivel de significancia elegido, se decide rechazar la hipótesis nula. V. F. La homocedasticidad existe cuando las variables independientes están correlacionadas. F. V. Para probar la hipótesis nula de que todos los coeficientes de regresión múltiple son cero se emplea la distribución F. V. F. Si un análisis de regresión múltiple incluye más de dos variables independientes, permiten emplear fácilmente una gráfica para ilustrar el análisis. F. V. Cuando se realiza una prueba global, la hipótesis alternativa plantea al menos un coeficiente de regresión no es cero. V. F. El hecho de usar más de una variable independiente da la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas. V. F. Cuando un coeficiente de regresión que debiera tener signo positivo resulta negativo, o lo contrario; podría ser un indicio de que existe problemas de multicolinealidad. V. F. Las variables cualitativas, describen una cualidad particular, como masculino y femenino. V. F. La variable género (hombre-mujer) es de escala ordinal y de carácter cuantitativo. F. V. En el siguiente ejemplo "Se tiene interés en estimar el salario de un ejecutivo con base en los años de su experiencia laboral y si se graduó de la Universidad". En este modelo la variable que se debe convertir en ficticia es la variable años de experiencia laboral. F. V. El incremento de los precios en los productos depende de la inflación y el desempleo. Es un ejemplo de regresión lineal simple. F. V. Explicar el nivel de un contaminante en función de la densidad industrial y de las lluvias medias mensuales, es un claro ejemplo de regresión lineal múltiple. V. F. Los índices permiten expresar un cambio de precio, cantidad o valor como porcentaje. V. F. El IpC se usa para ajustar salarios, pensiones, manutención, honorarios de abogados, etc. V. F. El ingreso deflacionado y el ingresi real son lo mismo. V. F. La desventaja principal del índice de paasche es que se supone que las cantidades en el periodo base aún son realistas en el periodo dado. F. V. El índice de valores mide el cambio porcentual en un valor. V. F. El término de no ponderado para un índice significa que todos los valores incluidos al calcular el índice tienen igual importancia. V. F. Una de las razones para calcular un índice es: que si los números son pequeños, con frecuencia es más fácil comprender el cambio del índice que las cifras reales. F. V. Las ventas deflacionadas son importantes para mostrar la tendencia en las ventas reales. V. F. Si dos o más series tienen el mismo periodo base no se pueden comparar de manera directa. F. V. |