ESTADÍSTICA
![]() |
![]() |
![]() |
Título del Test:![]() ESTADÍSTICA Descripción: Estadística II B II |




Comentarios | |
---|---|
| |
FIN DE LA LISTA |
En la práctica común se debe situar la variable dependiente en el eje vertical o Y y la variable independiente en el eje horizontal o X. v. f. El intervalo de predicción reporta el rango de valores de Y para un valor particular de X. v. f. Una correlación es perfecta cuando todas las observaciones se encuentran exactamente en la recta tanto de pendiente negativa como de positiva, por eso es que siempre existirá una correlación de 1 entre la variable "X" y "Y". v. f. A la ecuación de la recta para estimar Y con base en se la denomina ecuación de la regresión. v. f. Las dos medidas de eficiencia de una ecuación de regresión son el error estándar y el coeficiente de correlación. v. f. El error estándar de estimación es la medida de la dispersión de los valores observados respecto a la recta de la regresión. v. f. El coeficiente de correlación puede adoptar cualquier valor de -1.00 a +1.00. v. f. El coeficiente de correlación describe la fuerza de la relación entre dos conjuntos de variables en escala de intervalo o de razón. v. f. Cuando el valor t calculado se encuentra en la región de rechazo la H0, esto significa que la correlación entre la población es cero. v. f. Para explorar otras relaciones no lineales, una posibilidad de transformar una variable, por ejemplo en lugar de emplear "Y" como variable dependiente, se puede emplear su logaritmo recíproco cuadrado o raíz cuadrada. v. f. Debido a que los pronósticos no son perfectos, es necesario contar con una medida para describir cuán preciso es el pronóstico de Y con base en X, o a la inversa que tan inexacta puede ser la estimación. v. f. Un coeficiente de correlación r cercano a 0 indica que la relación lineal es muy fuerte. v. f. En general es imposible que el comportamiento de Y (variable dependiente) sea explicada en gran medida por solo una variable independiente. v. f. Es usual comenzar con un diagrama de dispersión, cuando se estudia la relación entre dos variables en escala ordinal o nominal. v. f. Cuando el error estándar es pequeño, significa que las dos variables no están muy relacionadas. v. f. Cuando no hay ninguna relación entre dos conjuntos de variables, la r de pearson es cero. v. f. En una correlación espuria, se concluye que, cuando hay dos variables con una fuerte correlación, es que hay una relación o correlación o asociación entre ambas variables, no que el cambio de una ocasiona un cambio en la otra. v. f. Un ejemplo de variable dependiente es por ejemplo que se desea predecir el número esperado de productos que se venderán si un representante visita 20 micromercados. La variable sería productos que se venden. v. f. El consumo de margarina eleva divorcios en ecuador, es un claro ejemplo de correlación espuria. v. f. Cuando los puntos en el diagrama de dispersión aparecen cerca de la recta, se observa que el coeficiente de la correlación tiende a ser grande. v. f. Cuando el valor cae en la zona de rechazo se acepta la hipótesis alternativa es decir se concluye que si hay una relación entre dos variables y no es casualidad, ya que la hipótesis alternativa plantea que la correlación es diferente de cero. v. f. En una regresión los valores positivos indican una relación directa y los valores negativos una relación indirecta. v. f. Se puede afirmar que identificar y estudiar las relaciones entre variables puede proporcionar información para: elevar ganancias, reducir los costos, predecir la demanda. v. f. Si se obtiene, un coeficiente de determinación de 0,575 se dice que el 57,6% de la variación en una variable "Y" se explica, o está representada por la variación de la variable "X". v. f. Qué ocurre si se rechaza la hipótesis nula? Se deduce que la pendiente de la recta de regresión de la población no es igual a cero, es decir existe una relación significativa entre ambas variables. v. f. La prueba global es una prueba del modlo de regresión múltiple la cual investiga si es posible que todas las variables independientes tengan coeficientes de regresión cero. v. f. El análisis de regresión múltiple sirve como técnica descriptiva o como técnica inferencia. v. f. La multicolinealidad existe cuando las variables independientes están correlacionadas. v. f. El método de mínimos cuadrados también permite inferir o generalizar a partir de la relación de una población. v. f. En general las variables con coeficiente de regresión cero, se omiten del análisis. v. f. La distribución F es asintótica cuando la cola de la distribución se encuentra a la derecha. v. f. En un modelo de regresión múltiple las variables independientes no deben estar correlacionadas. v. f. Los valores de los coeficientes en la ecuación lineal múltiple se determinan mediante el método de mínimos cuadrados. v. f. El principio de los mínimos cuadrados determina una ecuación de regresión al minimizar la suma de los cuadrados de las distancias verticales entre los valores reales de "Y" y los valores pronósticos de "Y". v. f. Para realizar una variable cualitativa en el análisis de regresión, se emplea un esquema de variables ficticias en las cual se puede codificar con 0 o un 1. v. f. Cuando un coeficiente de regresión que debiera tener signo positivo resulta negativo, o lo contrario; podría ser un indicio de que existe problemas de multicolinealidad. v. f. Cuando los coeficientes de las variables explicativas presentan signo positivo, significa que existe una relación inversa con respecto a la variable dependiente. v. f. El incremento de los precios en los productos depende de la inflación y el desempleo. es un ejemplo de regresión lineal simple. v. f. Las variables cualitativas, describen una cualidad particular, como masculino o femenino. v. f. El salario puede depender del nivel de educación y de los años de experiencia. En este ejemplo se está un modelo de regresión lineal simple. v. f. Explicar el nivel de un contaminante en función dela densidad industrial y de las lluvias medias mensuales, es un claro ejemplo de regresión lineal múltiple. v. f. En un índice no ponderado,se consideran las cantidades. v. f. Una característica negativa del promedio simple del índice de precios es que no considera la importancia relativa de los artículos en el índice. v. f. La mayoría de los índices, en negocios y economía, se calculan hasta el número entero más cercano o hasta el décimo más cercano de un porcentaje. v. f. El índices de laspeyres tiende a ponderar demasiado los artículos cuyos precios aumentaron. v. f. en el método de laspeyres se utilizan ponderaciones en el año en curso. v. f. El término no ponderado para un índice significa que todos los valores incluidos al calcular el índice tienen igual importancia. v. f. Las ventas deflacionadas son importantes para mostrar la tendencia en las ventas reales. v. f. La conversión de datos en índices también facilita la evaluación de la tendencia en una serie compuesta de números muy grandes. v. f. Si dos o más series tienen el mismo período base no se pueden comparar de manera directa. v. f. |