1. El error estándar de estimación mide la cercanía entre los valores reales y la recta de regresión v f. 2.El propósito de la ecuación de regresión es cuantificar una relación lineal entre dos variables v f. 3. La forma general de la ecuación de la regresión lineal es Y = a+b+cX v f. 4. Para determinar el valor de a (intersección con el eje Y) se debe calcular el coeficiente de correlación, la
desviación estándar de Y y la desviación estándar de X v f. 5. En la ecuación Y= α + βX; α y β son parámetros poblacionales v f. 6. La fuerza de la correlación depende de la dirección ya sea – o bien + v f. 7. El intervalo de predicción reporta el rango de valores de Y para un valor particular de X v f. 8. En el análisis de regresión se determinan medidas para expresar la fuerza y la dirección de la relación lineal
entre dos variables v f. 9. Un valor de r puede indicar que no hay una relación lineal, pero puede ser que haya una relación de alguna
otra forma no lineal o curvilínea v f. 10. Si la correlación es débil, al representar los datos en un diagrama de dispersión se podrá observar una
dispersión considerable respecto a la recta trazada a través del centro de los datos v f. 11. Para explorar otras relaciones no lineales, una posibilidad es transformar una variable, por ejemplo en
lugar de emplear "Y" como variable dependiente, se puede emplear su logaritmo, recíproco, cuadrado o raíz
cuadrada v f. 12. Cuando el error estándar es pequeño, significa que las dos variables no están muy relacionadas v f. 13. En la regresión lineal se supone que los valores Y son estadísticamente independientes. Esto significa
que, al seleccionar una muestra, una X particular no depende de ningún otro valor de X v f. 14. Si el error estándar es pequeño, significa que los datos están relativamente cercanos a la recta de
regresión, y la ecuación de regresión sirve para predecir "Y " con poco error v f. 15. Cuando existe una correlación espuria se puede concluir que se tiene dos variables con fuerte correlación
porque hay una relación o asociación entre ambas, no que un cambio en la una ocasiona un cambio en la otra. v f. 16. Al emplear la recta de regresión con un método matemático denominado principio de los mínimos
cuadrados se elimina el juicio subjetivo v f. 17. Dos variables tienen una relación positiva cuando se ubican por arriba de la media v f. 18. Un ejemplo de variable dependiente es por ejemplo que se desea predecir el número esperado de
productos que se venderán si un representante visita 20 micro mercados. La variable sería productos que se
venden. v f. 19. En una regresión los valores positivos indican una relación directa y los valores negativos una relación
indirecta v f. 20. Si existe una correlación de 0,76 se puede concluir que existe una asociación muy débil entre las variables
ya que el valor está muy cercano a 1 v f. 21.Las siguientes variables tienen una relación positiva porque al incrementar el nivel de ingresos incrementa
el ahorro. v f. 22. Se puede afirmar que identificar y estudiar las relaciones entre variables puede proporcionar información
para: elevar ganancias, reducir los costos, predecir la demanda, etc v f. 23. Si se obtiene un coeficiente de determinación de 0,576, se dice que el 57,6% de la variación en la variable
"Y" se explica, o está representada por la variación de la variable "X" v f. 24. En la siguiente función Promedio de notas de Estadística = (Base matemáticas que tiene el estudiante). La
variable dependiente sería Si el estudiante de la asignatura de estadística tiene o no bases de matemáticas v f. 25. Cuando los puntos en el diagrama de dispersión aparecen cerca de la recta, se observa que el coeficiente
de correlación tiende a ser grande v f. 26. Si hay coeficientes con respecto a los cuales la Ho no se puede rechazar, quizá sea prudente eliminarlos
de la ecuación de regresión v f. 27. El número de grados de libertad en la regresión es igual al número de variables independientes existente
en la ecuación de regresión múltiple v f. 28. Una de las suposiciones de la regresión múltiple es que las variables independientes no deberán estar
correlacionadas v f. 29. El coeficiente de determinación es el coeficiente de correlación al cuadrado v f. 30. Cada nueva variable independiente hace que las predicciones sean más precisas v f. 31.Si un análisis de regresión múltiple incluye más de dos variables independientes, permiten emplear
fácilmente una gráfica para ilustrar el análisis v f. 32. Si un coeficiente de regresión es cero, implica que la variable independiente en particular no tiene valor
para explicar alguna variación del valor dependiente. v f. 33. Si el valor p es menor que el nivel de significancia elegido, se decide rechazar la hipótesis nula. v f. 34. En una regresión múltiple los coeficientes de regresión y los signos algebraicos también proporcionan
información acerca de sus relaciones individuales con la variable dependiente. v f. 35.Con las propiedades de las distribuciones muestrales que son iguales a los valores de los parámetros que
se estimarán, es posible inferir acerca de los parámetros poblacionales v f. 36. Cuando un coeficiente de regresión que debiera tener signo positivo resulta negativo, o lo contrario; podría
ser un indicio de que existe problemas de multicolinealidad v f. 37. Las variables cualitativas, describen una cualidad particular, como masculino o femenino v f. 38.En el siguiente ejemplo "Se tiene interés en estimar el salario de un ejecutivo con base en los años de su
experiencia laboral y si se graduó de la universidad". En este modelo la variable que se debe convertir en ficticia
es la variable años de experiencia laboral. v f. 39. El incremento de los precios en los productos depende de la inflación y el desempleo. Es un ejemplo de
regresión lineal simple v f. 40. La variable género (hombremujer) es de escala ordinal y de carácter cuantitativo v f. 41. El salario puede depender del nivel de educación y de los años de experiencia en. En este ejemplo se está
planteando un modelo de regresión lineal simple v f. 42. Cada índice tiene un periodo base v f. 43. Una de las desventajas del índice de Paasche es que requiere datos de cantidades para el año actual v f. 44. Dos métodos para calcular el índice de precios ponderado son el método de Laspeyres y el de Paasche v f. 45.El IPC se usa para ajustar salarios, pensiones, manutención, honorarios de abogados, etc. v f. 46. El índice agregado simple consiste en sumar los precios de los dos periodos y luego determinar el índice
con base en los totales v f. 47.Es correcto mencionar que solo mediante la conversión de los precios de diversios productos y servicios
en un número índice, los gobiernos u otros organismos pueden dar seguimiento a la inflación y mantenerse
informados acerca del movimiento general de los precios al consumidor v f. 48. Una de las razones para calcular un índice es: que si los números son pequeños, con frecuencia es más
fácil comprender el cambio del índice que las cifras reales v f. 49.La conversión de datos en índices también facilite la evaluación de la tendencia en una serie compuesta de
números muy grandes v f.
|