La variable dependiente es una variable que se predice o estima y se muestra en el eje de Y
v f. El intervalo de predicción reporta el rango de valores de Y para un valor particular de X
v f. El coeficiente de determinación puede tomar cualquier valor entre el rango de 0 a 1
v f. El coefiiciente de determinación es una proporción de la variación total en la variiable de pendiente Y que se explica, o contabiliza, por la variación en la variable X
v f. se puede presentar el caso de que dos variables estén estrechamente relacionadas, pero que su relación no sea lineal.
v f. Las pruebas de dos colas son equivalentes y siempre arrojarán exactamente los mismos valores de t y los miismo valores de p
v f. Una recta se considera la de mejor ajuste cuando la suma de los cuadrados de las desviaciones verticales respecto de sí misma es mínima.
v f. El propósito de una análisis de regresión ( Y=a+b+Cx ) es calcular a y b pa desarrollar una ecuación lineal que se ajuste mejor a los datos.
v f. Un intervalo de confianza se refiere a todos los casos con un valor dado X
v f. A la ecuación de la recta para estimar Y con base en X se le denomina ecuación de regresión
v f. En la ecuación Y= + X; y son parámetros poblacionales
v f. Con el criterio de mínimos cuadrados se determina la ecuación de regresión
v f. La ecuación de regresión es la ecuación que expresa la relación lineal entre dos variables
v f. Los valores a y b en la ecuación de regresión se les conoce como coeficientes de regresión estimada.
v f. La existencia de correlación entre variable no implica casualidad
v f. El error estándar de estimación mide la cercanía entre los valores reales y la recta de regresión
v f. Una correlación es perfecta cuando todas las observaciones se encuentran exactamente en la recta tanto de pendiente positiva como negativa, por eso es que siempre existirá una correlación de 1 entre la variable "X" y "Y"
v f. Cuando los datos son de una muestra tomada de una población, lo que se hace es una interferencia esttadística.
v f. Una de las características del coeficiente de correlación menciona que, el valor ccercano a 1 índicaa una relación directa o pósitiva entre las variables
v f. Un intervalo de predicción se refiere a un caso particular de un valor dado de X
v f. El análisis de correlación es el estudio de la relación entre variables
v f. El error estándar de estimación es la medida de la dispersión de los valores observados respecto a la recta de regresión
v f. Una de las características del coeficiente de correlación es que un valor cercano a 0 indica que hay poca asociación entre las variables
v f. El error estándar de estimación proporciona una medida relativa de la capacidad de predicción de una ecuación de regresión.
v f. El error estándar de estimación mide la variación alrededor de la recta de regresión
v f. El intervalo de confianza, reporta el valor medio de Y para una X dada
v f. El coeficiente de correlación describe la fuerza de la relación entre dos conjuntos de variables en la escala de intervalo o de razón.
v f. El propósito de la ecuación de regresión es cuantificar una relacion lineal entre dos variables
v f. En la práctica común se debe situar la variable dependiente en el eje vertical o Y y la variable independiente en el eje horizontal o X
v f. Dos variables tienen una relación positiva cuando se ubican por arriba de la media
v f. El coeficiente de determinación puede tomar cualquier valor entre el rango de -1 a 1
v f. En el análisis de regresión se determinan medidas para expresar la fuerza y la dirección de la relación lineal engtre dos variables
v f. La recta de regresión por mínimos cuadrados no siempre pasará por el punto X,Y
v f. En el análisis de regresión simple las dos variables, independientes y dependiente deben estar únicamente a escala de intervalo
v f. Un coeficiente de correlación de -1.00 o bien de + 1.00 indica una correlación imperfecta.
v f. Para realizar una análisis de correlación se debe elaborar una ecuación para expresar la relación lineal entre dos variables.
v f. El error estándar de estimación es similar a la varianza que se basa en valores cuadráticos.
v f. El intervalo de confianza también se basa en el nivel de confianza , el tamaño del error estándar de estimación, el tamaño de la muestra y el valor de la variable independiente
v f. La fuerza de la corrrelación depende de la dirección ya sea - o bien +
v f. Una de las caracteristicas del coeficiente de correlación indica que cuando el valor es ccercano a -1 significa que existe una ascociación diirecta o positiva entre las variables.
v f. En la ecuación de regresión lineal Y=a+BX a es la pendiente y b es la intersección con Y
v f. Es usual comenzar con un diagrama de dispersión, cuando se estudia la relación engtre dos variables en escala ordinal o nominal.
v f. El error estándar y el coeficiente de determinaciónson son estadísticos que proporcionan una evaluación general de la capacidad de una ecuación de regresión para predecir una variable independiente.
v f
. Cuando el error estándar es pequeño, significa quue las dos variables no están muy relacionadas
v f. Si el error estándar y el coeficiente de determinación son dos estadisticos que proporcionan una evaluación general de la capacidad de una ecuación de regresión para predecir una variable independiente
v f. Cuando el valor t calculado se encuentra en la región de rrechazo la Ho, est significa que la correlación entre la población es cero
v f. Un coeficiente de correlación cercano a cero indic que la relación lineal es muy fuerte
v f. Cuando el error estándar es pequeño signifiica que las dos variables no están muy relacionadas.
v f. La idea básica del análisis de correlación es reportar la asociación entre cuuatro variables
v f. Si existe una correlación de 0,76 se puede concluir que existe una asociación muy débil entre las variables ya que el valor está muy cercano a él.
v f. En la siguiente función promedio de notas de Estadística = (base matemáticas que tiene el estudiante).La variable dependiente sería si el estudiante de la asignatura de estadística tiene o no bases de matemáticas.
v f. El coeficiente de determinación múltiple a diferencia de coeficiente de determinación de una regresión lineal simple si puede adoptar valores negativos
v f. En la prueba global la Ho es: al menos un coeficiente de regresión no es cero
v f. Cuando los coefIcientes de las variables explicativas presenten signo negativo, significa que existe una relación directa con respecto a la variable dependiente.
v f. El coeficiente de determinación múltiple puede adoptar valores negativos y su interpretación es fácil.
v f. Si un análisis de regresión múltiple incluye más de dos variables independientes, permiten empleaar fácilmente una gráfica para ilustrar el análisis.
v f. La distribución F es sesgada de manera positiva cuando aumenten los valores de X, entonces la curva se aproximará al eje horizontal.
v f. La distribución F es asirtótica cuando la cola de la distribución se encuentra a la derecha.
v f. Cuando los residuos sucesivos están correlacionados, a esta condición se la conoce como homocedasticidad.
v f. En el caso del estadístico F, el valor p se define como la probabilidad de observar un valor F tan o más grande que que el estadístico de prueba , asumiendo que la hipótesis nula es falsa.
v f. El coeficiente de determinación múltiiple puede adoptar valores negativos y su interpretación es fácil.
v f. Para verificar la homocedasticidad, los residuos se trazan contra los valores ajustados de X
v f. La distribución F es sesgada de manera positiva cuando aumentan los valores de X , entonces las curva se approximará al eje horizontal.
v f. En la práctica es posible seleccionar variables que carezcan por completo de alguna relación.
v f. El salario puede depender del nivel de educación y de los años de experiencia en. Este ejemplo se está planteando un modelo de regresión lineal simple.
v f. En el siguiente ejemplo "Se tiene interés en estimar el salario de un ejecutivo con base en los años de su experiencia laboral y se graduó de la universidad". En este modelo la variable que s se debe convertir en ficticia es la variable años de experiencia laboral.
v f. El siguiente ejemplo "Se tiene interes en estimar el salario de un ejecutivo con base en sus años con experiencia laboral y si se graduó de la universidad". En este modelo de la variable que se debe convertir en ficticia es la variable años de experiencia laboral.
v f. El incremento de los precios en los productos dependen de la inflación y el desempleo. Es un ejemplo e regresión lineal simple.
v f. Cuando los coeficientes de las variables explicativas presenten signo positivo, significa que existe una relación inversa con respecto a la variable dependiente.
v f. El incremento de los precios en los productos depende de la inflación y el desempleo. Es un ejemplo de regresión lineal simple.
v f. La variable género (hombre-mujer) es de escala ordinal y de cáracter cuantitativo.
v f. Cuando los coeficientes de las variables explicativas presentan al signo positivo,significa que existe una relación inversa con respecto a la variable dependiente
v f. El índice de Passche utiliza cantidades del periodo base como ponderaciones.
v f. La base de la mayoría de los índices es diez
v f. Como en el valor de un índice agregado simplepueden influir las unidades de medición,se emplea con frecuencia.
v f. La desventaja principal del índice de Passche es que se supone que las cantidades en el periodo base aún son realistas en el periodo dado.
v f. El método de Laspeyres se utilizan ponderaciones enel año en curso
v f. Una de las razones para calcular un índice es: que si los números son pequeños, con frecuencia es más fácil comprender el cambio del índice que las cifras reales.
v f. Una de las razones para calcular un índice es: sí los números son pequeños, con frecuencia es más fácil comprender el cambio del índice que las cifras reales.
v f. Si dos o más series tienen el mismo periodo base no se pueden comparar de manera directa
v f.
|