METODOS Y MODELOS ECONOMÉTRICOS (2)
![]() |
![]() |
![]() |
Título del Test:![]() METODOS Y MODELOS ECONOMÉTRICOS (2) Descripción: Puro sexo |




Comentarios |
---|
NO HAY REGISTROS |
La heteroscedasticidad: Es un problema que se da exclusivamente en los datos de sección cruzada. Puede darse cuando hay parámetros que cambian con el tiempo. Solo se produce por la agregación de datos. Es un problema que se da exclusivamente en las series temporales. Cuando hacemos referencia a cov(ui, uj/ xi, xj)=0 indicamos: Que las perturbaciones ui, uj están correlacionadas. Que hay correlación serial. Que las observaciones se muestren de forma independiente. Todas son falsas. Indique la opción correcta: En presencia de autocorrelación los estimadores son lineales, insesgados, consistentes y distribuidos de forma asintóticamente normal como en la heteroscedasticidad. En presencia de autocorrelación los estimadores son lineales, insesgados, consistentes y distribuidos de forma asintóticamente normal como en la homocedasticidad. En presencia de autocorrelación los estimadores son eficientes. En presencia de autocorrelación los estimadores son lineales, sesgados, consistentes y distribuidos con una normal. En el contraste de Durbin-Watson: De existir autocorrelación negativa, los residuos serán diferentes. De existir autocorrelación negativa, el estadístico d estará próximo al limite inferior. La relación de los residuos será intermedia si no hay autocorrelación. Si hay autocorrelación positiva el valor del estadístico estará próximo a 1. Indique la afirmación correcta: En contraste con los modelos unievuacionales, los de ecuaciones simultaneas contienen una variable dependiente, o endógena, lo cual requiere un numero de ecuaciones igual al numero de variables endógenas. En contrastes con los modelos uniecuacionales, los de ecuaciones simultaneas contienen mas de una variable dependiente o endógena, lo cual requiere un numero de ecuaciones igual al numero de variables endógenas. En contraste con los modelos uniecuacionales, los de ecuaciones simultaneas contienen mas de una variable dependiente, no endógena, lo cual requiere un numero de ecuaciones no igual al numero de variables endógenas. Todas son falsas. Causas de la heteroscedasticidad. La homocedasticidad es u problema que surge en muchas aplicaciones, sobre todo trabajando con series temporales. Cuando alguno de los paramentos de un modelo es cambiante con el tiempo, podemos tener problema de heteroscedasticidad. El estadístico t se encuentra sesgado a la baja mientras que el F no se ve afectado. Todas son falsas. ¿hay dos formas distintas de probar hipótesis acerca de un único coeficiente?. Si. No. No, porque en las pruebas de una cola el estadístico t es menos flexible. Si, poque hay razones para empresa el estadístico F en la prueba de hipótesis de un solo parámetro. Cuando los estimadores MCO son insesgados y consistentes, pero no eficientes. La inferencia estadística se mantiene constante. Es una causa de autocorrelación. Serán los de mínima varianza. Es una consecuencia de autocorrelación. En el contraste de Durbin-Watson: H0: p0=0. H0: p0 diferente a 0. H1: 0>p>1. H1: 0<p>1. Cuando existe correlación: E(beta)≠0. E (et, es) = 0. E (et, es) es diferente a beta. E (et, es) ≠0. Si en el modelo lineal general y=XB+U se cumplen todas las hipótesis claicas, pero existe un alto grado de correlación lineal entre las variables explicativas contenidas en la matriz X, entonces el estimador MCO de B: Es insesgado pero no tiene varianza mínima. Es eficiente aunque no es insesgado. Es insesgado y eficiente porque la multicolinealidad aproximada no afecta a las propiedades estadísticas teóricas del estimador MCO de B. No es único porque la matriz XtX es singular. En el modelo lineal general Y=XB+U, la hipótesis de que los regresores contenidos en la matriz X son números fijos (no estocasticos) implica que: La correlación entre cada perturbación y cada uno de los regresores es cero. No existe multicolinealidad exacta entre las variables explicativas. No se ha omitido ninguna variable explicativa relevante. Las perturbaciones tienen esperanza nula. Indique cual de las siguientes hipótesis NO es necesaria para demostrar el teorema de Gauss Markov en el Modelo Lineal General Y=BX+U: E(U/x)= 0. La distribución de U condicionada por X es normal. Los parámetros B son constantes en el tiempo. Las perturbaciones tienen esperanza nula. Partiendo de un modelo de regresión lineal que cumple todas las hipótesis clásicas: La omisión de variables explicativas relevantes siempre implica la perdida de insesgadez de los estimadores MCO de los parámetros. La inclusión de variables explicativas irrelevantes nunca afecta a la insesgadez de los estimadores MCO de los parámetros. La omisión de variables explicativas relevantes puede implicar un aumento de las varianzas de los estimadores MCO de los parámetros. La inclusión de variables explicativas irrelevantes puede implicar una reducción de las varianzas de los estimadores MCO de los parámetros. Sea un modelo de regresión Y=B1+B2X2+Ut. Indique cual de las siguientes afirmaciones es cierta: Suma u y= 0 (los redicuos son ortogonales a los valores ajustados). Suma u x dif = (los residuos estan correlacionados con la variable explicativa). Suma u y= 0 (los residuos son ortogonales a la variable dependiente). Suma y y=0 (los valores ajustados son ortogonales a la variable dependiente). En el contecto del modelo lineal general Y=XB+U, las hipótesis de que la E(U)= 0 y la E(UU)= sigma cuadrado implican entre otras cosas, que: Las perturbaciones del modelo estan autocorrelacionadas. Los residuos MCO son homocedasticos. Las perturbaciones del modelo son homocedasticas. Los residuos MCO no estan autocorrelacionados. Cuando un modelo de regresión SIN termino constante se estima por MCO: La suma de los cuadrados es cero. El R cuadrado convencional es mayor o igual que cero y menor o igual que uno. La suma total de cuadrados (SCT) y la suma explicada de cuadrados (SEC) coinciden. La suma de los cuadrados de los residuos es mayor o igual que cero. Entre todas las hipótesis clásicas que conforman el modelo Y=XB+U, la hipótesis de que el vector de pertubaciones U sigue una distribución Normal Multivariante: Solo es necesaria para calcular las previsiones puntuales de la variable endógena. Solo es necesaria para estimar B por máxima verosimilitus. Permite obtener la distribución del estimador MCO de la varianza de las pertubaciones. No es necesaria para calcular las previsiones por intervalo de la variable endógena. Si en el modelo Y=XB+e se cumplen todas las hipótesis clásicas, pero existe un alto grado de asociación lineal entre algunas columnas de la matriz x, entonces el estimador MCO de B: Es insesgado pero no tiene varianza mínima. Es insesgado y eficiente porque la multicolinealidad de grado no afecta a las propiedades estadísticas teóricas del estimador MCO de B. Es eficiente aunque no insesgado. Es sesgado e ineficiente porque la multicolinealidad de grado afecta a las propiedades estadísticas teóricas del estimador MCO de B. Cuando un modelo de regresión lineal CON termino constante se estima por MCO: La suma de cuadrados de residuos es cero. La suma de residuos es distinta de cero. Las medias muestrales de los valores observador y de los valores ajustados son iguales entre si. El coeficiente de determinación (r-cuadrado convencional) es igual alcoeficiente de correlación lineal entre los valores observados y los valores ajustados. En los casos de multicolinealidad: Una de las variables regresoras es combinación lineal del resto. Al menos una variable explicativa contiene información adicional sobre las endógenas que esta contenida en otras. Las variables explicativas no son linealmente independientes por tanto ¡XtX¡=0. Todas son ciertas. Los datos que combinan información referente a varios individuos (o unidades) a lo largo de intervalos de tiempo se denomina: Datos de sección cruzada. Datos de panel. Datos de series temporales. Var(B)=sigma2 (XtX)el-1 indica: La mínima varianza de un estimador insesgado y lineal de beta cuando las pertubaciones tienen esperanza nula, hay heterocedasticidad y ausencia de correlación. La máxima varianza de un estimador insesgado y lineal de beta cuando las perturbaciones tienen esperanza nula, hay homocedasticidad y ausencia de correlación. La mínima varianza de un estimador insesgado y lineal de beta cuando las perturbaciones no tienen esperanza nula, hay homocedasticidad y ausencia de correlación. La mínima varianza de un estimador insesgado y lineal de beta cuando las perturbaciones tienen esperanza nula, hay homocedasticidad y ausencia de correlación. Si un modelo de regresión lineal general tiene termino constante: Los residuos MCO siempre son ortogonales a las perturbaciones (errores). Los residuos MCO siempre son ortogonales a todas las variables explicativas. La suma de los residuos MCO siempre es positiva. |