Econometría
![]() |
![]() |
![]() |
Título del Test:![]() Econometría Descripción: Econometría teoría |




Comentarios |
---|
NO HAY REGISTROS |
Si un modelo es homocedástico: Los parámetros son no óptimos. La varianza residual no es constante. Se rechaza la hipótesis 𝐻1:𝜎𝜀2=𝑓(𝑥1,…,𝑥𝑘). Si un modelo tiene multicolinealidad: Indica que los parámetros estimados son sesgados. Requiere que el modelo tenga al menos dos variables endógenas. El test de White tiene que ser superior a 10. Si un modelo presenta indicios de multicolinealidad: Puede eliminarse disminuyendo el tamaño de la muestra. Es un problema de la muestra. Los coeficientes se pueden calcular, pero no son fiables en la multicolinealidad exacta. En un modelo de regresión con 6 variables explicativas y 30 observaciones:https://www.daypo.com/images/down.png. El modelo auxiliar de White tiene 27 parámetros. El modelo auxiliar de White tiene 27 variables. El modelo auxiliar de White tiene 28 grados de libertad. Para realizar la predicción por punto. Es necesario conocer la probabilidad. b) El modelo debe no debe estar estimado. c) Se deben conocer los valores futuros de la variable predeterminadas. En el test de White. a) Hay que calcular tantos modelos auxiliares como variables predeterminadas exista en el modelo. b) Indica que variable predeterminada causa heterocedasticidad. c) En los datos de corte transversal tienen mayor probabilidad de que la Prob(χ2 ≥ Wh)= 0. 7. ¿Cuál de las siguientes afirmaciones es correcta en un modelo de regresión lineal?. a) La media de los errores en igual a 1. b) La varianza de los errores es constante (Homocedasticidad). c) Los errores del modelo no están distribuidos normalmente. 8. En un modelo de regresión lineal, la multicolinealidad es un fenómeno: a) Cuando dos o más variables predeterminadas están altamente correladas o relacionadas linealmente. b) Muy extraño en los estudios actuales. c) Ocurre cuando las variables predeterminadas están altamente correladas con la variable endógena. 9. Cuando existen problemas significativos de multicolinealidad. a) La forma más sencilla de resolver este problema es aumentar el número de variables predeterminadas. b) Puede ser posible combinar dos o más variables estrechamente relacionadas en una sola variable para evitar este problema. c) Puede causar intervalos de confianza pequeños y "valores p" comunes para variables independientes. 10. Si un modelo tiene homocedasticidad: a) El error del modelo tiene la misma varianza para todos los valores del modelo. b) El error tiene varianza diferente dependiendo de los valores de las variables explicativas. c) Las variables predeterminadas están altamente correlacionadas. Si los errores son heteroscedásticos: a) El test FIV se aplica normalmente para corregir este problema. b) El test de White debería llevar a la conclusión de rechazar la hipótesis nula. c) El test de White debería llevar a la conclusión de no rechazar la hipótesis nula. 12. Para calcular FIV: (factor de incremento de varianza): a) Podría estimarse por separado, los modelos de regresión que explican la variable endógena con cada una de las variables predeterminadas. b) Podría estimarse por separado, los modelos de regresión que explican cada variable predeterminada, en función de las restantes variables predeterminadas. c) Se calcula con los coeficientes de correlación entre las variables predeterminadas. 13. Para realizar el test de White: a) Es necesario calcular un modelo auxiliar, donde la variable endógena son los residuos al cuadrado, en función de una constante, de todas las variables predeterminadas, de las variables predeterminadas al cuadrado, y de las combinaciones de las variables predeterminadas tomadas de dos en dos. b) Es necesario estimar por separado, los modelos de regresión que explican cada variable predeterminada en función de los demás. c) No es necesario estimar primero los errores del modelo de regresión original. 14. Si se estima el modelo de regresión que explica el volumen mensual de ventas (V), en euros, en función del precio del producto (p), en euros: V= 1000-0.08p +e. a) El valor esperado de las ventas cuando el precio toma el valor cero es 0. b) Hay una relación inversa entre la variable ventas y la variable precio. c) Hay una relación directa entre la variable ventas y la variable precio. 15. La multicolinealidad perfecta supone: a) Las correlaciones entre las variables predeterminadas implícitas son 0. b) Las correlaciones entre las variables predeterminadas implícitas son 1 o -1. c) Un caso muy común en estudios reales. 16. La validación de un modelo supone: a) Seleccionar solo las variables cuyos coeficientes son significativamente diferentes de cero. b) Seleccionar solo las variables cuyos coeficientes son significativamente diferentes de uno. c) Calcular el cuadrado de los coeficientes de las variables predeterminadas. 17. Para comparar diferentes modelos de regresión: a) Se debe utilizar el coeficiente de determinación. b) Se debe utilizar el coeficiente de determinación ajustado. c) El mejor modelo será el realizado con el tamaño de muestra más pequeño. 18. En un modelo con 3 variables predeterminadas y 10 observaciones, el test de White: a) Se calcula a partir de un modelo con 14 parámetros y 20 observaciones. b) Se calcula a partir de un modelo con 10 parámetros y 20 observaciones. c) Se calcula a partir de un modelo con 10 parámetros (incluida la constante). 19. La amplitud del intervalo de confianza de la predicción es mayor: a) Cuando la cuasi desviación del error futuro (𝑆𝑒𝑓̅̅̅̅) es menor. b) Cuando la estimación puntual es mayor. c) Cuando la cuasi desviación estándar de la regresión es mayor. 20. Un modelo con multicolinealidad: a) Indica que las variables predeterminadas están relacionadas. b) Las variables predeterminadas están relacionadas linealmente. c) Las variables predeterminadas no está relacionadas. 21. La heterocedasticidad creciente: a) Se puede detectar con la prueba de Golfead and Quandt. b) Se puede detectar con el FIV. c) No existen test para detectarla. 22. En el modelo de regresión y = b0 + b1 X1 + e. a) Si tiene multicolinealidad os estimadores serán insesgados. b) Si tiene multicolinealidad los estimadores serán sesgados. c) Ninguna de las respuestas anteriores es correcta. 23. Para corregir la heterocedasticidad. a) Se incrementará el tamaño de la muestra. b) Se aplicará el método de mínimos cuadrados ordinarios. c) Se apicara el método de mínimos cuadrados ponderados. 24. En el modelo y = b0 + b1 X1 + b2 X2 +e , El FIVx1 = 17,64. a) No se puede saber si existe multicolinealidad o no pues nos han de indicar el FIV de la variable x2. b) El modelo tiene multicolinealidad. c) El modelo no tiene multicolinealidad. 26. En el modelo y = b0 + b1 X1 + b2 X2 + b3 X3 +e, se ha calculado el modelo auxiliar 𝒙𝟏̂=𝟑+𝟕𝒙𝟐+𝟗 𝒙𝟑, donde R2 =0,84. a) El FIVx2 =6,25. b) El FIVx1 = 6,25. c) No se pueden calcular los FIV. 27. La multicolinealidad. a) Lo causa la variable endógena. b) Es un problema de la muestra. c) Es un problema de la población. 1) La variable endógena en un modelo de regresión Y = b0 + b1 X1 + b2 X2+….+ bk Xk +e. a) Es una variable aleatoria (y,e). b) Es una variable no determinística. c) No puede estar relacionada con otras variables predeterminadas. d) Ninguna de las respuestas anteriores es correcta. 2) Los estimadores obtenidos por el método de mínimos cuadrados ordinarios son óptimos cuando se cumple: a) Que la varianza del parámetro muestral (bj) es igual a cero cuando el tamaño de la muestra tiende a infinito no correcta la definición consistencia. b) Cuando la varianza del parámetro muestral es la más pequeña de todas las posibles. c) Estimadores de media 0. d) Ninguna de las respuestas anteriores es correcta. 3) Un modelo de regresión uniecuacional. a) Tiene más de una variable endógena. b) Puede tener una o varias variables predeterminadas. c) No se puede estimar por el método de mínimos cuadrados ordinarios No correcta porque si se puede estimar por MCO. d) Ninguna de las respuestas anteriores es correcta. 4) La tabla ANOVA de análisis de la varianza. a) La media de cuadrados no explicada por el modelo es igual a la suma de cuadrados explicada por el modelo divida por el número de variables predeterminadas. b) Indica que la suma de cuadrados totales es igual a la suma de cuadrados explicada por el modelo menos la suma de cuadrados no explicada por el modelo. c) Sirve para validar el modelo a nivel individual. d) Ninguna de las respuestas anteriores es correcta. 5) El Método de Mínimos Cuadrados Ordinarios. a) Pretende maximizar el Σ ε2. b) Sirve para obtener las ecuaciones que nos permitan obtener los valores numéricos para los parámetros. c) Es un test de validación. d) Ninguna de las respuestas anteriores es correcta. 6) El coeficiente de determinación (𝑹̅2). a) Sirve para elegir dos modelos alternativos desde el punto de vista del ajuste. b) Toma valores entre -1 y 1. c) Es superior a R2. d) Ninguna de las respuestas anteriores es correcta. 7) Si Σ e 𝒚̂ = 0. a) Es una propiedad de los parámetros bj. b) Es una propiedad descriptiva de la recta de regresión. c) Es una propiedad de los errores del modelo. d) Ninguna de las respuestas anteriores es correcta. 1) En la tabla Anova. a) La media de cuadrados explicada por el modelo es lo mismo que la cuasi varianza de la variable endogena estimada. b) La suma de cuadrados totales es igual Σ(𝑦̂ -𝑦̅)2. c) La suma de cuadrados del error Σ(𝑒)2, debe ser igual a cero. d) Ninguna de las respuestas anteriores es correcta. 2) Si el R2 = 1 del modelo Y = b0 + b1 X1+ b2 X2 +e. a) Indica que el ajuste del modelo es malo. b) Que el modelo pasa o contiene todos los puntos de la nube de puntos. c) Existe una correlación lineal perfecta entre la variable x1 y x2. d) Ninguna de las respuestas anteriores es correcta. 3) El modelo Renta = bo + b12 horas de trabajo +b2 productividad +e,. a) Es un modelo lineal. b) Es un modelo lineal en variables. c) Es un modelo lineal en parámetros. d) Ninguna de las respuestas anteriores es correcta. 4) El modelo Salario = b0 + b1 productividad + b2 horas +e,. a) El coeficiente b1 debería de ser negativo desde el punto de vista de la teoría económica. b) El coeficiente b2 debería de ser superior a cero desde el punto de vista de la teoría económica. c) Es un modelo que representa a la población. d) Ninguna de las respuestas anteriores es correcta. 5) La propiedad de la eficiencia. a) Es una propiedad de la perturbación aleatoria. b) Indica que la media del parámetro estimado es igual al parámetro poblacional. c) Que la varianza del parámetro es la más pequeña de todas las posibles. d) Ninguna de las respuestas anteriores es correcta. 6) Para calcular la predicción por punto. a) Conocer la probabilidad de ocurrencia de la predicción. b) Conocer el valor futuro de la variable endógena. c) Conocer el valor 𝑌̂𝑓. d) Ninguna de las respuestas anteriores es correcta. 7) En un modelo de regresión lineal simple. a) Las variables predeterminadas no pueden estar relacionadas entre si. b) El modelo puede tener dos mínimos. c) Se tiene que cumplir Σ(𝑦̂ e ) ≠ 0. d) Ninguna de las respuestas anteriores es correcta. 8) En la fase de estimación del modelo. a) No se obtienen valores numéricos de los coeficientes del modelo. b) Se realizan distintos test para ver si el modelo es correcto. c) En esa fase se calcula el valor estimado futuro de la variable endógena. d) Ninguna de las respuestas anteriores es correcta. 9) Un modelo multiecuacional,. a) Existe una sola variable endógena. b) Debe de tener como mínimo dos ecuaciones y estas deben estar relacionadas entre sí. c) Se puede aplicar el método de mínimos cuadrados ordinarios. d) Ninguna de las respuestas anteriores es correcta. 10) Indicad cual de las siguientes afirmaciones de este modelo es correcta para el modelo Y = 6-3X1+4 X2 +e , α =0.05. a) prob (F≥F) = 0.04 indica que para el 90% se cumple la hipótesis alternativa β2 > 4. b) 2prob (F≥F) = 0.04 indica que para el 90% se cumple la hipótesis nula β2 el parámetro es significativo. c) Si se cumple prob (T≥t) = 0.05 indica que para el 90% el modelo es globalmente significativo. d) Ninguna de las respuestas anteriores es correcta. 1. ¿Cual de las siguientes afirmaciones es correcta en un modelo de regresión lineal?. d) La media de los errores en igual a 1. e) La varianza de los errores es constante (Homocedasticidad). f) Los errores del modelo no están distribuidos normalmente. 2. En un modelo de regresión lineal , la multicolinelaidad es un fenómeno: a. Cuando dos o más variables predeterminadas están altamente correladas o relacionadas. b. Muy extraño en los estudios actuales. c. Ocurre cuando las variables predeterminadas estan altamente correladas con la variable endógena. 3. Para calcular FIV: (factor de incremento de varianza): a. Podría estimarse por separado, los modelos de regresión que explican la variable endógena con cada una de las variables predeterminadas. b. Podría estimarse por separado, los modelos de regresión que explican cada variable predeterminada, en función de las restantes variables predeterminadas. c. Se calcula con los coeficientes de correlación entre las variables predeterminadas. 4. Para realizer el test de White: a. Es necesario calcular un modelo auxiliar, donde la variable endógena son los residuos al cuadrado, en función de una constante, de todas las variables predeterminadas, de las variables predeterminadas al cuadrado, y de las combinaciones de las variables predeterminadas tomadas de dos en dos. b. Es necesario estimar por separado, los modelos de regresión que explican cada variable predeterminada en función de los demás. c. No es necesario estimar primero los errores del modelo de regresión original. 5. Un modelo con multicolinealidad: a. Indica que las variables predeterminadas están relacionadas. b. Las variables predeterminadas están relacionadas linealmente. c. Las variables predeterminadas no esta relacionadas. 1) Suponga que una variable expresa información sobre una característica económica en distintos momentos de tiempo y en distintos lugares o espacios. Podemos afirmar que: a) Los datos de la variable constituyen una serie temporal. b) Los datos de la variable son de corte transversal. c) Los datos de la variable son longitudinales o de panel. 2) En la fase de especificación: a) Se obtienen los valores numéricos estimados para los parámetros muestrales. b) Se indican las variables del modelo, así como la forma funcional que las relaciona. c) Se realizan distintos contrastes para comprobar si el modelo estimado cumple con los requisitos o hipótesis de partida. d) Se estiman los valores futuros de la variable endógena o dependiente. 3) Los estimadores obtenidos por el método de mínimos cuadrados ordinarios son. a) Son estimadores sesgados de los parámetros del modelo. b) Estimadores de máxima varianza entre los estimadores lineales. c) Estimadores de media cero y varianza la unidad. d) Son estimadores ELIO. 4) En el modelo lineal Yt = β0 + β1 Xt+ β2 X2+ εt t = 1, 2,…n, εt representa: a) Los residuos o errores del modelo. b) La variable determinista del modelo. c) La variable endógena. d) La parte de la variable endógena o dependiente (Yt) que es explicada por el modelo de regresión. 5) Si un modelo de regresión presenta heterocedasticidad: a) Los estimadores de los coeficientes no son eficientes. b) La varianza del error es constante e independiente de los valores de las variables predeterminadas (o independientes). c) Los estimadores de los coeficientes están sesgados. d) Podemos deducirlo del estudio del Factor de Inflación de la Varianza (FIV) asociado a las variables independientes. 6) El Σ ei xi. a) Es igual a 0. b) Es una propiedad de la recta de regresión. c) Es la segunda ecuación del sistema de ecuaciones normales. d) Todas las respuestas son correctas. 7) La existencia de multicolinealidad implica: a) Una elevada correlación lineal entre la variable endógena (o dependiente) y cada una de las variables predeterminadas (o independientes). b) Una elevada correlación lineal entre variables predeterminadas (o independientes). c) La eliminación simultánea de todas aquellas variables predeterminadas que tengan un FIV superior a 10. d) Que la varianza de los errores no es constante. 8) De la tabla ANOVA (Analisis de la Varianza). a) Se obtiene el valor de los estadísticos t usados para la validación individual de los coeficientes del modelo de regresión. b) Se obtiene el valor del estadístico F utilizado para comprobar si el modelo es o no globalmente válido (o significativo). c) Se obtiene el valor de la desviación típica muestral de los errores. d) Se obtiene el valor estimado de los coeficientes de regresión. 6. Un modelo con multicolinealidad: a. Indica que las variables predeterminadas están relacionadas. b. Las variables predeterminadas están relacionadas linealmente. c. Las variables predeterminadas no esta relacionadas. 7. La heterocedasticidad creciente: a. Se puede detectar con el test de Golfeld and Quandt. b. Se puede detectar con el FIV. c. No existen test para detectarla. 8. En el modelo de regresión y = b0 + b1 X1 + e. a. Si tiene multicolinealidad os estimadores serán insesgados. b. Si tiene multicolinealidad los estimadores seran sesgados. c. Ninguna de las respuestas anteriores es correcta. 9. Para corregir la heterocedasticidad. a. Se incrementará el tamaño de la muestra. b. Se aplicara el método de mínimos cuadrados ordinarios. c. Se aplicara el método de mínimos cuadrados ponderados. 10. La multicolinealidad. a. Lo causa la variable endógena. b. Es un problema de la muestra (multicolinealidad). c. Es un problema de la población(heterocedasticidad). 11. Si un modelo es homocedastico: (insesgados, eficientes y optimos). a. Los parámetros son no optimos. b. La varianza residual no es constante. c. Se rechaza la hipótesis 𝐻1:𝜎𝜀2=𝑓(𝑥1,…,𝑥𝑘). 12. Si un modelo tiene multicolinealidad: a. Indica que los parámetros estimados son sesgados., ( ineficientes y no óptimos). b. Requiere que el modelo tenga al menos dos variables endogenas. c. El test de White tiene que ser superior a 10. 13. Si un modelo presenta indicios de multicolinealidad: a. Puede eliminarse disminuyendo el tamaño de la muestra. b. Es un problema de la muestra. c. Los coeficientes se pueden calcular pero no son fiables en la multicolinealidad exacta. 14. En un modelo de regresión con 6 variables explicativas y 30 observaciones: a. El modelo auxiliar de White tiene 27 parámetros. b. El modelo auxiliar de White tiene 27 variables. c. El modelo auxiliar de White tiene 28 grados de libertad. 15. Un modelo donde los errores son anormales. a. El estadístico JB< χ2. b. Los errores siguen una distribución normal de media 1 y varianza constante.(pq es media 0 ). c. Los errores no cumplen una de sus propiedades. 16. Para realizar la predicción por punto. a. Es necesario conocer la probabilidad. b. El modelo debe no debe estar estimado. c. Se deben conocer los valores futuros de la variable predeterminadas. 17. En el test de White. a. Hay que calcular tantos modelos auxiliares como variables predeterminadas exista en el modelo. b. Indica que variable predeterminada causa heterocedasticidad. c. En los datos de corte transversal tienen mayor probabilidad de que la Prob(χ2 ≥ Wh)= 0. 1) Si un modelo presenta multicolinealidad: a) Se puede corregir mediante la creación de nuevas variables a partir de la transformación de las variables originales que presentan problemas de multicolinealidad. b) Se puede corregir aplicando el método de MCO. c) Ninguna es correcta. d) Se puede corregir aplicando el método de MCP. 2) La multicolinealidad se produce: a) Cuando las variables predeterminadas o independientes están relacionadas linealmente con la endógena (y). b) Cuando las variables predeterminadas o independientes están relacionadas linealmente entre sí. c) Cuando dos variables endógenas están relacionadas linealmente. d) Cuando existe una correlacion de al menos 0.95, en valor absoluto, entre las variables endógenas y las predeterminadas o independientes. 3) La existencia de multicolinealidad se puede intuir si: a) Si el valor del coeficiente de determinación. r2 es elevado, pero sin embargo diversos coeficientes del modelo de regresión no son significativos. b) Si el grafico de dispersión de los errores frente al tiempo muestra una tendencia creciente. c) La correlación lineal de Pearson entre dos variables predeterminadas o independientes es al menos igual a 0,65. d) La nube de puntos del grafico de dispersión de dos variables predeterminadas(X1,X2) no se ajustan a una línea recta. 4) En un modelo con heterocedasticidad : a) Los estimadores MCO ya no son eficientes, por lo tanto no son óptimos. b) Los errores del modelo original de regresión se relacionan entre sí a lo largo del tiempo. c) Los estimadores MCO son sesgados. d) Los estimadores realizados con el modelo siguen siendo fiables. 5) Un modelo con 4 variables explicativas o independientes y 20 observaciones. a) El modelo auxiliar de White tendrá 16 grados de libertad. b) “ “ “ 15 “ “. c) “””””””””””””””””””””””””””””””””14 “””””””””””””. d) “”””””””””””””””””””””””””””””””””19”””””””””””. 6) La heterocedasticidad creciente: a) Indica que la relación entre las variables predeterminadas crece a lo largo del tiempo o del modelo. b) Indica que la varianza de los errores disminuye a lo largo del modelo o del tiempo. c) Ninguna es correcta. d) Indica que la varianza de los errores crece a lo largo del modelo o del tiempo. 7) Con respecto a los test que se pueden utilizar para detectar la existencia de heterocedasticidad: a) El test White es un test de tipo general, que nos dice si existe o no heterocedasticidad , pero no nos informa sobre la forma funcional de la misma. b) Pueden ser generales o individuales. c) Pueden ser exactos o aproximados. d) El test de White es un test de tipo general, que nos dice si existe o no heterocedasticidad y además nos informa sobre las variables que causan el problema. 8) Con respecto a la multicolinealidad , podemos afirmar que : a) Se produce cuando las perturbaciones aleatorias están relacionadas linealmente. b) Se suele producir en modelos de regresión simples. c) Puede ser exacta o más comúnmente aproximada. d) Puede ser creciente o decreciente. 9) Entre las hipótesis que debe cumplir el modelo de regresión lineal podemos encontrar los siguientes: a) La dependencia (correlacion) de los errores cometidos para las distintas observaciones del modelo. b) La no multicolinealidad perfecta de las variables independientes y la distribución normal de los errores con media 0 y varianza constante. c) La no existencia de ningún grado de multicolinealidad entre las variables independientes, y la distribución normal de los errores, con media 0 y varianza constante. d) La no multicolinealidad perfecta de las variables independientes y la distribución normal de los errores, con media cero y varianza variable según los valores de las variables predeterminadas o independientes. 10) En el modelo Vt=100+0,6pt+et. a) Si el FIV de la variable P es >10 el modelo tiene multicolinealidad. b) Este modelo no puede tener multicolinealidad. c) Si el FIV de la variable es >10 el modelo tiene multicolinealidad. d) El FIV de ambas variables, V y P , será el mismo. 11) La multicolinealidad se produce: con la endógena (y). f) Cuando las variables predeterminadas o independientes están relacionadas linealmente entre sí. g) Cuando dos variables endógenas están relacionadas linealmente. h) Cuando existe una correlacion de al menos 0.95, en valor absoluto, entre las variables endógenas y las predeterminadas o independientes. 12) La existencia de multicolinealidad se puede intuir si: e) Si el valor del coeficiente de determinación. r2 es elevado, pero sin embargo diversos coeficientes del modelo de regresión no son significativos. f) Si el grafico de dispersión de los errores frente al tiempo muestra una tendencia creciente. g) La correlación lineal de Pearson entre dos variables predeterminadas o independientes es al menos igual a 0,65. h) La nube de puntos del grafico de dispersión de dos variables predeterminadas(X1,X2) no se ajustan a una línea recta. 13) Entre las hipótesis que debe cumplir el modelo de regresión lineal podemos encontrar los siguientes: e) La dependencia (correlacion) de los errores cometidos para las distintas observaciones del modelo. f) La no multicolinealidad perfecta de las variables independientes y la distribución normal de los eroores con media 0 y varianza constante. g) La no exixtencia de ningún grado de multicolinealidad entre las variables independientes, y la distribución normal de los errore, con media 0 y varianza constante. h) La no multicolinealidad perfecta de las variables independientes y la distribución normal de los errores, con media cero y varianza variable según los valores de las variables predeterminadas o independientes. 14) Si un modelo es Homocedástico ( se acepta la H0). a) Se rechaza la hipótesis Ho. b) Los estimadores son sesgados. c) Los estimadores serán insesgados (eficientes y óptimos ). d) Se acepta la hipótesis H1. 15) Si las regresiones auxiliares que explican cada regresor( o variable predeterminada) en función del resto de regresores, presentan valores de R2 próximos a 1(esto indicará que el FIV es muy elevado). a) Existe correlación perfecta o exacta. b) Es probable que exista multicolinealidad débil. c) Es probable que la media de los errores del modelo original de regresión no sea cero. d) Es probable que existan problemas de multicolinealidad. 16) Para calcular el FIV. a) Es necesario estimar, de forma separada, los modelos de regresión auxiliar que explican cada variable predeterminada en función de la variable endó´gena y el resto de variables predeterminadas. b) Se puede estimar, de forma separada, los modelos de regresión auxiliar que explican cada variable predeterminada en función de las restantes variables predeterminadas del modelo. c) Es necesario calcular primero la tolerancia y luego determinar su inversa. d) Es siempre necesario estimar, de forma separada, los modelos de regresión auxiliar que explican cada variable predeterminada en función de las restantes variables predeterminadas del modelo. 17) En un modelo que tiene heterocedasticidad: a) Se debe corregir eliminando una a una aquellas variables que tienen un FIV alto. b) Se corrige aplicando el método de MCO. c) Se corrige aplicando un método diferente al de mínimos cuadrados ordinarios, como el de mínimos cuadrados ponderados. d) Los estimadores obtenidos por mínimos cuadrados ordinarios siguen siendo eficientes. 18) Para aplicar el test White : a) Es necesario estimar la regresión que explica los errores en función de las variables predeterminadas, sus cuadrados y sus interacciones. b) Es necesario estimar, de forma separada, los modelos de regresión auxiliar que explican cada variable predeterminada en función de las restantes variables predeterminadas del modelo. c) Es necesario calcular un modelo auxiliar para obtener su R2 y luego realizar el producto n*R2. d) Es necesario estimar la regresión que explica el cuadrado de los errores en función de la variable endógena, las variables predeterminadas , sus cuadrados y sus interacciones. 1) Suponga que una variable expresa información sobre una característica económica en distintos momentos de tiempo y en distintos lugares o espacios. Podemos afirmar que: a) Los datos de la variable constituyen una serie temporal. b) Los datos de la variable son de corte transversal. c) Los datos de la variable son longitudinales o de panel. d) Ninguna respuesta es correcta. 2) En la fase de especificación: a) Se obtienen los valores numéricos estimados para los parámetros muestrales. b) Se indican las variables del modelo, así como la forma funcional que las relaciona. c) Se realizan distintos contrastes para comprobar si el modelo estimado cumple con los requisitos o hipótesis de partida. d) Se estiman los valores futuros de la variable endógena o dependiente. 3) Los estimadores obtenidos por el método de mínimos cuadrados ordinarios son. a) Son estimadores sesgados de los parámetros del modelo. b) Estimadores de máxima varianza entre los estimadores lineales. c) Estimadores de media cero y varianza la unidad. d) Son estimadores ELIO. 5) Si un modelo de regresión presenta heterocedasticidad: a) Los estimadores de los coeficientes no son eficientes. b) La varianza del error es constante e independiente de los valores de las variables predeterminadas (o independientes). c) Los estimadores de los coeficientes están sesgados. d) Podemos deducirlo del estudio del Factor de Inflación de la Varianza (FIV) asociado a las variables independientes. 7) La existencia de multicolinealidad implica: a) Una elevada correlación lineal entre la variable endógena (o dependiente) y cada una de las variables predeterminadas (o independientes). b) Una elevada correlación lineal entre variables predeterminadas (o independientes). c) La eliminación simultánea de todas aquellas variables predeterminadas que tengan un FIV superior a 10. d) Que la varianza de los errores no es constante. 8) De la tabla ANOVA (Analisis de la Varianza). a) Se obtiene el valor de los estadísticos t usados para la validación individual de los coeficientes del modelo de regresión. b) Se obtiene el valor del estadístico F utilizado para comprobar si el modelo es o no globalmente válido (o significativo). c) Se obtiene el valor de la desviación típica muestral de los errores. d) Se obtiene el valor estimado de los coeficientes de regresión. Cuando se tiene información de una variable en distintos espacios de tiempo y en distintos lugares. Los datos de la variable son de tiempo. Los datos de la variable son de corte transversal. Los datos de la variable son de panel. En la fase de espicificación. Se obtienen los valores numéricos para los parámetros muestrales. Se indican las variables del modelo así como la forma funcional que las relaciona. Se realizan distintos contrastes para comprobar si el modelo estimado es correcto. Los estimadores obtenidos por el método de mínimos cuadrados ordinarios son. Son estimadores insesgados de los parámetros del modelo. Estimadores de máxima varianza entre los estimadores lineales. Estimadores de media cero y varianza constante. En el modelo lineal Yt= B0 + B1*X1 + B2*X2 + Et t=1,2,...n,, se tiene Et son: Los Et son los residuos del modelo. El modelo tiene dos mínimos. La variable endógena es estocástica. En el modelo Yt=b1*Xt + et con n observaciones. El coeficiente de regresión (R^2) es igual al R^2 ajustado. El coeficiente de regresión (R^2) es menor al R^2 ajustado. El coeficiente de regresión (R^2) es mayor al R^2 ajustado. Si Ey^x (NO =) 0. Es una propiedad de los parámetros. Es una propiedad descriptiva de la recta de regresión. Ninguna de las respuestas anteriores es correcta. De la tabla ANOVA (Análisis de la Varianza). Se obtiene directamente el R^2. Se obtiene el estadístico para analizar si el modelo es o no globalmente significativo. Se obtiene el estadístico para analizar si el parámetro es individualmente o no individualmente significativo. |