Econometría T2
![]() |
![]() |
![]() |
Título del Test:![]() Econometría T2 Descripción: Econometría t2 |




Comentarios |
---|
NO HAY REGISTROS |
En un MRLC, el vector de estimadores MCO se obtiene... Minimizando la suma de los errores. Minimizando la suma de los valores absolutos de los errores. Igualando a cero la derivada de la suma de los cuadrados de los errores respecto a los estimadores. Minimizando las diferencias entre los valores reales y esperados de Y, para todas las observaciones muestrales. Las perturbaciones aleatorias en un MRLNC. Presentan varianzas que aumentan al incrementarse el tamaño de la muestra. Suman siempre cero. No están nunca correlacionadas. Expresan los errores que comete la estimación. Si se estima un modelo de regresión y a continuación volvemos a estimar incluyendo una variable explicativa adicional. La suma de los cuadrados de errores no cambia. La suma de los cuadrados totales sigue siendo la misma. El coeficiente de determinación no varía. El %ES aumenta. Bajo las hipótesis del MRLC, la esperanza del regresando. Coincide con la esperanza de la perturbación aleatoria. Es la parte no aleatoria del modelo. Es la diferencia entre el verdadero valor del regresando y su valor estimado. Es aleatoria. El vector b es un estimador insesgado del vector β lo que significa que. A medida que aumenta el tamaño de la muestra, el vector b se aproxima al vector β. b es un vector aleatorio del que desconocemos su valor esperado. El valor esperado de 𝒃𝒊 es igual a 𝜷𝒊 para todo i, variando i de cero hasta k. Ninguna de las anteriores respuestas es correcta. En un modelo estimado por MCO, para poder efectuar la descomposición de la varianza del regresando. El modelo deber ser un modelo simple. Se debe cumplir que la suma de los errores sea mínima. Debe existir 𝜷𝟎. No puede existir correlación muestral entre los regresores y los errores. En un MRLNC la perturbación aleatoria. Es una variable explicativa que se introduce en el modelo econométrico para diferenciarlo de un modelo matemático. Es una variable observable que recoge la diferencia entre el verdadero valor de la variable y su valor estimado. Su valor esperado es el residuo o error. Es una variable estocástica que recoge la diferencia entre el verdadero valor del regresando y su valor esperado. Bajo las hipótesis de un MRLC. El límite probabilístico del parámetro coincide con el valor del estimador MCO. La esperanza matemática del estimador MCO no coincide con el verdadero valor del parámetro. V(Y) = σ2(XtX)−1. El rango de X es igual al número de parámetros de la ecuación del modelo. En un modelo clásico con ordenada en el origen la media de los errores. Debe ser mínima. Siempre es nula. Es nula, si se ha estimado el modelo por MCO. Ninguna de las anteriores. En un MRLC. Todas las perturbaciones mantienen la misma dispersión en torno a su valor esperado. Las variables explicativas tienen que ser controlables para poder efectuar la estimación. Las variables explicativas y el regresando tienen que ser no aleatorias. Ninguna de las anteriores. Bajo las hipótesis del MRLC, la varianza del regresando es: V(Y) = σ2(XtX)−1. V(Y)=σ2. Constante a lo largo del período muestral. Una variable aleatoria. Cuando un modelo de regresión lineal clásico con término constante se estima por MCO. La SCE vale cero. La SCT es menor que la SCR. Las medias muestrales de los valores estimados de Y y de los valores observados de Y, son iguales entre sí. El coeficiente de determinación puede tomar valores negativos. En el contexto del MRLNC, la hipótesis de regresores no estocásticos implica, entre otras cosas, que: Las perturbaciones no están correlacionadas con los regresores. El rango de X es igual a T. El rango de X es menor al número de columnas de esta matriz. Los regresores están incorrelacionados entre sí. Al estimar por MCO un modelo clásico, los residuos derivados de dicha estimación. Coinciden con los verdaderos valores no observables de las perturbaciones del modelo. Suman siempre cero. No siempre están incorrelaccionados con los regresores incluidos en el modelo. Resultan útiles, entre otras cosas, para realizar un diagnóstico del modelo estimado. Si un modelo de regresión presenta un bajo valor de 𝑅2, esto es debido a. Un bajo valor de los errores de la estimación. Que la SCT se aproxima a cero. Ausencia de variables explicativas relevantes. Ausencia de ordenada en el origen. El estimador MCO se deriva. Minimizando la suma de los cuadrados de los residuos. Minimizando la suma de los valores absolutos de los residuos. Conectando el valor de Yi correspondiente al valor mayor de Xi. Igualando la desviación típica de la perturbación con la desviación típica del estimador de la pendiente. La media muestral de los residuos MCO en un modelo simple con ordenada en el origen. Es positiva, ya que los residuos se obtienen por MCO. Es cero. Es inobservable. Depende de si la variable explicativa toma valores positivos o negativos. El 𝑅2 de un modelo simple es una medida de. El cuadrado del determinante de Rx. Sí o no la variable X causa Y. Bondad de ajuste de la recta de regresión. Sí o no la SCE es mayor que la SCT. Un modelo de regresión lineal clásico. Se puede estimar con una muestra temporal o atemporal. Debe cumplir la hipótesis de heterocedasticidad. Debe incluir siempre más de una variable explicativa. Puede tener regresores estocásticos. Cuando se cambian las unidades de medida sólo del regresando de un modelo econométrico. Los valores que toman los estimadores MCO de los parámetros no varían. El coeficiente de determinación puede mejorar. Los estimadores serán más precisos si las nuevas unidades son más pequeñas. La suma de los cuadrados de los errores MCO puede aumentar o disminuir. La matriz V(b). Contiene en su diagonal principal las varianzas de los estimadores MCO. Contiene en su diagonal principal las varianzas de los errores. No es trascendente para la estimación MCO. Sirve para analizar si la perturbación cumple las hipótesis de un modelo clásico. El vector b (MCO) en un modelo clásico es un estimador óptimo de β lo que significa: A medida que aumenta el tamaño de la muestra el vector b se aproxima a β. El valor de bi = βi para todo i = 1,...., k. Es un buen estimador, por eso decimos que es óptimo. Es el de varianza mínima dentro de los de su clase, es decir entre los lineales e insesgados. En un MRLNC al efectuar la estimación MCO. Estamos minimizando la suma de los residuos. Estamos minimizando la varianza de la perturbación aleatoria. Obtenemos estimadores con varianzas pequeñas. Obtenemos un vector de estimadores (b) cuya distribución de probabilidad tiene un valor esperado igual al vector de parámetros de la ecuación (β). Un valor elevado de 𝑅2 significa que. El modelo es un buen predictor. Las variables explicativas del modelo propuesto, explican en gran medida la variación del regresando. Las variables explicativas del modelo propuesto, no explican en gran medida la variación del regresando. Ninguna de las anteriores. El modelo de regresión lineal clásico (MRLC) se estima por MCO porque. El modelo econométrico es lineal. Es el único método de estimación que se puede aplicar. Nos permite obtener estimadores con buenas propiedades. El modelo tiene perturbaciones con distribución normal. Si efectuamos una estimación por MCO. Siempre se cumple que Ymedia = Yestimada media. La suma de las perturbaciones es siempre nula. En todo caso se cumple que SCT = SCR + SCE. En todo caso se cumple que ∑ 𝒚̂𝒕𝒆𝒕 = 𝟎. Si estimamos un modelo de regresión lineal clásico y obtenemos un coeficiente 𝑅2 muy bajo, se puede mejorar este último... Añadiendo alguna nueva variable dependiente. Incorporando alguna nueva variable explicativa. Aumentando la suma de los cuadrados de los errores. Expresando las variables de ese modelo en otras unidades diferentes. Si estimamos por MCO un MRLC en el que la variable explicada está expresada en euros, y a continuación se estima de nuevo con ella expresada en dólares, entonces. Los estimadores de las dos estimaciones serán iguales, exceptuando el estimador de β0. Las varianzas estimadas de los bien la primera estimación coinciden con las de la segunda estimación. La SCE de la segunda estimación será más grande que la SCE de la primera. El coeficiente de determinación de la segunda estimación será peor porque los errores serán más grande. En un MRLNC al efectuar la estimación por MCO. Obtenemos un vector de estimadores cuyo valor esperado es el mismo que el de la perturbación. Obtenemos estimadores que tienen las varianzas más pequeñas de entre todos los estimadores lineales e insesgados. Obtenemos estimadores con varianzas pequeñas. Obtenemos estimadores cuyas varianzas son nulas. La hipótesis de incorrelación de las perturbaciones indica que. La covarianza de la perturbación es constante. Las covarianzas entre los distintos términos de la perturbación son nulas. La matriz de varianzas-covarianzas de la perturbación ya no es escalar. La covarianza entre los regresores y las perturbaciones es distinta de cero. En un modelo de regresión con dos regresores, el coeficiente de determinación ajustado. No puede ser negativo. Es igual al cuadrado del coeficiente de correlación entre los dos regresores. No puede decrecer cuando se incorpora una variable explicativa adicional. Nunca será mayor que el coeficiente de determinación. Si se estima por el método de mínimos cuadrados ordinarios un modelo de regresión lineal clásico (MRLC) en el que el regresando está expresado en euros y los regresores en toneladas, y a continuación se estima de nuevo con el regresando en miles de euros. La suma de cuadrados de los errores que cometerá la segunda estimación será igual a la de la primera. Sólo se verá afectada la estimación del parámetro β0. Los estimadores de la segunda estimación serán más pequeños. Ninguna de las anteriores respuestas es correcta. Bajo las hipótesis de un MRLNC, el Teorema de Gauss-Marlov implica que... El estimador MCO de la varianza de las perturbaciones es insesgado. El estimador MCO (b) tiene varianzas mínimas dentro de la clase de los estimadores lineales e insesgados de β. El estimador MCO (b) tiene esperanza mínima dentro de la clase de los estimadores lineales e insesgados de β. El estimador MCO (b) es el único estimador insesgado de β que existe. Si en un modelo econométrico la esperanza de la perturbación no es cero: El modelo sigue siendo un MRLC. En el modelo falta alguna variable explicativa relevante. La perturbación aleatoria es una variable “ruido blanco”. El modelo no se puede estimar por MCO. Cuando en un modelo efectuamos el mismo cambio de escala en el regresando y en el regresor 𝑋1. Los valores de todos los estimadores permanecen inalterados. El estimador 𝒃𝟏 permanece inalterado. El nuevo coeficiente de determinación es el resultado de multiplicar el original por el cuadrado de dicho cambio de escala. Sólo se ven afectados los estimadores correspondientes a las variables explicativas. Si incluimos una variable explicativa en un modelo: La suma de los cuadrados de los errores aumenta. La suma de los cuadrados totales aumenta. La disminución de la SCE será mucho mayor que el aumento de la SCR. Ninguna de las anteriores respuestas es correcta. Las hipótesis de que el 𝑟𝑎𝑛𝑔𝑋 = 𝑘 + 1 < 𝑇. Significan que la matriz X es no estocástica. Significan, en el caso del modelo simple, que la única variable explicativa incluida en la ecuación del modelo, toma valores constantes en todas las observaciones. Suponen que el rango de X coincide con el número de columnas de dicha matriz, el cual será estrictamente mayor que su número de filas. Son necesarias para el cálculo de la inversa de (𝑿𝒕𝑿) y de diversos estadísticos donde interviene el elemento (𝑻 − 𝒌 − 𝟏). Con la fórmula 𝑉(𝑏) = 𝜎2(𝑋𝑡𝑋)−1, denotamos: La matriz de varianzas-covarianzas de los estimadores, siendo los elementos diagonales de dicha matriz las covarianzas entre los estimadores. La matriz de varianzas-covarianzas de los estimadores lineales e insesgados del modelo clásico. La matriz de varianzas-covarianzas estimada. Ninguna de las respuestas anteriores es correcta. El hecho de que un estimador sea preciso, significa que: Su esperanza matemática coincide con el verdadero valor del parámetro. Su desviación típica es pequeña en relación con el valor estimado. Que el modelo estimado es adecuado para predecir. Que la variable que acompaña al parámetro correspondiente no tiene influencia significativa sobre el regresando (si βi = 0). Bajo las hipótesis de un MRLC: La perturbación es una variable aleatoria, pero el regresando no lo es. Tanto la perturbación como el regresando son variables aleatorias. El regresando y los regresores son variables aleatorias. Tanto la perturbación como los regresores son variables no estocásticas. En un MRLC: La varianza del regresando es constante a lo largo de toda la muestra. La varianza de los distintos términos de la perturbación no es igual a lo largo de toda la muestra. El rango de la matriz X es igual al número de observaciones. Los diferentes términos de la perturbación son variables aleatorias independientes. La matriz de varianzas-covarianzas de la perturbación es: Escalar, cuando se cumple la hipótesis de incorrelación. Simétrica en todo caso, ya que la covarianza entre dos variables no se altera por el orden en que expresemos dichas variables. Imposible de estimar con independencia de lo restrictivas que sean las hipótesis referidas al comportamiento de la perturbación. Escalar en todo caso, ya que de lo contrario estaríamos con estimadores de los parámetros que presentarían correlación. Para que sea posible obtener los estimadores MCO es necesario que se cumpla la hipótesis de: Esperanza nula. La matriz de varianzas-covarianzas de la perturbación sea escalar. La hipótesis de rango pleno. Que los regresores sean no estocásticos. En un modelo sin ordenada en el origen: Se puede efectuar la descomposición de la varianza muestral. El punto (Xmedia, Ymedia) pertenece a la recta de regresión poblacional. ∑ 𝒆𝒕𝒙𝒊𝒕 = 𝟎, se cumple siempre. ∑ et = 0, se cumple siempre. En un modelo sin ordenada en el origen: No podemos obtener los estimadores MCO. El rango de la matriz X es k+1. La suma de los errores no es nula. No podemos descomponer la SCT en SCR y SCE. Si se cumplen las propiedades del ajuste MCO: Existe correlación muestral entre los errores y los regresores. La suma de los errores es mínima. Es posible descomponer SCT en suma de SCR y SCE. La media muestral de los errores no es nula. En general, a un valor elevado de le corresponde un bajo % de RECM. Y a un valor bajo de R2 le corresponderá un reducido %RECM. Sin embargo, cuando la variable explicativa presenta escasa variabilidad puede ocurrir que a un valor bajo del %RECM le corresponda un valor no demasiado elevado de 𝑹𝟐. Sin embargo R2puede tomar un valor bajo sin que el %RECM sea elevado, cuando la variable explicada tiene una gran variabilidad y un valor medio bajo. Ninguna de las afirmaciones anteriores es correcta. Si efectuamos un cambio de escala en las variables de un modelo econométrico, el estimador de la ordenada en el origen: No se verá afectado. Sólo se verá afectado por el cambio de escala efectuado en los regresores. Se ve afectado tanto por el cambio de escala efectuado en el regresando, como el efectuado en los regresores. Sólo se ve afectado por el cambio de escala efectuado en el regresando. Si efectuamos un cambio de escala en las unidades de medida de los regresores: La SCE aumenta. Se ve afectado el estimador de la varianza de la perturbación. Se ve afectado el estimador de la ordenada en el origen. La SCT no varía. Si efectuamos algún cambio de escala en las variables de un modelo econométrico, el coeficiente de determinación: Sólo se ve afectado por el cambio de escala efectuado en el regresando. Se ve afectado por los cambios de escala efectuados tanto en el regresando como en los regresores. No se ve afectado. Sólo se ve afectado por los cambios de escala de los regresores. Como efectos de un cambio de escala tenemos: Según el signo del factor de conversión, tanto la precisión de los estimadores como la bondad del ajuste, pueden aumentar o disminuir. Siempre sube la precisión de los estimadores. Siempre baja la bondad del ajuste. El cambio de escala no tiene efectos sobre la precisión de los estimadores ni sobre la bondad del ajuste. Si efectuamos un cambio en las unidades de medida de los regresores: Se ve afectado el estimador de la varianza de la perturbación. Se ve afectado el estimador de la ordenada en el origen. Se ve afectada la SCT. 𝑹𝟐 no varía. Cuando en un modelo efectuamos un cambio de escala en el regresando: Los valores de los estimadores no cambian. La suma de cuadrados de los errores es el resultado de multiplicar la original por el cuadrado de dicho cambio de escala. Sólo se ve afectado el estimador de la ordenada en el origen. Sólo se ven afectados los estimadores correspondientes a las variables explicativas. En un MRLNC al efectuar la estimación por MCO. Obtenemos estimadores cuyas varianzas son nulas. Obtenemos estimadores que son variables aleatorias por lo que sus valores serán diferentes en distintas muestras, aunque los elementos de la matriz X no se alteren. Obtenemos estimadores con varianzas pequeñas. Obtenemos un vector de estimadores cuya distribución de probabilidad tiene la misma media que la de la perturbación. En un MRLNC. Se asume la hipótesis de que la suma de los errores es cero. Todas las perturbaciones mantienen la misma dispersión en torno a su valor esperado. Las variables explicativas y el regresando tienen que ser no aleatorias. El vector de parámetros sigue una distribución normal. Únicamente una de las siguientes cuestiones es una hipótesis correcta del modelo clásico, indica cual: La suma de los residuos es nula. La matriz de regresores es una matriz aleatoria. El rango de la matriz X coincide con el número de parámetros a estimar. Hay incorrelación entre los regresores y los residuos. |