ECONOMETRIA II
![]() |
![]() |
![]() |
Título del Test:![]() ECONOMETRIA II Descripción: BIMESTRE I BIMESTRE II |




Comentarios |
---|
NO HAY REGISTROS |
Qué es autocorrelación positiva: a. Un valor positivo (o negativo) de u genera una sucesión de valores positivos (o negativos). b. Un valor positivo de u genera una sucesión de valores positivos. c. Un valor negativo de u genera una sucesión de valores negativos. Qué es autcorrelación negativa: a. Un valor positivo de u genera una sucesión de valores negativos o vicevers. b. Un valor positivo de u genera una sucesión de valores positivos. c. Un valor negativo de u genera una sucesión de valores negativos. Cuáles son las causas de la autocorrelación: a. Los r cuadrados elevados para cada variable explicativa. b. La existencia de ciclos y/o tendencias. c. Las variables dicótomas. Cuáles son las causas de la autocorrelación: a. Distintas varianzas en las variables explicativas. b. R cuadrado muy altos. c. La omisión de variables relevantes. Cuáles son las causas de la autocorrelación: a. Que los residuos sean independientes del tiempo. b. Que los residuos no sean independientes del tiempo. c. Que los residuos sean estables en el tiempo. Con qué prueba se puede detectar la autocorrelación: a. Distribución F. b. T de student. c. Breusch-Godfrey. Con qué prueba se puede detectar la autocorrelación: a. D de durbin Whatson. b. Z normal. c. Chi cuadrada. Cuál de los siguientes criterios hacen referencia a la minería de datos: a. Regresión al tanteo, extracción de datos, sondeo de datos y procesamiento masivo de datos numéricos. b. Regresión en dos etapas, mínimos cuadrados generalizados. c. Autocorrelación y error de especificación. Cuál de los siguientes criterios hace referencia a error de especificación. a. Los errores de medición son graves cuando están presentes en las variables explicativas porque su presencia hace imposible la estimación consistente de los parámetros. b. La autocorrelación no permite una estimación adecuada. c. Los errores de medición pueden ser un problema pero permiten establecer de manera consistente de los parámetros. Para seleccionar un modelo econométrico adecuado, las predicciones basadas en el modelo deben ser: a.Logaritmo. b.Lineales. c. Independiente de la forma deben ser lógicamente posibles. Cuál de los siguientes enunciados es correcto si se agrega una variable irrelevante al modelo: a. Todos los estimadores de MCO de los parámetros del modelo “incorrecto” son insesgados y consistentes. b. Todos los estimadores de MCO de los parámetros del modelo “incorrecto” son sesgados e inconsistentes. c. No es correcto utilizar los estimadores de MCO. Qué es autocorrelación: a. El término autocorrelación se define como la “correlación entre miembros de series de observaciones ordenadas en el tiempo [o en el espacio). b. El término autocorrelación se define como la correlación perfecta entre las variables explicativas. c. El término autocorrelación se define como la existencia de varianzas diferentes entre las variables. Para seleccionar un modelo econométrico adecuado, las predicciones basadas en el modelo deben ser: a. Logarítmicas. b. Lineales. c. Independiente de la forma deben ser lógicamente posibles. Cuál de los siguientes enunciados es verdadero. a. El término autocorrelación hace referencia a la correlación entre los residuos. b. El término autocorrelación, se define como la existencia de varianzas iguales entre las variables. c. El término autocorrelación se define como la existencia de varianzas diferentes entre las variables. Cuál de los siguientes es un error de especificación: a. Multicolinealidad. b. Omisión de Variables Relevante. c. Usar Variables dicótomas. Cuál de los siguientes enunciados es correcto: a. Aunque en presencia de autocorrelación los estimadores de MCO se mantienen insesgados, consistentes y distribuidos asintóticamente en forma normal, dejan de ser eficientes. b. Aunque en presencia de autocorrelación los estimadores de MCO se mantienen insesgados, consistentes y distribuidos asintóticamente en forma normal, siguen siendo eficientes. c. Siguen siendo eficientes. Cuál de los siguientes es un error de especificación: a. Inclusión de variables superfluas. b. Usar Variables dicótomas. c. Autocorrelación. Cuál de los siguientes es un error de especificación: a. Mala Especificación de la Forma Funcional. b. Heterocedasticidad. c. Multicolinealidad. Cuando se incluyen variables superfluas en el modelo: a. La estimación de los B son isnesgados. b. Existe autocorrelación. c. Existe Multicolinealidad. Cuando se incluyen variables superfluas en el modelo: a. Las varianzas de los estimadores aumentan. b. Disminuyen los r cuadrados. c. Existe multicolinealidad. La elección de un modelo para el análisis empírico debe satisfacer cuales de los siguientes criterios. a. Ser adecuado para los datos; es decir, las predicciones basadas en el modelo deben ser lógicamente posibles. b. Ser consistente con la teoría; es decir, debe tener un sentido económico pertinente. c. No es necesario que sea consistente con la teoria. d. Tener coeficientes de correlación elevado. La elección de un modelo para el análisis empírico debe satisfacer cuales de los siguientes criterios. a.No deben tener consistencia los pArametros pero si las pruebas t y F. b. Las variables explicativas deben estar correlacionadas con el término de error. c. Las variables explicativas, o regresoras, no deben estar correlacionadas con el término de error. d. Mostrar constancia en los parámetros; es decir, los valores de los parámetros deben ser estables. La elección de un modelo para el análisis empírico debe satisfacer cuales de los siguientes criterios. a. Tener variables dicótomas. b. Exhibir coherencia en los datos; es decir, los residuos estimados a partir del modelo deben ser puramente aleatorios (técnicamente, ruido blanco). c. Ser inclusivo; es decir, el modelo debe abarcar o incluir todos los modelos contendientes,. d. Que las variables explicativas estén relacionadas. Que sucede al incluir variables insignificantes en el modelo son: a. Todos los estimadores de MCO de los parámetros del modelo "incorrecto" son insesgados y consistentes. b. La varianza del error G2 está correctamente estimada. c. LA varianzas no estan correctamente especificadas. Que sucede al incluir variables insignificantes en el modelo son: a.Los procemidmientos usuales de invervalos de confianza y de pruebas de hipótesis conservan su validez. b. La varianzas no estan correctamente especificadas. c.Los errores estan mal estimados. d. las αestimadas por lo general serán ineficientes, es decir sus varianzas generalmente serán más grandes que las B del verdadero modelo. Cuáles de las siguientes son pruebas para variables omitidas y forma funcional incorrecta: a. Prueba de normalidad. b. T de studen. c. Exámen de los residuos. d.Estadístico durbin whatson. Cuáles de las siguientes son pruebas para variables omitidas y forma funcional incorrecta: a. R cuadrado. b. Prueba RESET de Ramsey. c. T de students. d. Examen de residuos. Para aplicar la d de Durbin Whatson para detectar error de especificación, cuáles son los pasos: a.PASO 1 A partir de un modelos supuesto, obtenga los errores estandar. b.PASO 1 A partir de un modelos supuesto, obtenga los residuos. c. PASO2 Si se cree que el modelo supuesto está mal especificado ordene los residuos obtenidos en el paso 1 de acuerdo con los valores crecientes de Z. c. PASO2 Si se cree que el modelo supuesto está bien especificado ordene los residuos obtenidos en el paso 1 de acuerdo con los valores decrecientes de Z. Para aplciar la d de Durbin Whatson para detectar error de especificación, cuáles son los pasos: a. PASO3. Calcule el estadistico d a partir de los residuos. b. PASO3. Calcule los coeficientes de determinación. c. PASO4: Con base en las tablas de Durbin Whatson si el valor d estimado es significativo, se puede aceptar la hipótesis de mala especificación del modelo. D.PASO4: Con base en las tablas de Durbin Whatson si el valor d estimado no es significativo, se puede aceptar la hipótesis de mala especificación del modelo. Cuáles son los pasos para la prueba de RESET para determinar error de especificación: a. PASO 1.Obtener Y estimada a partir del modelo seleccionado. b. PASO 1.Obtener los residuos. c. PASO 2. Efectuar la nueva regresión introduciendo y estimada como una o varias regresoras adicionales. d.PASO 2. Efectuar la nueva regresión introduciendo y estimada como una o varias regresoras adicionales. Cuáles son los pasos para la prueba de RESET para determinar error de especificación: a. PASO 3. Se utiliza la Prueba Z luego de obtener R cuadrado nueva y la obtenida R cuadrado vieja. b. PASO 4. Si el Valor z Calculado es significativo, se acepta la hipótesis de que el modelo está mal especificado. c. PASO 3. Se utiliza la Prueba F luego de obtener R cuadrado nueva y la obtenida R cuadrado vieja. d. PASO 4. Si el Valor F Calculado es significativo, se acepta la hipótesis de que el modelo está mal especificado. En qué consiste la prueba del Multiplicador de Lagrange: a. PASO 1. Estime la regresión mediante MCO y obtenga las residuos ui. b. Si la regresión no restrignida resulta ser la verdadera, los resiudos obtenidos deben estar relacionados con los términos elevados al cuadrado y al cubo (x2,x3). a. PASO 1. Estime la regresión mediante MCG y obtenga las residuos ui. b. Si la regresión restrignida resulta ser la verdadera, los resiudos obtenidos deben estar relacionados con los términos elevados al cuadrado y al cubo (x2,x3). Cuáles de los siguientes son cirterios para selecciónar el modelo adecuado. a. El criterio R2. b. R cuadrado ajustada. c. T de student. d. Prueba F. Cuáles de los siguientes son cirterios para selecciónar el modelo adecuado. a.Criterio de infromación de Akaike. b. T de student. c.Varianzas. d. Criterio de información de Schwarz. Cuáles de los siguientes son cirterios para selecciónar el modelo adecuado. a. Prueba F. b. Creiterio Cp de Mallows. c. Criterio de información de Schwarz. d. Errores de especificación. Algunos modelos pueden parecer no lineales en los parámetros pero ser inherente o intrínsecamente lineales. V. F. Modelos que no pueden linealizarse en los parámetros, se les conoce como modelos de regresión intrínsecamente no lineales. V. F. Aunque los modelos de regresión lineal predominan en la teoría y en la práctica, hay ocasiones en las que son útiles los modelos de regresión no lineales en los parámetros (MRNL). V. F. Los problemas de autocorrelación, heteroscedasticidad y especificación de modelos no afectan a los MRNL, como afectan a los modelos de regresión lineales. V. F. El coeficiente de determinación (R2) es particularmente importante para un MRNL. V. F. Para los modelos de regresión intrínsecamente no lineales, los valores de los parámetros se obtienen de manera explícita. V. F. Para los modelos de regresión intrínsecamente no lineales, los valores de los parámetros no se obtienen de manera explícita. Deben calcularse de forma numérica; es decir, mediante procesos iterativos. V. F. Los problemas de autocorrelación, heteroscedasticidad y especificación de modelos pueden afectar a los MRNL, como afectan a los modelos de regresión lineales. V. F. La inferencia estadística en la regresión con MCNL no puede basarse en las pruebas t, F y χ2 usuales, aunque se suponga que el término de error está normalmente distribuido. V. F. El coeficiente de determinación (R2) no es un número particularmente importante para un MRNL. V. F. En qué consiste el modelo de optimización directa. a.Se diferencia la suma de cuadrados de los errores respecto de cada coefi ciente o parámetro desconocido,. b. Se estima mínimos cuadrados ordinarios. c.Se estiman mínimos cuadrados generalizados. d. Se iguala la ecuación resultante a cero y se resuelven las ecuaciones normales obtenidas de manera simultánea. La estimación del MRNL mediante la expansión de series de Taylor se sistematiza con dos algoritmos conocidos como: a. D de durbin Whatson. b. R cuadrado. c.Método iterativo Gauss-Newton. d. Método iterativo Newton-Raphson. El método de estimación de modelos de regresión no lineales de búsqueda directa también se conoce como: a. Método de rensayo y error. b. Método de libre derivación. c. Método iteractivo. d. Mínimos cuadrados. Cuáles de los siguientes son métodos para obtener los MRNL: a. Ensayo y error. b. Mínimos cuadrados no lineales MCNL. c.Mínimos cuadrados ordinarios MCO. d.Mínimos cuadrados generalizadosMCG. Cuáles de los siguientes son métodos para obtener los MRNL: a. Coeficiente de akaike. b. Linealización mediante la expansión de series de Taylor. c. Método de Ensayo y error. d. Multiplicador de lagrange. Cuáles de las siguientes son rutinas iterativas. a.Gauss Newton. b. Newton-Raphson. c.MCO. d.MCG. Cuáles de las siguientes son rutinas iterativas. a. Market. b.Newton-Raphson. c.MCO. d. MCG. Para los modelos de regresión intrínsecamente no lineales: a. Los parámetros deben calcularse mediante MCO. b. Los valores de los parámetros deben calcularse mediante MCO. c. Los valores de los parámetros no se obtienen de manera explícita. d. Los valores de los parámetros deben calcularse de forma numérica mediante procesos iterativos. Al igual que los modelos de regresión lineal, qué problemas pueden afectar a los MRNL. a. Autocorrelación. b. Determinación. c. Heterocedasticidad. d. Igual Varianza. La linealización mediante la expansión de series de Taylor es un método para estimar: a. Autocorrelación. b. MRNL. c. MCO. d. Heterocedasticidad. En qué consiste la Multicolinealidad: A. Consiste e la relación entre las variables independientes del modelo uniecuacional múltiple y su rezago en el tiempo. B. Consiste enla existencia de relaciones lineales entre dos o más variables indebendientes del modelo uniecuacional múltiple. C. Consiste en la diferencia de las varianzas entre dos o más variables independientes del modelo uniecuacional simple. Cuales son las principales causas que produce Muticolinealidad en un modelo. A. Amplia diferencia entre las varianzas de las variables independientes. B. Escasa variabilidad en las observaciones de las variables independientes. C. No normalidad de las variables independientes. Qué es la multicolinealidad exacta o perfecta. A. Es la existencia de una relación lineal exacta entre dos o más variables independientes. B. Es la relación lineal aproximada entre dos o más variables independientes. C. Es la relación entre las varianzas de dos o más variables independientes. Qué es la multicolinealidad leve o aproximada. A. Es la relación lineal aproximada entre dos o más variables independientes. B. Es la existencia de una relación lineal exacta entre dos o más variables independientes. C. Es la relación lineal aproximada entre dos o más variables independientes. Cuando la multicolinealidad es perfecta: A. Se incumplela hipótesis básica del modelo uniecuacional múltiple: la matriz X no es de rango completo por columnas, esto es rg(x)<K. B. Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple G1=G2. C. Se incumple el supuesto de normalidad, es decir N< 30. Cuando la multicolinealidad es leve o aproximada. A. No se incumple la hipótesis básica del modelo uniecuacional múltiple: la matriz X es de rango completo por columnas, esto es : rg(x)=K. B. Se incumple el supuesto de homocedasticidad de las varianzas esto es se incumple G1=G2. C. Se incumple el supuesto de normalidad. Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes problema. A. Las varianzas de los estimadores son muy grandes. B. Se pierden grados de libertad. C. Se pierden datos. D. Al efectuar contrastes de significación individual no se rechasará la hipótesis nula, mientras que al realizar contrastes conjunto si. Cuando la multicolinealidad es leve o moderada se pueden presentar los siguientes problemas: A.Existen coeficientes de determinación muy elevados. B. Existen t muy significativas. C. Existen chi 2 muy elevados. Qué métodos se puede utilizar para la detección de multicolinealidad. A. Prueba de white. B. Correlogramas. C. Factor inflador de la varianza. Cuál de las siguientes es una solución para el problema de multicolinealidad. A. Mejorar el diseño muestral extratendo la inormación máxima de las variables observadas. B. Eliminación de datos sin importar el número total de observaciones. C. Utilizar un modelo econométrico lineal simple. Cuál de las siguientes es una solución para el problema de multicolinealidad. A. Eliminación de las variables que se sospechan son causantes de la multicolinealidad. B.En caso de disponer de pocas observaciones aumentar el tamaño de la muestra. B. Igualar las varianzas. C. Agregar una variable dicótoma. Cual de los siguientes es una solución para el problema de multicolinealidad. A. Cambiar la variable dependeinte. B. Eliminación de datos. C.Utilizar la relación extramuestral que permitia realizar relaciones entre los parámetros (información a priori) que permita estimar el modelo por mínimos cuadrados restringidos. La multicolinealdiad perfecta es. A. La relación perfecta entre las variables explicativas. B. La relación lineal entre las variable dependiente y las explicativas. C. La relación entre los errores de las variables explciativas. Si existe multicolinealidad perfecta entre las x: A. Los coeficientes de la regresión son determinados y los errores estándar están definidos. B. Los coeficientes de la regresión son determinados y los errores estándar están indefinidos. C. Los coeficientes de la regresión son indeterminados y los errores estándar no están definidos. Un supuesto improtante del modelo clásico de regresión lineal es: A. Que todas las perturbaciones ui tienen la misma varianza G2. Si este supuesto no se satisface, hay heterocedasticidad. B. Que todas las perturbaciones ui tienen diferente varianza g2. Si este supuesto no se satisface, hay homocedasticidad. C. Que todas las perturbaciones ui tienen diferente varianza g2. Si este supuesto satisface, hay heterocedasticidad. Cual de los sigueintes ejemplos teoricamente se asume que tiene multicolimealidad. A. Migración en función de Pib per cápita y población. B. Inversión extranjera en función de PIB y exportaciones. C. Migración en función de Pib y desempleo. D. Pib en función de volume de crédito y consumo de energía. La multicolinealidad hace referencia a: A. Relación perfecta entre las variables explicativas. B. Relación parcial o leve entre las variables explicativas. C. Relación lineal entre la variable dependiente y las explicativas. D. Inversión. Cuando existe multicolinealidad. A. Si el factor inflador de la varianza es mayor a 10. B. Si el factor inflador de la varianza es cero. C. Si elfactor inflador de la varianza es muy elevado. D. Si el factor inflador de la varianza es 1. Existe Multicolinealidad si en la matriz de correlaciones parciales , el coeficiente de correlación entre X2 y X 3 es: A. 0.95. B. 0.90. C. 0.09. D. 0. Cómo se puede detectar la multicolinealodad. A. Modelos autoregresivos. B. Correlograma. C. Factor inflador de la varianza. D. Correlaciones parciales. Un cambio de estructura en el modelo de regresión provoca un mal ajuste de los parámetros al conjunto de los datos muestrales, esto produce: Homocedasticidad. Heterocedasticidad. Normalidad. Cuáles de las siguientes son consecuencias prácticas de la multicolinealidad. La forma funcional de la regresión es incorrecta. Las varianzas son siempre homocedasticas. Las razones t de uno a más coeficientes tienden a ser no significativas. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes que dificultan la estimación precisa. |