los bacanes 😊😊😊
|
|
Título del Test:
![]() los bacanes 😊😊😊 Descripción: solo tu sabes |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál de las siguientes opciones describe mejor la información cualitativa?. Características o categorías no numéricas como género o estado civil. Variables siempre ordinales con jerarquía. Valores continuos que miden magnitudes exactas. Datos que siempre pueden promediarse. En un modelo de regresión lineal, ¿cómo se interpreta el coeficiente de una variable binaria?. Como la varianza de la variable dependiente. Como la diferencia promedio entre la categoría 1 y la categoría 0. Como el promedio de todas las observaciones. Como el error del. ¿Cuál es una consecuencia práctica de la multicolinealidad alta en un modelo de regresión?. Los errores estándar de los coeficientes aumentan, reduciendo su significancia. El valor de R² siempre aumenta. Los residuos presentan correlación serial. Los estimadores se vuelven sesgados. ¿Qué significa que exista heteroscedasticidad en un modelo de regresión?. Que los coeficientes cambian de signo. Que los errores presentan distinta variabilidad según los valores de la variable independiente. Que los errores están correlacionados en el tiempo. Que los errores tienen la misma varianza para todos los valores de X. ¿Cuál de las siguientes afirmaciones describe mejor la autocorrelación en un modelo de regresión?. Los errores son completamente aleatorios. Los errores son más grandes en ingresos altos que en bajos. Los coeficientes estimados se vuelven sesgados. Los errores dependen de los errores previos, siguiendo un patrón en el tiempo. Supongamos que en la primera etapa del 2SLS obtenemos: X*educación = 0.5 + 0.8 · distancia_universidad. Si la distancia a la universidad es 2 km, ¿cuál es el valor ajustado de X*educación?. 2.5. 0.5. 1.3. 2.1. ¿Cuáles son las dos condiciones que debe cumplir un buen instrumento en el modelo de VI?. Endogeneidad y correlación. Relevancia y exogeneidad. Relevancia y simplicidad. Exogeneidad y normalidad. ¿Cuál es la regla general para considerar un instrumento como “fuerte” en la prueba de relevancia?. El uso de más variables endógenas que instrumentos. Una correlación negativa entre el instrumento y la variable endógena. Un estadístico F menor a 5 en la primera etapa. Un estadístico F mayor a 10 en la primera etapa. ¿Cuál es la principal razón por la que se utilizan Variables Instrumentales (VI) en un modelo de regresión?. Para eliminar la necesidad de variables explicativas. Para hacer más simple la interpretación de los coeficientes. Para aumentar el número de variables en el modelo. Para corregir problemas de endogeneidad que sesgan los estimadores de MCO. En un modelo de regresión, ¿qué ocurre cuando se omite una variable que está correlacionada con una de las variables independientes incluidas?. La influencia de la variable omitida se traslada al error, rompiendo el supuesto E(u∣X)=0. No pasa nada, el modelo sigue siendo imparcial. Se mejora la precisión de las estimaciones. El estimador de MCO se mantiene insesgado. Seleccione la opción que mejor define la estacionariedad en una serie de tiempo. Sus propiedades estadísticas (media y varianza) se mantienen constantes en el tiempo. Sus observaciones pueden reordenarse sin afectar el análisis. No existe autocorrelación en los datos. Presenta siempre una tendencia creciente. ¿Qué afirmación distingue correctamente entre los modelos AR y MA?. MA usa valores pasados de la serie; AR usa errores pasados. Ambos dependen únicamente de variables exógenas. AR usa valores pasados de la serie; MA usa errores pasados (choques). MA solo se aplica a series con tendencia determinista. ¿Qué implica el orden temporal en una serie de tiempo?. Que el orden de los datos es irrelevante para el análisis. Que reordenar las observaciones puede alterar la interpretación de la evolución temporal. Que la covarianza depende del tiempo y no del rezago. Que la serie no puede presentar estacionalidad. ¿Cuál es la mejor definición de un proceso estocástico?. Una colección de variables aleatorias indexadas en el tiempo cuya evolución incorpora azar. Una serie estacionaria perfecta sin choques. Una sucesión determinista sin incertidumbre. Un modelo exclusivamente autorregresivo de orden 1. En el modelo AR(1): Yt = ρ Yt−1 + εt, si ρ = 1 entonces: La serie es estacionaria y los choques se disipan. Existe raíz unitaria; la serie es no estacionaria y los choques tienen efectos permanentes. La serie vuelve rápidamente a su media después de un shock. La media y la varianza son constantes en el tiempo. ¿Qué son los datos de panel?. Un corte transversal con varias personas observado en un único momento. Un conjunto de datos con únicamente información cualitativa sin tiempo. Un conjunto de observaciones de varias unidades (personas, empresas, países, etc.) seguidas a lo largo de varios periodos de tiempo. Una sola serie de tiempo para un país u organización. En un modelo de efectos fijos con datos de panel, ¿qué hace el modelo con las características no observadas de cada individuo que no cambian en el tiempo?. Las modela como ruido blanco sin estructura. Las controla al comparar cada individuo consigo mismo, filtrando lo que es constante en el tiempo. Las sustituye por variables ficticias aleatorias en cada periodo. Las elimina del modelo suponiendo que no existen. Según las diapositivas sobre regresión con variable dependiente binaria, ¿por qué se prefieren los modelos Logit y Probit frente al modelo de probabilidad lineal (MPL)?. Porque permiten obtener siempre un R² más alto que en cualquier otro modelo. Porque solo se pueden usar cuando la variable dependiente es continua. Porque eliminan por completo la necesidad de interpretar probabilidades. Porque aseguran probabilidades entre 0 y 1 mediante funciones no lineales y corrigen problemas del MPL como predicciones fuera de rango y heterocedasticidad. En el modelo de efectos aleatorios, ¿cuál es el supuesto clave sobre las diferencias individuales (efectos específicos de cada persona, empresa o país)?. Se asume que siempre están perfectamente correlacionadas con los regresores. Se supone que explican toda la variación de la variable dependiente. Se asume que no están correlacionadas con las variables explicativas del modelo. Se considera que cambian en cada periodo aleatoriamente sin estructura. ¿Cuál es una ventaja principal del uso de datos de panel en econometría aplicada?. Evitan por completo el uso de modelos econométricos. Imponen que todas las unidades tengan el mismo comportamiento en el tiempo. Permiten estudiar dinámicas en el tiempo y controlar diferencias individuales constantes entre unidades. Solo sirven para describir datos sin hacer inferencia. Proceso de Poisson modela: Raíz unitaria. Eventos aleatorios en el tiempo. Varianza constante. DW. Una variable cualitativa ordinal se caracteriza por: Ser continua. Ser binaria. No tener orden. Tener orden entre categorías. Errores estándar mal calculados llevan a: Mayor consistencia. Pruebas t y F no confiables. Mayor exogeneidad. Mejor inferencia. La categoría que no se codifica con una dummy en un conjunto de k categorías se llama: Categoría de referencia. Categoría aleatoria. Categoría dependiente. Categoría residual. Autocorrelación implica que: Normalidad perfecta. Errores correlacionados en serie. Errores independientes. Varianza constante. Si β₁ para Mujer = −200, entonces: La base es mujer. No hay efecto. Mujer disminuye Y en 200. Mujer aumenta Y en 200. La forma funcional incorrecta puede requerir: DW. Logaritmos o polinomios. KPSS. Resetear la base. El método Ridge puede: Producir DW. Mitigar multicolinealidad. Eliminar heteroscedasticidad. Probar sobreid. 2SLS es preferible a MCO cuando: Hay endogeneidad. No hay colinealidad. No hay endogeneidad. Hay heteroscedasticidad. Regresiones espurias ocurren cuando: Siempre que hay VIF. Se regresa niveles no estacionarios no cointegrados. Cuando hay logaritmos. Siempre que DW≈2. La razón para usar k−1 dummies es: Más potencia. Mayor R². Parcimonia. Evitar trampa de la variable ficticia. Si educación y experiencia están correlacionadas y omites experiencia: β de educación se sesga. No pasa nada. ADF rechaza H0. DW aumenta. En regresión, 'ceteris paribus' significa: Manteniendo las demás variables constantes. Promediando casos replicados. Eliminando el término de error. Usando promedios móviles. Usar k dummies con constante para k categorías produce: Trampa de la variable ficticia (colinealidad perfecta). Identificación perfecta. Mejor DW. Mayor KPSS. E(u|X)=0 significa: Normalidad. DW=2. Regresores no correlacionados con el error. Errores independientes del muestreo. Razón por la que VI funciona: Elimina VIF. Filtra la parte exógena de X. Aumenta heteroscedasticidad. Asegura normalidad. La inclusión de dummies múltiples permite: Evitar autocorrelación. Estimar efectos por categoría respecto a una base. Eliminar toda heteroscedasticidad. Asegurar normalidad. Pruebas de sobreidentificación: ADF. Sargan/Hansen. DW. White. El error u recoge: Nada. Sólo ruido blanco perfecto. Todo factor no modelado que afecta Y. Únicamente medición. Si Cov(Z,X)=0: Mejor exogeneidad. No hay relevancia → Z inútil. Mayor R². Aún sirve. Probabilidad empírica se obtiene de: Simulación Monte Carlo siempre. Frecuencias observadas en datos. ADF. Modelo teórico. Consecuencia de ignorar omitidas: Sobreidentificación automática. Conclusiones causales espurias. DW alto. ADF rechaza. Estacionariedad en varianza: Ciclo constante. Varianza constante. Media constante. Varianza creciente. Si β2(Sierra)=+100: Esperado Sierra=700. Es varianza. Esperado Sierra=900. Indeterminado. Un ejemplo de corrección genérica: PP. ADF. Errores robustos tipo HC. Sargan. Una prueba común para heteroscedasticidad es: Breusch-Pagan. Durbin-Watson. KPSS. ADF. VIF mayores a ~10 sugieren: Instrumentos débiles. Multicolinealidad seria. Normalidad. Raíz unitaria. Orden temporal implica que: No hay dependencia. El tiempo es fundamental. Se pueden reordenar sin perder info. Siempre hay estacionalidad. Si en Ingreso = 1000 − 150·Género con Género=1 mujer, entonces: No hay diferencia por género. Las mujeres ganan 150 menos que los hombres, ceteris paribus. Las mujeres ganan 150 más que los hombres. Los hombres ganan 1000 menos que las mujeres. Si X está correlacionado con u: DW soluciona. MCO es consistente. MCO es sesgado/inconsistente. White soluciona. Con heteroscedasticidad, los MCO: No pueden estimarse. Aumentan R². Se vuelven sesgados. Son insesgados pero ineficientes; errores estándar mal calculados. Si Z no es exógeno: Sigue válido. Elimina autocorrelación. Estimación sesgada. Más eficiente. Si F primera etapa = 3: Instrumento fuerte. No importa. Es prueba DW. Instrumento débil. La categoría de referencia sirve para: Calcular varianzas. Medir autocorrelación. Probar heteroscedasticidad. Evitar colinealidad perfecta y anclar la comparación. Al omitir una variable relevante, los estimadores MCO: Se vuelven sesgados/inconsistentes. Mejoran su precisión. Aumentan R² siempre. Siguen insesgados. Un ejemplo de D para cambio estructural es: D= X>0. D= Y>0. D=1 después, 0 antes. D=1 antes, 0 después. La exogeneidad de Z significa: KPSS estable. DW=2. Cov(Z,u)=0. Cov(Z,X)=0. Prueba de relevancia de instrumento: DW≈2. VIF<10. F de la primera etapa > 10 (regla práctica). KPSS. Un indicador de multicolinealidad es: DW. KPSS. VIF. ACF. Un instrumento sirve para: Eliminar dummies. Corregir heteroscedasticidad. Aumentar R². Aislar la parte exógena de la variable endógena. Una corrección para heteroscedasticidad es: Sargan. DW. ADF. MCO robusto (errores robustos). Reordenar datos de meses rompe: Varianza. Orden temporal. Ruido. Media. Una serie con raíz unitaria: Vuelve rápido al equilibrio. Tiene choques con efectos permanentes. No requiere ADF. Es siempre homocedástica. Autocorrelación es típica en: Experimentos puros. Series de tiempo. Datos cualitativos. Datos de corte transversal. Una variable dummy (binaria) codifica una categoría como: Un conteo entero mayor que 1. Un porcentaje entre 0 y 100. 0 o 1 para indicar ausencia/presencia. Cualquier número real. Si β0=800 (base Amazonía) y β1(Costa)=−200: Esperado en Costa=800. Esperado en Costa=1000. Esperado en Costa=600. Indeterminado. Incluir una variable irrelevante suele: Asegurar exogeneidad. Eliminar colinealidad. Introducir sesgo. Aumentar varianza de estimadores. Cambio en pendiente. Heteroscedasticidad. Autocorrelación. Cambio en nivel (intercepto) entre periodos. Para k=5 categorías, el número de dummies es: 4. 5. 2. 3. El efecto de una dummy en Y se interpreta como: Cambio marginal continuo. Pendiente en X. Salto discreto en el nivel de Y. Cambio en varianza. Una variable nominal se caracteriza por: Tener un orden lógico entre categorías. Ser continua por definición. No poseer orden lógico entre categoría. Ser medible en unidades monetarias. Frecuencia puede ser: Sólo trimestral. Sólo anual. Sólo diaria. Diaria, mensual, trimestral, anual. La multicolinealidad fuerte entre X's implica: Errores estándar grandes y baja significancia. Estimadores exactos. Heteroscedasticidad. Autocorrelación. Ignorar variables omitidas afecta: Únicamente R². p-valores e intervalos de confianza. Sólo la media. Nada. En series de tiempo del PIB, un 'choque' grande: Reduce varianza a cero. Puede tener efecto persistente. No afecta. Se disipa siempre. Corrección común para AC: VIF. RESET. HAC/Newey-West. KPSS. La prueba de White detecta: Autocorrelación. Heteroscedasticidad. Colinealidad. Raíz unitaria. Los intervalos de confianza bajo H o AC: Son confiables. Siempre más anchos. No cambian. Pueden ser demasiado estrechos. ¿Qué problema NO corrige 2SLS directamente?. Endogeneidad. Autocorrelación. Sesgo por simultaneidad. Sesgo por omitidas (vía instrumento adecuado). Componente tendencia (T): Patrón aleatorio. Pendiente cero. Patrón de largo plazo. Ruido. La diferencia entre H y AC es que: Ninguna. H= varianza distinta; AC= correlación serial. H= correlación; AC= varianza. Ambas igual. Para permitir efectos distintos por nivel educativo tras reforma se incluyen: Prueba DW. Dummies independientes. Solo polinomios. Interacciones Reforma×Nivel. Si los datos empíricos difieren mucho de la teoría: Nada. Modelo teórico describe bien. Siempre correcto. Modelo teórico puede ser inadecuado. Las variables binarias se usan porque: Garantizan normalidad de errores. Evitan todo tipo de sesgo. Permiten incluir categorías en modelos que requieren números. Eliminan la colinealidad. El sesgo por omitidas en β de X es: Cero. Siempre negativo. Distinto de cero si Cov(X,omitida)≠0. Siempre positivo. 2SLS corrige: Heteroscedasticidad. Sesgo por endogeneidad. Raíces unitarias. Autocorrelación. Condiciones de un buen instrumento: VIF alto y DW≈2. Relevancia y exogeneidad. KPSS y ADF. Normalidad y homocedasticidad. Ciclos (C): Mediana. Fluctuaciones de mediano-largo plazo. Errores. Histogramas. Causa de autocorrelación: Más instrumentos. Tendencias omitidas. VIF alto. KPSS. El supuesto clave violado con omitidas es: Normalidad. Independencia muestral. Homoscedasticidad. Exogeneidad E(u|X)=0. Omitir una variable relevante correlacionada con X genera: Menor varianza sin sesgo. Normalidad. Autocorrelación segura. Sesgo por omisión. Una serie de tiempo es: Datos de corte transversal. Sólo datos anuales. Datos aleatorios sin orden. Datos ordenados cronológicamente. ¿Por qué se usan Variables Instrumentales (VI)?. Para mejorar R² siempre. Para simplificar gráficos. Para corregir endogeneidad que sesga MCO. Para aumentar número de variables. Diferenciación (ΔY) de una I(1): No cambia nada. Tiende a volverla estacionaria. Genera heterosced. Genera colinealidad. White también detecta: Raíces unitarias. Formas generales de heteroscedasticidad. Sobreidentificación. Autocorrelación. Una forma de tratar multicolinealidad: Aumentar DW. Eliminar variables redundantes. Usar ADF. Usar PP. En inferencia, con omitidas: Intervalos más anchos correctos. p-valores engañosos. Todo igual. p-valores confiables. Instrumento débil implica: Exogeneidad. Homoscedasticidad. Mayor eficiencia. Resultados poco confiables. La interpretación de βHombre (>0) en salario es: Hombres ganan menos que mujeres. Base es Hombre. No hay base. Hombres ganan más que la base (mujeres). Para detectar cambios en la pendiente tras una reforma se incluye: El término cuadrático de Y. Una constante adicional. Una interacción X×Reforma. Solo una dummy de reforma. Otra transformación común: DW. Sargan. RESET. Logaritmos. Un cambio estructural implica que: Solo cambia el intercepto. No cambia nada. Cambian intercepto y/o pendiente entre grupos o periodos. Solo cambia la varianza. Tendencia determinística vs estocástica: No existen. Estocástica implica choques con efectos persistentes. Iguales. Determinística siempre ruido. Prueba ADF sirve para: Autocorrelación. Raíz unitaria. Heteroscedasticidad. VIF. El gráfico de residuos vs ajustados ayuda a: Ver raíz unitaria. Ver KPSS. Ver VIF. Ver abanico (heteroscedasticidad). Para una variable categórica con k categorías, se crean típicamente: 2 dummies siempre. k dummies. k−1 dummies dejando una categoría como referencia. 1 dummy. En 2SLS, segunda etapa: Eliminar constante. Aplicar White. Reemplazar X endógena por su valor ajustado. Medir KPSS. Comparar Normal(μ,σ²) asumida con frecuencias observadas del PIB es: DW. ADF. Comparación probabilidad teórica vs empírica. VIF. Una dummy mal definida puede generar: Sobreidentificación. Endogeneidad asegurada. Colinealidad perfecta. Autocorrelación. En una regresión, el coeficiente de una variable binaria indica: La diferencia promedio en Y entre categoría 1 y la base (0), ceteris paribus. El error estándar del modelo. La varianza de Y. La media de Y en toda la muestra. Una prueba típica para autocorrelación de primer orden es: White. KPSS. Breusch-Pagan. Durbin-Watson. Si β3 (X·D)≠0: No hay cambio estructural. Hay raíz unitaria. Hay exogeneidad. Existe cambio en la relación X-Y. Si el modelo con interacción es Y=β0+β1X+β2D+β3(X·D)+ε, el parámetro que mide el cambio de pendiente es: β2. β0. β3. β1. Una alternativa para H severa es: Mínimos cuadrados ponderados. Añadir ruido. Usar VIF. Eliminar constante. El PIB trimestral suele: No tener estacionalidad. Ser estacionario en niveles. Requerir diferenciación o crecimiento. No tener ciclos. AC puede provocar: Subestimación de varianzas. Mayor VIF. Normalidad. Sobreidentificación. Movimiento Browniano se usa para: Fluctuaciones financieras. KPSS. VIF. Heteroscedasticidad. Transformación para lograr estacionariedad: VIF. Eliminar constante. Diferenciación. Añadir ruido. Al incluir Género (1=Mujer, 0=Hombre) en la regresión, el signo de βGénero negativo implica: Ser mujer reduce Y respecto a la base, ceteris paribus. No afecta Y. Ser mujer aumenta Y. Cambia la varianza de Y. Comparar empírico vs teórico sirve para: Validar el modelo probabilístico. Aumentar VIF. Calcular DW. Eliminar outliers. Un proceso estocástico: Evoluciona con azar/incertidumbre. No depende del pasado. Es siempre estacionario. Es determinista puro. En AR(1): Yt = ρYt−1 + εt, si ρ=1: Varianza constante. Raíz unitaria (no estacionaria). Serie estacionaria. White. Serie con fuerte tendencia: Estacionaria. Homoscedástica. Balanceada. Probablemente no estacionaria. Cadenas de Márkov se caracterizan por: Futuro depende de todo el pasado. Sólo varianza. Futuro depende sólo del estado actual. No hay probabilidad. La inclusión de 'mascotas' irrelevante en ingreso: Corrige sesgo. Aumenta varianza de coeficientes. Genera DW. Elimina endogeneidad. Para detectar omitidas: Teoría y comparación de modelos. Durbin-Watson. KPSS. ACF. Dependencia temporal significa: Siempre es ARMA. Valores pasados influyen en presentes. No hay relación temporal. Sólo ruido. Irregularidad (I): Tendencia. Ruido aleatorio. Ciclo. Estacionalidad. Con más instrumentos que endógenas (sobreid.): Baja R². Aumenta DW. Se pueden probar con Sargan/Hansen. No se puede estimar. Prueba PP (Phillips-Perron) se usa para: Heteroscedasticidad. Raíz unitaria. Sobreidentificación. Autocorrelación. Ejemplo de instrumento para educación: Distancia a la universidad. Residuo. Salario. Género. La relevancia de Z significa: Cov(Z,u)=0. Homoscedasticidad. Normalidad. Cov(Z,X)≠0. Una ARIMA requiere: Estacionariedad (o diferenciar). Instrumentos. VIF. Heteroscedasticidad. Heteroscedasticidad significa que: La varianza de los errores es constante. Los errores son normales. Los errores están correlacionados en el tiempo. La varianza de los errores cambia con X. El intercepto β₀ en un modelo con una dummy de género (0=hombre, 1=mujer) representa: El ingreso promedio de los hombres (categoría base). Siempre cero. El ingreso promedio de las mujeres. La varianza de los errores. La endogeneidad aparece cuando: Se usan dummies. Cov(X,u)=0. No hay constante. Algún regresor está correlacionado con el error. Las tablas de frecuencia muestran: Distribuciones continuas exactas. p-valores. Conteos por categoría. Coeficientes estimados. DW ≈ 2 indica: Autocorrelación negativa segura. Fuerte autocorrelación positiva. Sin autocorrelación (aprox.). Heteroscedasticidad. Endogeneidad puede deberse a: Sólo DW bajo. Omisión, simultaneidad, medición. Sólo VIF alto. Sólo normalidad. Valor ajustado X* es: Error. Parte explicada por Z. DV. Residuo. RESET de Ramsey evalúa: Sobreidentificación. Estacionalidad. Normalidad. Forma funcional. En codificación de regiones (Costa, Sierra, Amazonía base), el coeficiente βSierra mide: Diferencia Sierra vs Amazonía. Varianza en Sierra. Diferencia Sierra vs Costa. Media de Amazonía. Si educación correlaciona con 'talento' no observado: No hay problema. Sólo multicolinealidad. Sólo heterosced. Hay endogeneidad. Si Salario = 500 − 100·Hombre + 300·EducSup y un hombre con educación superior: No puede calcularse. Tiene salario 800. Tiene salario 500. Tiene salario 700. La colinealidad perfecta surge si: Se usa k dummies para k categorías junto con la constante. Se elimina la constante. Se usa una sola dummy. Se omite un regresor relevante. La base en dummies múltiples: Se interpreta a partir de β0. Determina la varianza. No tiene interpretación. Elimina endogeneidad. En un conjunto con 4 categorías, ¿cuántas dummies se crean típicamente?. 4. 2. 3. 1. Para evitar regresiones espurias al trabajar con niveles no estacionarios no cointegrados, conviene: Ignorar ADF/PP. Aumentar VIF. Usar diferencias o tasas de crecimiento. Agregar dummies de todo. Prueba KPSS evalúa: DW. White. Estacionariedad. Sobreidentificación. PCR (componentes principales) sirve para: Aumentar endogenei. Reducir dimensión ante colinealidad. Eliminar errores. Detectar raíz unitaria. Instrumento válido debe ser: Con VIF>10. Negativo. Normal. Relevante y exógeno. Una prueba común de especificación funcional es: Breusch-Pagan. Durbin-Watson. RESET de Ramsey. White. Si Amazonía es la base y βCosta=−200, entonces: La base es Costa. Costa tiene ingreso 200 mayor que Amazonía. No hay diferencia. Costa tiene ingreso 200 menor que Amazonía. Ejemplo: omitir 'habilidad' al explicar ingreso por educación: Se vuelve homocedástico. KPSS rechaza. Coeficiente de educación capta efecto de habilidad. DW=2. La covarianza estacionaria depende de: Nivel de precios. Tiempo absoluto. Distancia temporal (lag). VIF. ¿Qué caracteriza a la información cualitativa?. Representa categorías o cualidades no numéricas. Siempre es ordinal. Se mide siempre en escala de razón. Expresa cantidades promediables. En 2SLS, primera etapa: Regresar la variable endógena sobre instrumentos y exógenas. Aplicar DW. Estimar Y con instrumentos. Eliminar el error. Gráfico de residuos con patrón sugiere: Exogeneidad. Normalidad. Sobreid. Heteroscedasticidad o autocorrelación. Si en ingresos altos hay más dispersión de residuos: Exogeneidad. Estacionariedad. Autocorrelación. Heteroscedasticidad. Estacionalidad (S): Ruido blanco. Pendiente constante. Nada. Patrones que se repiten periódicamente. El uso de promedios en cualitativas nominales: No tiene sentido directo. Implica normalidad. Es apropiado siempre. Es obligatorio. La dependencia temporal significa: Siempre estacionario. Orden irrelevante. No hay memoria. Valores pasados influyen en presentes. Variables omitidas relevantes producen: Sesgo y violación de exogeneidad. Autocorrelación. Normalidad. Raíz unitaria. Estacionariedad en media: Varianza creciente. Media variable. Media constante en el tiempo. No hay dependencia. La matriz de correlaciones ayuda a: Medir heteroscedasticidad. Detectar correlaciones entre regresores. Calcular R² ajustado. Evaluar autocorrelación. Un gráfico recomendado para variables cualitativas es: Diagrama de dispersión con ajuste lineal. Correlograma ACF. Diagrama de barras. Histograma de densidad. Errores de medición en X causan: Autocorrelación. Homoscedasticidad. Estacionalidad. Endogeneidad. Breusch-Pagan prueba: Exogeneidad. Heteroscedasticidad. Autocorrelación. Sobreidentificación. Origen típico de Z: Factores geográficos o institucionales. Dummies base. Residuos. KPSS. Para describir datos cualitativos es más apropiado usar: Tablas de frecuencia y porcentajes. Integrales y derivadas. Mediana y varianza siempre. Promedios y desviaciones estándar exclusivamente. |





