Adquisición y procesamiento de datos
|
|
Título del Test:
![]() Adquisición y procesamiento de datos Descripción: Licenciatura en Ingeniería en Inteligencia Artificial y Big Data |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál de los siguientes NO es una de las etapas mencionadas en el ciclo de vida de los datos?. A. Procesamiento de datos. B. Adquisición de datos. C. Almacenamiento de datos. D. Duplicación de información. ¿Cuál es el primer paso en el ciclo de vida del procesamiento de datos?. A. Procesamiento de Datos. B. Almacenamiento de Datos. C. Adquisición de Datos. D. Uso de Datos. ¿Cuál es la función PRINCIPAL del procesamiento de datos?. A. Asegurar bases de datos con control de accesos. B. Eliminar duplicación de datos. C. Permitir la transformación de datos a información útil. D. Acelerar el tiempo de ejecución de consultas a bases de datos. ¿Cuál es la última etapa del ciclo de vida del procesamiento de datos?. A. Almacenamiento de Datos. B. Procesamiento de Datos. C. Uso de Datos. D. Adquisición de Datos. ¿Cuál es uno de los beneficios de un enfoque estructurado en el manejo de datos según la sección 1.3?. A. Aumentar la complejidad del análisis de datos. B. Reducir la claridad y consistencia en la comunicación. C. Facilitar el análisis y la extracción de conocimiento. D. Ignorar la seguridad de los datos. ¿Dónde pueden almacenarse los datos según la información proporcionada?. A. Únicamente en servidores físicos. B. Solo en la nube. C. En servidores físicos, dispositivos de almacenamiento o en la nube. D. Exclusivamente en bases de datos NoSQL. ¿Por qué es importante la seguridad de datos en la etapa de almacenamiento de datos?. A. Para facilitar la toma de decisiones. B. Para proteger los datos de accesos no autorizados, pérdidas y amenazas cibernéticas. C. Para agregar datos adicionales. D. Para mejorar la eficiencia operativa. ¿Qué etapa del ciclo de procesamiento de datos incluye la identificación y corrección de errores en los datos crudos?. A. Captura de Datos. B. Transformación de Datos. C. Limpieza de Datos. D. Almacenamiento de Datos. ¿Qué implica la captura de datos en el proceso de adquisición?. A. Transformar datos. B. Analizar datos. C. Registrar información de fuentes de datos. D. Enriquecer datos. ¿Qué implica la presentación de datos en la etapa de uso de datos?. A. Identificar errores en los datos. B. Convertir datos a información significativa. C. Crear informes, visualizaciones y cuadros de mando. D. Alimentar datos con información adicional. ¿A qué se refieren las fuentes de datos fuera de línea según el texto?. A. Datos accesibles a través de Internet. B. Datos no accesibles a través de internet. C. Datos de transacciones de comercio electrónico. D. Datos extraídos por API. ¿Cómo se define una fuente de datos en línea?. A. Datos accesibles únicamente a través de Internet. B. Datos físicos y documentos impresos. C. Datos de sensores IoT. D. Datos almacenados en servidores sin conexión a Internet. ¿Cuál de las siguientes NO es una fuente de datos interna?. A. Bases de datos empresariales. B. Datos de redes sociales. C. Registros financieros. D. Sistemas de registro de empleados. ¿Cuál es un ejemplo de fuente de datos en línea según el texto?. A. Encuestas y entrevistas. B. Libros y revistas. C. Portal web de Datos Abiertos de Gobierno. D. Pláticas por teléfono. ¿Cuál es una desventaja de datos no estructurados?. A. Requieren de técnicas de procesamiento más complejas. B. Su volumen es más chico que datos estructurados. C. Son datos menos confiables. D. No se consiguen en internet. ¿Cuál es una ventaja de las fuentes de datos en línea mencionada en el texto?. A. Datos específicos y especializados. B. Mantenimiento de registros en papel. C. Actualización en tiempo real. D. Control de seguridad. ¿Por qué es importante evaluar la confiabilidad de una fuente de datos?. A. Para reducir la cantidad de datos en el análisis. B. Para asegurar que los datos sean precisos y verificables. C. Para eliminar datos no estructurados del análisis. D. Para cumplir con los requisitos de almacenamiento físico. ¿Qué característica indica que los datos se actualizan y reflejan los datos al momento de la adquisición?. A. Consistencia. B. Almacenamiento físico. C. Actualidad. D. Cumplimiento normativo. ¿Qué se considera un dato confiable?. A. Datos que tienen el tipo de datos en cada columna correcta. B. Datos que cuentan con contraseña para su acceso. C. Datos que no tienen que ser evaluados. D. Datos que provienen de fuentes y procesos bien definidos y con buena reputación. ¿Qué tipo de datos se caracterizan por estar organizados en tablas con campos predefinidos?. A. Datos no estructurados. B. Datos externos. C. Datos estructurados. D. Datos mixtos. ¿Cuál de las siguientes consideraciones y desafíos se menciona en el texto como importante en la adquisición automatizada de datos?. A. Elección de colores. B. Mantenimiento y Actualización. C. Cantidad de píxeles en una imagen. D. Estilo de fuente en una página web. ¿Cuál de las siguientes es una consideración ética en la captura de datos?. A. Minimizar los costos de almacenamiento. B. Recopilar datos de cualquier fuente sin restricciones. C. Respetar la privacidad y obtener el consentimiento. D. Maximizar la cantidad de datos recopilados. ¿Cuál de las siguientes herramientas nos permite realizar llamados a un API?. A. Postman. B. Google. C. Apache Nutch. D. Selenium. ¿Cuál es una de las funciones principales de una API en la adquisición de datos?. A. Reducir el acceso a información pública. B. Permitir que diferentes aplicaciones se comuniquen entre sí. C. Bloquear la recopilación de datos. D. Eliminar la necesidad de autenticación. ¿Cuál es una de las razones para utilizar librerías y herramientas en la adquisición de datos?. A. Estética. B. Eficiencia. C. Moda. D. Singularidad. ¿En qué tipo de casos de uso se utilizan las librerías y herramientas para la adquisición de datos?. A. Solo en análisis de datos estáticos. B. Exclusivamente en integración de datos. C. En una variedad de casos, incluyendo web scraping y automatización de tareas en la web. C. En una variedad de casos, incluyendo web scraping y automatización de tareas en la web. ¿Por qué son importantes las consideraciones éticas y legales en la captura de datos?. A. Solo para cumplir formalidades. B. Para dañar la confianza de las partes interesadas. C. Únicamente para evitar sanciones financieras. D. Por respeto a los derechos de las personas y la credibilidad de la organización. ¿Qué herramienta se utiliza para interactuar con sitios web como lo haría un usuario, especialmente para tareas de web scraping que requieren interacción con formularios y elementos dinámicos?. A. Power Query. B. Import.io. C. Selenium. D. Postman. ¿Qué librería de Python es ampliamente utilizada para el análisis de HTML y XML en la adquisición automatizada de datos?. A. Pandas. B. Tensorflow. C. Scikit Learn. D. Beautiful Soup. ¿Qué técnica de captura de datos se utiliza para recopilar información de páginas web de forma automatizada?. A. Minería de datos. B. Web scraping. C. Condensación de datos. D. Consulta de base de datos. ¿Cuál de las siguientes es una variable ordinal?. A. Edad. B. Jerarquía en una empresa. C. Temperatura. D. Numero de mascotas. ¿Cuál de las siguientes opciones es una característica de las variables categóricas?. A. Pueden realizarse operaciones matemáticas como la suma. B. Tienen un orden inherente entre categorías. C. Representan categorías o etiquetas sin un orden específico. D. Se miden en escalas continuas. ¿Cuál es la diferencia entre variables categóricas y ordinales?. A. Representan variables. B. Las ordinales tienen un orden específico. C. Pueden contener datos erróneos. D. Las ordinales NO tienen orden en específico. ¿Cuál es un ejemplo de variable numérica continua?. A. Temperatura. B. Numero de mascotas. C. Código postal. D. Apellido. ¿Cuál es uno de los objetivos clave de la transformación de datos mencionados?. A. Aumentar la complejidad de los datos. B. Introducir errores en los resultados. C. Mejorar la calidad de los datos. D. Ocultar valores atípicos. ¿Qué se utiliza para contar cuántas veces aparece cada categoría en una variable categórica?. A. Estadísticas descriptivas. B. Gráficos de barras. C. Tablas de contingencia. D. Análisis de frecuencia. ¿Qué técnica de transformación se utiliza para ajustar los valores de una variable a un rango específico, como [0, 1]?. A. Normalización. B. Estandarización. C. Discretización. D. Binning. ¿Qué técnica se utiliza para convertir variables continuas en variables categóricas?. A. Normalización. B. Discretización. C. Reducción de dimensionalidad. D. Escalamiento. ¿Qué tipo de variables son aquellas que representan categorías o etiquetas sin un orden intrínseco?. A. Variables numéricas. B. Variables ordinales. C. Variables continuas. D. Variables categóricas. En una columna llamada edad, en la cual se ven las edades de manera fraccionaria (19.3 años) ¿Qué tipo de variable es?. A. Categórica. B. Continua. C. Discreta. D. Ordinal. ¿Cuál es el propósito de los mapas de calor en la exploración de datos?. A. Visualizar la densidad de datos en una matriz. B. Evaluar la relación entre variables. C. Descubrir patrones automáticos. D. Identificar tendencias a lo largo del tiempo. ¿Cuál es la importancia de la interpretación de resultados y toma de decisiones basadas en el análisis descriptivo?. A. Descubrimiento de patrones ocultos. B. Permite entender mejor el contexto y facilita ver el impacto que tendría una decisión. C. Identificación de anomalías. D. Seleccion de variables relevantes. ¿Cuál es uno de los roles esenciales de la exploración de datos mencionado en el texto?. A. Validación de hipótesis. B. Preparación de datos. C. Minería de datos. D. Análisis de tendencias. ¿Por qué es crucial la interpretación de resultados y toma de decisiones basadas en el análisis descriptivo?. A. Para descubrir patrones ocultos. B. Para comprender el contexto y aplicar conclusiones relevantes. C. Para realizar análisis más avanzados. D. Para identificar valores atípicos. ¿Qué herramienta NO se menciona como ampliamente utilizada para realizar análisis de datos básicos y crear gráficos?. A. Python. B. R. C. Tableau. D. SQL. ¿Qué herramienta se menciona como un lenguaje de programación popular para análisis de datos, junto con las bibliotecas Pandas, NumPy, Matplotlib y Seaborn?. A. Microsoft Excel. B. Python. C. R. D. Tableau. ¿Qué implica el paso de "Identificación de Patrones y Tendencias" en el proceso de interpretación de resultados?. A. Buscar relaciones entre variables. B. Resumir los resultados del análisis descriptivo. C. Validar hipótesis. D. Limpiar los datos. ¿Qué técnica se utiliza para agrupar observaciones similares en clústeres?. A. Análisis de correlación. B. Análisis de tendencias a lo largo del tiempo. C. Análisis de clúster. D. Análisis de componentes principales (PCA). ¿Qué técnica se utiliza para resumir visualmente la distribución de datos y mostrar valores atípicos?. A. Gráficos de relaciones. B. Diagramas de caja. C. Gráficos de Gannt. D. Mapas de calor. ¿Qué tipo de gráfico es útil para representar variables categóricas o discretas?. A. Graficas circulares. B. Gráficos de barras. C. Diagramas de caja. D. Gráficos de dispersión. ¿Cuál es el objetivo de la etapa de adquisición de datos en el pipeline de preprocesamiento?. A. Limpieza de datos. B. Obtener datos de diversas fuentes. C. Transformación de datos. D. Detección de valores atípicos. ¿Cuál es el propósito de la eliminación en la toma de decisiones sobre valores atípicos?. A. Transformar valores atípicos. B. Etiquetar valores atípicos. C. Incluir valores atípicos en el análisis. D. Eliminar valores atípicos. ¿Cuál es el propósito del Z-Score en la detección de valores atípicos?. A. Visualizar valores atípicos. B. Medir la distancia a otros puntos. C. Medir desviaciones estándar de la media. D. Identificar valores atípicos basados en distancia. ¿En qué etapa del pipeline se crea un conjunto de datos de validación o prueba para evaluar el rendimiento del modelo?. A. Escalamiento y Normalización. B. Detección de Valores Atípicos (Outliers). C. Creación de Conjuntos de Datos de Validación o Prueba. D. División de Datos. ¿Qué impacto pueden tener los datos atípicos en un modelo de aprendizaje automatizado?. A. Ayudan a robustecer el modelo. B. Introducir errores o minimizar la eficiencia del modelo. C. Afectan otros sets de datos. D. Crean nuevas características. ¿Qué implica la selección de datos en el pipeline de preprocesamiento?. A. Eliminación de duplicados. B. Codificación de variables categóricas. C. Elección de características relevantes. D. Creación de nuevas características. ¿Qué implica la transformación de datos en el preprocesamiento de datos?. A. Creación de conjuntos de datos de validación. B. Reducción de la dimensionalidad. C. Normalización y escalamiento. D. Detección de valores atípicos. ¿Qué método de detección de valores atípicos se basa en el rango intercuartílico?. A. Z-Score. B. Método basado en Distancia. C. Box Plot. D. Método de Rango Intercuartílico (IQR). ¿Qué método de detección de valores atípicos utiliza diagramas de caja para su identificación?. A. Z-Score. B. Método basado en Distancia. C. Box Plot. D. Método de Rango Intercuartílico (IQR). ¿Qué puede ocurrir en una distribución de datos que contiene datos atípicos?. A. Todos los valores sean cero. B. Sesgar las distribuciones. C. Balancearlas para que sea una distribución normal. D. Todos los valores sean uno. ¿Cuál de estos métodos no es una estrategia para tratar outliers en texto?. A. Etiquetado. B. Igualar a cero. C. Lematización. D. Eliminación. ¿Cuál es una técnica común para identificar palabras poco utilizadas en un conjunto de datos textual?. A. Distancia Cosine. B. Regresión. C. Longitud de Documentos. D. Frecuencia de Palabras. ¿Cuál NO es un ejemplo de outlier?. A. Palabras raras. B. Palabras comunes en el set de datos. C. Documentos muy largos o cortos en comparación del resto. D. Documentos irrelevantes. ¿Cuál NO es una razón para la existencia de outliers en datos textuales?. A. Error tipográfico. B. Errores en la Etiquetación de Datos. C. Jerga o términos poco comunes. D. Usar Python para la evaluación del texto. ¿En qué consiste la técnica TF-IDF en el contexto de tratamiento de outliers en datos textuales?. A. Asigna puntajes a palabras basados en su importancia y frecuencia en un documento. B. Mide la longitud de los documentos. C. Agrupa palabras en categorías especiales. D. Elimina palabras inusuales del corpus. ¿Por qué es esencial la revisión manual por parte de expertos en el tema al manejar outliers en datos textuales?. A. Para eliminar outliers. B. Para ajustar parámetros de modelos. C. Para determinar la relevancia o problemática de outliers y pensar un plan de acción. D. Para etiquetar documentos. ¿Qué estrategia implica eliminar palabras muy comunes y poco informativas como 'a', 'de', 'en' etc.?. A. Transformación de Texto. B. Modelos de embeddings. C. Eliminación de stopwords. D. Agrupación. ¿Qué método implica ajustar los parámetros de modelos de análisis de texto para dar menos peso a documentos o palabras inusuales?. A. Eliminación. B. Etiquetado. C. Aprendizaje profundo. D. Ajuste de Parámetros de Modelos. ¿Qué método mide la similitud entre vectores en un espacio multidimensional y se utiliza para medir la similitud entre documentos?. A. Frecuencia de Palabras. B. Distancia Cosine. C. Análisis de Sentimientos. D. TF-IDF. ¿Qué se sugiere hacer en la lematización o derivación de texto?. A. Utilizar Múltiples Métodos. B. Medir la longitud de las palabras. C. Graficar palabras comunes. D. Agrupar palabras que comparten una base en una sola. Correré y correrás agrupadas en 'correr'. |




