option
Cuestiones
ayuda
daypo
buscar.php

big data aplicado

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
big data aplicado

Descripción:
preparación de examen

Fecha de Creación: 2026/01/29

Categoría: Informática

Número Preguntas: 40

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál es una ventaja de los discos SSD?. Menor Costo. Mas ciclos de escritura. Mayor velocidad. Mayor capacidad de almacenamiento.

En la compresión de datos, ¿Qué tipo permite perder información?. Compresión con pérdida. Compresión sin pérdida. Compresión GZIP. Compresión ZIP.

¿Cuál es un desafío principal del Almacenamiento Masivo?. Complejidad de los algoritmos. Número de servidores. Seguridad y privacidad de los datos. Velocidad de procesamiento.

En la Arquitectura Lambda, ¿Qué función cumple la Speed Layer?. Generar reportes finales. Compensar la alta latencia de las escrituras. Almacenar datos históricos. Procesar solo datos antiguos.

¿Cuál es un principio fundamental del Big Data?. Serialización. Fragmentación. Centralización. Paralelismo.

En la Arquitectura Kappa, ¿Qué principio es fundamental?. Usar múltiples capas de procesamiento. Garantizar el orden de los eventos. Modificar constantemente los datos de entrada. Duplicar la infraestructura de procesamiento.

¿Cuál es la principal diferencia entre Arquitectura Lambda y Kappa?. Los algoritmos de procesamiento. La velocidad de procesamiento. La cantidad de capas de procesamiento. El tipo de datos procesados.

¿Qué desventaja importante tiene la Arquitectura Lambda?. No permite procesamiento en tiempo real. Impide la escalabilidad. Requiere doble infraestructura y equipos. No soporta bajos volúmenes de datos.

¿Cuál es la mejor definición de lo qué es Apache Spark?. Una base de datos NoSQL. Un framework de procesamiento de datos distribuidos. Un sistema de almacenamiento de datos. Un lenguaje de programación.

¿Cuál es el primer paso en la metodología CRISP-DM?. Modelado. Evaluación. Preparación de Datos. Entendimiento del Negocio.

En CRISP-DM, ¿Qué se hace en la fase de Preparación de Datos?. Seleccionar, transformar y limpiar datos. Evaluar el modelo final. Definir el alcance del proyecto desde la perspectiva de los datos. Presentar resultados al negocio.

En la metodología CRISP-DM, ¿Qué sucede en la fase de Despliegue?. Se inicia un nuevo proyecto. Se seleccionan las técnicas de modelado. Se descartan modelos no útiles. Se organiza y presenta el conocimiento obtenido.

En el ecosistema de almacenamiento Big Data, ¿Qué relación existe entre HDFS y NoSQL?. Son tecnologías mutuamente excluyentes. HDFS es un tipo de base de datos NoSQL. Son complementarios en el ecosistema de almacenamiento. NoSQL reemplaza completamente a HDFS.

¿Qué tipo de servicio cloud está diseñado para desarrolladores que quieren enfocarse solo en construir aplicaciones?. AIaaS (Artificial Inteligence as a Service). IaaS (Infrastructure as a Service). PaaS (Platform as a Service). SaaS (Software as a Service).

¿En qué se destaca principalmente AWS?. En servicios de almacenamiento. En servicios de Machine Learning. En precios competitivos. En capacidad de cómputo con EC2.

¿Qué característica diferencia a Google Cloud de sus competidores?. Mayor disponibilidad global. Mejor integración con herramientas de desarrollo. Mayor capacidad de procesamiento. Precios más competitivos y flexibles.

En el contexto de servicios cloud para big data, ¿qué relación existe entre los servicios on-premise y cloud en términos de procesamiento?. Son complementarios y pueden integrarse. Son completamente independientes. Son mutuamente excluyentes. Solo funcionan en entornos híbridos.

¿Qué es la Calidad de Datos?. Una técnica de visualización de datos. Los procesos, técnicas y algoritmos para mejorar la calidad de los datos. Un conjunto de reglas de programación. Un sistema de almacenamiento de información.

La completitud en calidad de datos se refiere a: El grado en que todos los atributos del dato están presentes. El formato de los datos. La velocidad de procesamiento. La exactitud de los datos.

¿Qué indica la propiedad ACID "Isolation" en bases de datos?. La durabilidad de los datos. Las concurrencias no interfieren en los valores. Todo o nada en las operaciones. La transformación entre estados válidos.

Entre las siguientes opciones, ¿Cuál NO es un pilar de la calidad de datos?. Procesamiento de datos. Perfilado de datos. Modelado de datos. Corrección de errores.

En el contexto de precisión y exactitud, ¿Qué representa una alta precisión sin exactitud?. Datos dispersos pero cerca del objetivo. Datos dispersos y lejos del objetivo. Datos agrupados y cerca del objetivo. Datos agrupados pero lejos del objetivo.

¿Qué acción se debe tomar cuando la precisión es más importante que la completitud?. Aceptar el error. Rechazar el error. Corregir el error. Aplicar un valor predeterminado.

¿Qué implicación tiene la propiedad de unicidad en relación con la integridad referencial?. La unicidad solo afecta a registros individuales sin impacto en relaciones. Son propiedades mutuamente excluyentes. Los valores únicos garantizan la integridad entre conjuntos relacionados. La integridad referencial invalida la necesidad de unicidad.

¿Cuál es el propósito principal de una suma de verificación?. Detectar cambios en la transmisión de datos. Comprimir archivos. Mejorar la velocidad de transmisión. Cifrar información.

En HDFS, ¿Qué característica lo hace especialmente útil para Big Data?. Está diseñado para archivos grandes con lectura secuencial. Funciona solo con bases de datos relacionales. No requiere redundancia de datos. Tiene mejor rendimiento en lecturas aleatorias.

¿Qué diferencia fundamental existe entre MD5 y SHA?. SHA ofrece mayor seguridad y evita colisiones. SHA solo funciona en sistemas Unix. MD5 proporciona mejor compresión. MD5 es más rápido de calcular.

La consistencia en un sistema distribuido afecta a la Integridad de los Datos: cuando solo importa la velocidad de actualización. cuando los cambios deben propagarse manteniendo la coherencia entre nodos. cuando La integridad es independiente de la consistencia. cuando Las actualizaciones son siempre atómicas.

¿Qué significa HDFS?. High Data File System. Hadoop Distributed File System. Hadoop Data File Storage. High Dimension File System.

¿Cómo afecta la arquitectura de HDFS a la tolerancia a fallos?. Distribuye datos entre racks y mantiene réplicas en diferentes ubicaciones. No contempla la tolerancia a fallos. Requiere backup manual de los datos. Centraliza todos los datos en un único punto.

¿Qué función principal cumplen los DataNodes?. Administran la red. Controlan el acceso de usuarios. Gestionan los metadatos del sistema. Almacenan los bloques físicos y gestionan su replicación.

¿Qué es un RDD en Spark?. Un tipo de nodo worker. Un sistema de archivos distribuido. La unidad primaria de abstracción en Spark. Un tipo de base de datos.

¿Qué ocurre cuando se ejecuta una transformación en Spark?. Se almacena en el DAG y se ejecuta cuando hay una acción. Se descarta automáticamente. Se ejecuta solo en el nodo master. Se ejecuta inmediatamente.

En una estrategia de Broadcast Join. Se distribuyen los DataFrames equitativamente. Se envía el DataFrame más grande a todos los executors. Se envía el DataFrame más pequeño a todos los executors. Siempre se envían ambos DataFrames a todos los executors.

¿Cuál es la principal diferencia entre Oozie y Airflow?. Oozie usa Python nativo mientras Airflow XML. Airflow solo funciona con bases de datos relacionales. Airflow usa Python nativo mientras Oozie es específico para Hadoop. Oozie es más moderno que Airflow.

¿Qué herramienta de monitorización pertenece a Microsoft?. Prometheus. CloudWatch. Azure Monitor. Datadog.

¿Qué combinación de características representa mejor el futuro de la monitorización BigData?. AIOps y Green Monitor. ML Integration y Automation. Edge Analytics y Cloud Native. Todas las anteriores.

¿Qué es el logging en programación?. Un método de programación. Una herramienta de depuración del código fuente. Un sistema de monitoreo en tiempo real. La información aportada por el SO o la Aplicación.

Cuál NO es un nivel de logging?. TRACE. DEBUG. CRITICAL. INFO.

En el contexto de Lazy Evaluation de Spark, ¿Por qué los logs pueden ser engañosos?. Los logs son asíncronos. Los logs no registran errores. Los logs son demasiado detallados. Los logs de transformaciones aparecen antes del error real.

Denunciar Test