option
Cuestiones
ayuda
daypo
buscar.php

Big Data Aplicado #1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Big Data Aplicado #1

Descripción:
Test número 3

Fecha de Creación: 2026/01/12

Categoría: Informática

Número Preguntas: 20

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál de las siguientes es una de las 5V's del Big Data?. Validación temporal. Volumen. Virtualización. Visualización.

¿Qué significa IaaS en los modelos de servicio Cloud?. Intelligence as a Service. Integration as a Service. Information as a Service. Infrastructure as a Service.

¿Qué expresión describe el problema de trabajar con datos de baja calidad?. Quality in, quality out. Input equals output. Data in, value out. Garbage in, garbage out.

¿Qué porcentaje del trabajo de un científico de datos se invierte en procesos de limpieza?. 90%. 50%. 60%. 80%.

¿Cuál es la característica principal de la escalabilidad en sistemas distribuidos?. Escalabilidad vertical: aumentar la capacidad de un único servidor. Escalabilidad circular: rotar entre servidores disponibles. Escalabilidad piramidal: distribuir en capas jerárquicas. Escalabilidad horizontal: agregar más nodos para aumentar almacenamiento y rendimiento de manera lineal.

¿Qué es HDFS?. Hybrid Data Flow System. Hierarchical Distributed File Structure. High Definition File System. Hadoop Distributed File System, diseñado para manejar grandes volúmenes de datos con alta tolerancia a fallos.

¿Cuál es el ROI (Return on Investment) de la calidad de datos?. 500% - 1,000%. 100% - 500%. 200% - 2,000%. 1,000% - 10,000%.

¿Qué es PaaS?. Programming as a Service. Platform as a Service. Projection as a Service. Processing as a Service.

En el modelo maestro-esclavo de sistemas distribuidos, ¿Cuál es una limitación mencionada?. Puede crear cuellos de botella aunque proporciona consistencia fuerte. Requiere mínimo 10 nodos esclavos. Solo funciona con bases de datos relacionales. No permite lecturas concurrentes.

¿Cuál es el coste de validar y corregir errores DESPUÉS de la ingesta de datos?. Entre 1€ y 10€ por error. Entre 5€ y 50€ por error. Entre 10€ y 100€ por error. Entre 20€ y 200€ por error.

¿Qué sistema de coordinación se menciona como ejemplo popular en los sistemas distribuidos?. ZooKeeper. Redis Sentinel. Consul. Etcd.

¿Cuáles son los tipos de fallos que pueden afectar a sistemas de almacenamiento distribuidos?. Únicamente fallos de red y software. Exclusivamente errores humanos. Solo fallos de hardware. Fallos de hardware, de red, de software, de energía y errores humanos.

¿Qué característica distingue la V de "Variedad" en las 5V's del Big Data?. Los diferentes tipos y formatos de datos: estructurados (bases de datos relacionales), semi-estructurados (JSON, XML) y no estructurados (textos, imágenes, videos). La veracidad de la información. El volumen de almacenamiento necesario. La velocidad de generación de datos.

¿Cuál es una de las dimensiones clave de la calidad de datos que impacta la validez y la precisión?. Escalabilidad. Fragmentación. Redundancia. Completitud.

¿Qué problema específicamente resuelve el particionamiento (Sharding) en sistemas distribuidos?. Simplifica la administración de usuarios. Reduce el consumo energético del sistema. Aumenta la seguridad mediante encriptación de fragmentos. Mejora el rendimiento y la escalabilidad al dividir los datos en fragmentos más pequeños asignados a diferentes nodos.

¿Qué plataformas cloud se utilizan para almacenamiento distribuido?. Amazon S3, Google Cloud Storage y Azure Blob Storage. IBM Cloud Storage, Oracle Cloud y Alibaba Cloud. Dropbox, OneDrive y iCloud. DigitalOcean Spaces, Linode y Vultr Object Storage.

En el contexto de optimización de costos en Big Data, ¿Qué política se utiliza en AWS S3?. S3 Lifecycle Policies que permiten mover automáticamente datos entre diferentes clases de almacenamiento, desde Standard hasta Glacier. S3 Cost-Optimizer que negocia mejores precios. S3 Smart-Delete que elimina automáticamente datos duplicados. S3 Auto-Archive que comprime datos antiguos.

¿Qué técnicas de monitorización se utilizan para detectar fallos en sistemas distribuidos?. Ping sweep y traceroute continuo. SNMP polling exclusivamente. Log aggregation únicamente. Heartbeat monitoring que verifica constantemente el estado de los nodos y timeout detection.

¿Qué limitación fundamental establece el teorema CAP en sistemas distribuidos?. Restringe el tamaño máximo de archivos a 5TB. Define que solo se pueden tener 2 réplicas de datos. Limita el número de conexiones simultáneas a 1000. Establece limitaciones entre Consistencia, Disponibilidad y Tolerancia a particiones que deben ser evaluadas al diseñar el sistema.

¿Qué servicio de AWS ha evolucionado para ofrecer capacidades de AutoML?. AWS SageMaker. AWS Lambda. AWS Glue. AWS EMR.

Denunciar Test