Tema 3 - Cloud Computing
|
|
Título del Test:
![]() Tema 3 - Cloud Computing Descripción: Cloud Computing |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál fue el orden correcto de evolución de arquitecturas de datos?. Data Lake → Data Warehouse → Lakehouse → Data Mesh. Data Warehouse → Data Lake → Lakehouse → Data Mesh. Data Mesh → Data Lake → Data Warehouse → Lakehouse. Data Lake → Lakehouse → Data Warehouse → Data Mesh. Un Data Warehouse está orientado principalmente a: Datos no estructurados. Toma de decisiones. Streaming en tiempo real. IA. Un Data Warehouse se optimiza para: Analítica multidimensional. Streaming. ML en tiempo real. IoT. El Data Lake almacena principalmente: Datos curados. Datos estructurados. Datos en bruto de múltiples fuentes. Solo datos históricos. Los principales usuarios del Data Warehouse suelen ser: Ingenieros ML. Científicos de datos. Analistas BI y negocio. DevOps. Los principales usuarios del Data Lake suelen ser: Analistas BI. Científicos de datos e ingenieros ML. Usuarios de negocio. Marketing. El rendimiento típico del Data Lake es: Alto. Medio/alto. Bajo/medio. Muy alto. Un Lakehouse combina características de: OLTP + OLAP. Data Warehouse + Data Lake. Cloud + On-premise. Batch + Streaming. El objetivo principal del Lakehouse es: Reducir almacenamiento. Utilizar todos los datos para innovar. Eliminar el data lake. Sustituir el cloud. ¿Cuál NO es un elemento clave del Lakehouse?. Catálogo de datos. Integración de datos. Servicios open-source gestionados. Eliminación del data warehouse. Un catálogo de datos permite: Guardar backups. Descubrir y gestionar datos. Ejecutar ML. Crear dashboards. Data Mesh propone: Centralización del dato. Descentralización por dominios. Eliminación del data lake. Sustituir IA. El principio clave de Data Mesh es: Datos como infraestructura. Datos como producto. Datos como servicio. Datos como pipeline. ¿Cuál NO es un principio de Data Mesh?. Propiedad por dominio. Gobernanza federada. Plataforma autoservicio. Centralización total. Data Mesh es principalmente: Tecnología. Cambio cultural y organizativo. Herramienta AWS. Base de datos. La analítica de datos se basa en: Modelos matemáticos complejos. Ejemplos de entrenamiento. Lógica de programación. Redes neuronales. IA/ML es más adecuado para: Datos estructurados simples. Datos no estructurados y complejos. Bases relacionales. Reporting BI. ¿Qué tipo de analítica responde “¿Qué pasó?”?. Predictiva. Prescriptiva. Descriptiva. Diagnóstica. ¿Qué analítica responde “¿Qué pasará?”?. Descriptiva. Diagnóstica. Predictiva. Prescriptiva. ¿Cuál es la más valiosa y difícil?. Descriptiva. Diagnóstica. Predictiva. Prescriptiva. Una canalización de datos sirve para: Almacenar datos únicamente. Soportar decisiones basadas en datos. Crear dashboards. Ejecutar ML exclusivamente. Orden correcto del pipeline: Almacenamiento → Ingesta → Análisis. Ingesta → Almacenamiento → Procesamiento → Análisis. Análisis → Ingesta → Procesamiento. Procesamiento → Ingesta → Análisis. Diseñar el pipeline debe empezar por: Herramientas. Infraestructura. La decisión de negocio. La base de datos. La preparación de datos incluye: Limpieza y normalización. Descubrimiento. Enriquecimiento. Todas las anteriores. El pipeline es: Lineal. Iterativo. Estático. Manual. Data wrangling consiste en: Crear dashboards. Transformar datos en datos útiles. Entrenar modelos. Migrar servidores. ¿Qué paso elimina duplicados?. Enriquecimiento. Limpieza. Descubrimiento. Publicación. ¿Qué paso combina fuentes?. Validación. Limpieza. Enriquecimiento. Descubrimiento. ¿Qué paso garantiza integridad?. Validación. Limpieza. Estructuración. Descubrimiento. Publicación de datos implica: Poner datos disponibles para consumo. Borrar datos. Analizar datos. Modelar datos. ETL significa: Extract Transform Load. Extract Transfer Load. Execute Transform Load. Extract Test Load. ETL funciona mejor con: Data Lake. Datos estructurados. Streaming. IoT. ELT carga primero los datos en: Data Warehouse. Data Lake. Dashboard. Streaming engine. Ventaja clave de ELT: Ingestión más rápida. Mayor seguridad. Menor almacenamiento. Menor latencia siempre. ELT es mejor para: Datos estructurados. Datos no estructurados. OLTP. Reporting. Batch procesa datos: Continuamente. En bloques programados. En tiempo real. Solo en ML. Streaming procesa datos: Bajo demanda. En tiempo real. Mensualmente. Offline. Ejemplo de streaming: Informes diarios. Recomendaciones en tiempo real. Backup semanal. ETL nocturno. Streaming requiere: Alta latencia. Procesamiento inmediato. Procesamiento manual. Datos estructurados. Estrategia de 3 pilares: Modernizar, Unificar, Innovar. Migrar, Ejecutar, Analizar. Almacenar, Procesar, Consumir. Batch, Streaming, ML. Modernizar implica: Migrar a cloud. Reducir trabajo manual. Usar servicios gestionados. Todas las anteriores. Unificar implica: Romper silos de datos. Crear fuente única de verdad. Democratizar acceso. Todas las anteriores. Innovar implica: IA/ML para decisiones. Decisiones proactivas. Uso de datos no estructurados. Todas las anteriores. Ser una organización data-driven implica: Tratar los datos como activo estratégico. Usar solo BI. Tener más servidores. Reducir almacenamiento. Un Data Warehouse está optimizado para: Streaming. Datos no estructurados. Análisis multidimensional y métricas. Machine learning en tiempo real. ¿Qué característica define a un Data Warehouse?. Datos volátiles. Datos orientados a transacciones. Datos orientados a decisiones. Datos sin estructura. ¿Qué tipo de datos almacena un Data Lake?. Solo estructurados. Solo históricos. Estructurados y no estructurados. Solo datos BI. ¿Qué problema principal tenía el enfoque DW + Data Lake?. Demasiada automatización. Falta de seguridad. Ninguno por sí solo cubre todas las necesidades. Alto rendimiento. ¿Qué es un Lakehouse?. Un data lake barato. Un DW con IA. Un híbrido Data Lake + Data Warehouse. Un sistema NoSQL. Objetivo principal del Lakehouse: Reducir datos. Usar todos los datos para innovar. Eliminar BI. Sustituir ML. El Lakehouse permite: Solo datos estructurados. Solo BI. Datos estructurados, semi y no estructurados. Solo ML. ¿Qué añade el Lakehouse respecto al Data Lake?. Menos gobernanza. Menos rendimiento. Calidad y gobernanza del DW. Menos seguridad. ¿Qué afirma el tema sobre datos no estructurados?. Tienen menos valor. Son irrelevantes. A mayor distancia del dato estructurado, mayor valor potencial. No sirven para ML. ¿Qué aumenta al alejarnos del dato estructurado?. BI. SQL. Necesidad de IA. Seguridad. ¿Qué problema intenta resolver el Lakehouse?. Falta de CPU. Complejidad de preparación y explotación de datos. Falta de red. Falta de almacenamiento. ¿Cuál NO es un elemento clave del Lakehouse?. Data warehouse. Data lake. Catálogo de datos. Blockchain. ¿Qué función tiene el catálogo de datos?. Ejecutar ML. Descubrir y gestionar datos. Almacenar datos. Procesar streaming. ¿Qué rol tienen herramientas open-source en Lakehouse?. No se usan. Son incompatibles. Son servicios gestionados compatibles. Solo para ML. ¿Qué permite la integración de datos en Lakehouse?. Mover datos entre lago, DW y analítica. Eliminar DW. Eliminar ML. Eliminar ETL. Beneficio del Lakehouse para TI: Más costes. Más complejidad. Reducción de costes y conocimientos necesarios. Menos productividad. ¿Qué es Data Mesh principalmente?. Tecnología de almacenamiento. Paradigma organizativo. Base de datos. Algoritmo ML. Idea clave del Data Mesh: Datos como infraestructura. Datos como producto. Datos como backup. Datos como logs. Objetivo principal del Data Mesh: Centralizar datos. Descentralizar por dominios. Eliminar gobernanza. Reducir datos. ¿Qué elimina Data Mesh?. Usuarios. Científicos de datos. Intermediario informático central. Bases de datos. Principios de Data Mesh: 2. 3. 4. 5. ¿Cuál NO es principio Data Mesh?. Propiedad del dominio. Autoservicio plataforma. Gobernanza federada. Centralización total. ¿Qué conecta la plataforma Data Mesh?. Solo bases de datos. Productores y consumidores. Solo analistas. Solo ML. Data Mesh es: Un destino final. Un viaje evolutivo. Un software. Un data lake. ¿Qué promueve Data Mesh culturalmente?. Centralización. Pensamiento producto. Pensamiento hardware. Pensamiento SQL. Data analytics sirve mejor para: Datos no estructurados. Datos estructurados. Streaming. IoT. IA/ML sirve mejor para: Datos simples. Datos complejos y no estructurados. SQL. Reporting. IA/ML aprende: Reglas manuales. Ejemplos en datos. SQL. ETL. Analítica descriptiva responde: ¿Por qué pasó?. ¿Qué pasará?. ¿Qué pasó?. ¿Qué hacer?. Analítica diagnóstica responde: ¿Qué pasó?. ¿Por qué pasó?. ¿Qué pasará?. ¿Qué hacer?. Analítica predictiva responde: ¿Qué pasó?. ¿Por qué pasó?. ¿Qué pasará?. ¿Cómo hacerlo?. Analítica prescriptiva responde: ¿Qué pasó?. ¿Por qué pasó?. ¿Qué pasará?. ¿Qué hacer para que ocurra?. Más valor → analítica: Descriptiva. Diagnóstica. Predictiva. Prescriptiva. Más difícil de obtener → analítica: Descriptiva. Predictiva. Prescriptiva. Diagnóstica. Más datos NO implica: Más coste. Más riesgo. Más valor automático. Más datos no estructurados. Pipeline de datos = infraestructura para: Programación. Decisiones basadas en datos. Seguridad. Redes. Pasos básicos pipeline: Recoger → almacenar → usar. Recoger → borrar → usar. Analizar → borrar → visualizar. Programar → entrenar → borrar. Diseño pipeline empieza por: Tecnología. Base de datos. Problema de negocio. Herramientas. Capas pipeline: 3. 4. 5. 6. Primera capa pipeline: Ingesta. Fuentes de datos. Visualización. ML. Última capa pipeline: Ingesta. Almacenamiento. Predicciones y decisiones. Transformación. Preparación de datos incluye: Descubrir, limpiar, normalizar, enriquecer. Solo limpiar. Solo ETL. Solo SQL. Pipeline es: Lineal. Iterativo. Estático. Manual. Data engineer trabaja más en: Modelos ML. Infraestructura pipeline. Visualización. BI. Data scientist trabaja más en: Infraestructura. Redes. Datos dentro del pipeline. Seguridad. ETL orden correcto: Extract → Load → Transform. Extract → Transform → Load. Load → Extract → Transform. Transform → Extract → Load. ELT orden correcto: Extract → Transform → Load. Load → Transform → Extract. Extract → Load → Transform. Transform → Load → Extract. ETL es mejor para: Datos no estructurados. Data lakes. Datos estructurados. Streaming. ELT es mejor para: DW clásico. Data lake. OLTP. ERP. Ventaja ETL: Ingesta rápida. Datos listos para análisis. Más flexible. Más barato. Ventaja ELT: Transformación previa. Ingesta más rápida. Menos datos. Solo estructurados. Batch =. Datos continuos. Procesamiento en tiempo real. Procesamiento por lotes. Streaming. Streaming =. Datos continuos. Datos históricos. ETL clásico. BI. Streaming se usa cuando: Datos lentos. Necesidad de análisis inmediato. Datos pequeños. Datos históricos. Batch típico: Recomendaciones en tiempo real. Informes nocturnos. IoT en tiempo real. Detección fraude inmediata. |




