Cuestionario sobre Big Data
![]() |
![]() |
![]() |
Título del Test:![]() Cuestionario sobre Big Data Descripción: Temas 1 2 3 4 |




Comentarios |
---|
NO HAY REGISTROS |
¿Cuál de las siguientes tecnologías se utiliza para el procesamiento distribuido en Big Data?. OLAP. Data Warehouses. Hadoop. ETL. ¿Qué herramienta se utiliza comúnmente para el análisis a gran escala en Big Data?. Excel. Spark. Tableau. Microsoft Word. ¿Cuál de las siguientes bases de datos es un ejemplo de NoSQL?. MySQL. SQL Server. MongoDB. Oracle. ¿Qué principio ético asegura que los usuarios comprendan cómo se utilizarán sus datos?. Equidad. Transparencia. Responsabilidad. Consentimiento Informado. ¿Cuál es una regulación europea que protege los datos personales de los ciudadanos de la UE?. CCPA. LGPD. GDPR. HIPAA. ¿Qué beneficio principal proporciona la implementación de tecnologías de Big Data en el sector salud?. Reducción de costos de inventario. Personalización de tratamientos médicos. Mejora en la logística de transporte. Análisis de sentimientos en redes sociales. ¿Cuál es una ventaja clave de utilizar bases de datos NoSQL en Big Data?. Estructura jerárquica rígida. Flexibilidad para manejar datos no estructurados. Requiere esquemas predefinidos. Solo se usa para datos estructurados. ¿Qué práctica ética implica evitar sesgos en el análisis de datos?. Transparencia. Responsabilidad. Equidad y no discriminación. Consentimiento informado. ¿Qué herramienta es ampliamente utilizada para la gestión de proyectos Agile?. MATLAB. JIRA. Excel. Microsoft Word. ¿Cuál es una responsabilidad principal de un Big Data Architect?. Crear informes de visualización. Diseñar la arquitectura de sistemas de Big Data. Analizar grandes conjuntos de datos. Desarrollar modelos de machine learning. ¿Cuál de las siguientes fases del ciclo de vida del dato es crucial para asegurar que los datos sean precisos y relevantes desde el principio?. Almacenamiento. Uso. Creación. Archivado. ¿Qué fase del ciclo de vida del dato implica la implementación de tecnologías y prácticas para asegurar la accesibilidad y seguridad de los datos a largo plazo?. Uso. Eliminación. Almacenamiento. Compartición. ¿Cuál de las siguientes actividades es clave durante la fase de uso del ciclo de vida del dato?. Monitoreo continuo. Creación de datos. Transformación de datos. Eliminación segura. ¿Qué fase del ciclo de vida del dato se centra en la gestión de permisos y en asegurar que los datos compartidos cumplen con las políticas de seguridad y privacidad?. Creación. Compartición. Almacenamiento. Eliminación. ¿Cuál es el objetivo principal de la fase de archivado en el ciclo de vida del dato?. Destruir datos obsoletos. Mantener los datos para uso diario. Almacenar datos para posibles usos futuros, sin interferir en las operaciones diarias. Recopilar datos de fuentes externas. ¿Qué fase del ciclo de vida del dato es esencial para proteger la privacidad y cumplir con las regulaciones mediante la destrucción completa de la información?. Uso. Almacenamiento. Eliminación. Creación. Durante la fase de creación, ¿por qué es crucial la precisión y relevancia de los datos?. Para reducir costos de almacenamiento. Porque los errores pueden propagarse y causar problemas en fases posteriores. Para facilitar la eliminación de datos. Para simplificar el uso de herramientas de análisis. En la fase de almacenamiento, ¿qué tecnologías se utilizan comúnmente para asegurar la accesibilidad y seguridad de los datos?. Bases de datos relacionales tradicionales. Sistemas de archivos distribuidos y soluciones en la nube. Herramientas de visualización de datos. Algoritmos de minería de datos. ¿Qué práctica es fundamental durante la fase de compartición para proteger los datos sensibles?. Integración de sistemas. Utilización de API. Gestión de permisos y encriptación de transferencias de datos. Análisis predictivo. ¿Cuál es el propósito de la fase de eliminación en el ciclo de vida del dato?. Facilitar el análisis de datos. Asegurar que los datos sean precisos. Destruir datos que ya no tienen valor o han superado el tiempo de retención legal. Compartir datos con socios externos. ¿Cuál de las siguientes es una responsabilidad principal de un Data Scientist?. Crear pipelines de datos. Desarrollar modelos predictivos. Supervisar la calidad de los datos. Diseñar la arquitectura de Big Data. ¿Qué habilidad es esencial para un Data Engineer?. Conocimientos en SQL y NoSQL. Programación en R. Visualización de datos. Desarrollo de modelos predictivos. ¿Cuál es una característica clave de la metodología Agile?. Ciclos de desarrollo largos. Entrega continua de valor. Estructura rígida. Falta de retroalimentación. ¿Qué papel tiene el Chief Data Officer (CDO) en una empresa?. Diseñar modelos de machine learning. Desarrollar la estrategia de datos. Crear informes de datos. Programar en Python y R. ¿Cuál de las siguientes no es una responsabilidad de un Data Analyst?. Análisis y visualización de datos. Creación de informes. Colaboración con equipos de negocio. Diseño de arquitectura de datos. ¿Cuál es una ventaja de aplicar Agile en proyectos de Big Data?. Proyectos rígidos y predecibles. Tiempos de entrega largos. Flexibilidad y adaptabilidad a cambios. Estructura sin colaboración. ¿Qué herramienta es comúnmente usada para la gestión de proyectos Agile?. Microsoft Word. JIRA. Excel. MATLAB. ¿Cuál de los siguientes roles se encarga de crear y mantener pipelines de datos?. Data Scientist. Data Engineer. Data Analyst. Machine Learning Engineer. ¿Qué práctica no es parte de la metodología Agile?. Iteración y retroalimentación. Colaboración continua. Estructura jerárquica rígida. Transparencia y visibilidad. ¿Cuál es una responsabilidad de un Big Data Architect?. Analizar grandes conjuntos de datos. Crear informes de visualización. Diseñar la arquitectura de sistemas de Big Data. Desarrollar modelos de machine learning. ¿Qué es Big Data y por qué es importante?. Un conjunto de técnicas para almacenar datos en la nube. Grandes volúmenes de datos que no pueden ser procesados por métodos tradicionales. Una metodología de programación para bases de datos relacionales. Un tipo de software específico para análisis de datos. Describa los componentes fundamentales de una arquitectura Big Data: Procesamiento, almacenamiento, red y seguridad. Ingesta de datos, almacenamiento, procesamiento, análisis y visualización. CPU, memoria, almacenamiento y red. Datos estructurados, no estructurados, semiestructurados y metadata. Compare el procesamiento batch y en tiempo real: Batch es más rápido que en tiempo real. En tiempo real solo es adecuado para datos históricos. Batch procesa datos en bloques, mientras que en tiempo real procesa datos a medida que llegan. No hay diferencias significativas entre ambos. ¿Qué es el modelo Lambda?. Un modelo matemático para el análisis de datos. Una arquitectura de procesamiento de datos. Un tipo de base de datos NoSQL. Un lenguaje de programación utilizado para Big Data. ¿En qué se diferencia el modelo Kappa del modelo Lambda?. El modelo Kappa no utiliza procesamiento en tiempo real. El modelo Kappa solo se utiliza para bases de datos relacionales. El modelo Kappa elimina el componente batch, centrándose únicamente en el procesamiento en tiempo real. El modelo Kappa es un lenguaje de programación. ¿Cuál de las siguientes es herramienta de almacenamiento masivo?. SQL Server. Hadoop HDFS. MongoDB. Redis. ¿Qué es Apache Spark?. Apache Spark es una base de datos NoSQL. Apache Spark es una plataforma de procesamiento de datos en tiempo real y batch. Apache Spark solo se utiliza para almacenamiento de datos. Apache Spark es un lenguaje de programación. ¿Cuáles de los siguientes son ejemplos de bases de datos NoSQL y sus casos de uso?. MySQL y PostgreSQL: análisis transaccional y consultas complejas. MongoDB y Cassandra: almacenamiento de documentos y datos distribuidos. SQLite y Oracle: almacenamiento local y empresarial. MS Access y IBM DB2: aplicaciones de escritorio y mainframes. ¿Qué plataformas en la nube son populares para Big Data y por qué?. Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP): por su escalabilidad, servicios gestionados y soporte para diversas herramientas de Big Data. Dropbox y iCloud: por su capacidad de almacenamiento de archivos personales. GitHub y Bitbucket: por su integración con control de versiones. Heroku y DigitalOcean: por su simplicidad en el despliegue de aplicaciones. ¿Cuáles son algunos retos al integrar diferentes tecnologías en una arquitectura Big Data?. La alta disponibilidad y escalabilidad de los datos. La interoperabilidad, la gestión de la complejidad y la consistencia de los datos. La facilidad de uso y la simplicidad del sistema. La velocidad de procesamiento y el costo. |