Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEBDA_1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
BDA_1

Descripción:
Big Data Aplicado

Autor:
AKENATON
(Otros tests del mismo autor)

Fecha de Creación:
07/04/2024

Categoría:
Informática

Número preguntas: 48
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
¿Cómo se consigue escalar o ganar mayor capacidad en una plataforma Hadoop?: a) Añadiendo más nodos worker al clúster. b) Realizando optimizaciones en los sistemas operativos. c) Añadiendo más nodos master al clúster d) Cambiando los servidores por otros con CPUs más potentes.
Aproximadamente, cuánto costaría una infraestructura Hadoop de 10 nodos worker, 2 nodos master y 1 nodo frontera?: a) 1.000.000 euros. b) 300.000 euros. c) 100.000 euros. d) 10.000 euros.
¿Cuáles son las herramientas del ecosistema Hadoop más utilizadas?: a) Impala, Pig y HBase. b) Impala, Sqoop y Storm. c) Spark, Hive y Kafka. d) Spark, Oozie y Mahout.
¿Cuál es el componente que se utiliza para planificar, orquestar o automatizar flujos de trabajo en Hadoop?: a) Impala b) Oozie c) Hive d) YARN.
¿Cuál es la herramienta o componente del ecosistema Hadoop con la que los Data Scientists realizan análisis interactivos?: a) HDFS b) Hive c) Ambari d) Zeppelin.
¿Qué cantidad de memoria es recomendada para la instalación de Hadoop? a) Al necesitar hardware commodity, no importa la cantidad de memoria. b) Al menos 1 Tb en todos los nodos. c) Se recomienda 256 Gb de memoria RAM en todos los nodos. d) 64 Gb en los nodos worker y 256 Gb en los nodos master.
¿Cuál de las siguientes afirmaciones el correcta sobre las soluciones de Hadoop-as-a-Service?: a) No requieren un desembolso inicial. b) Son mucho más eficientes que las soluciones en infraestructura propia. c) Son muy baratas, pero hay que estudiar muy bien qué dimensionamiento debe tener la plataforma. d) Son difíciles de instalar o configurar.
¿Cuáles son las herramientas del ecosistema Hadoop más utilizadas?: a) Impala, Pig y HBase. b) Impala, Sqoop y Storm. c) Spark, Oozie y Mahout. d) Spark, Hive y Kafka.
¿Cuáles son las herramientas del ecosistema Hadoop más utilizadas?: a) Spark, Hive y Kafka b) Impala, Pig y HBase. c) Impala, Sqoop y Storm. d) Spark, Oozie y Mahout.
¿Qué tipo de nodo en Hadoop tiene discos en RAID?: a) Todos los nodos. b) Ningún nodo. c) Los nodos worker. .
Sobre el tipo de red en el que conectar Hadoop, ¿qué afirmación es correcta?: a) Hadoop no necesita red de comunicaciones. b) La red debería tener un buen ancho de banda, por ejemplo 10-20 Gbps. c) No importa el ancho de banda de la red, pero sí que tenga un ping muy bajo. d) Al necesitar hardware commodity, no importa el tipo de red.
¿En qué año se puede decir que se originó Hadoop? a) 2003 b) 2006 c) 2004 d) 2011.
Imagina que queremos montar una plataforma Hadoop para traer datos de una base de datos relacional (por ejemplo, una base de datos Oracle), almacenarlos y hacer consultas con un lenguaje similar a SQL para calcular una serie de métricas (medias, máximos, etc.). ¿Cuál de las siguientes combinaciones de componentes de Hadoop crees que servirá para llevar a cabo el caso de uso? a) YARN + Sqoop + Hive b) HDFS + Flume + YARN c) Impala HDFS + YARN + Sqoop + Hive.
¿Hadoop es una plataforma o una herramienta? a) Plataforma b) Herramienta.
¿Qué problema intentaban resolver Doug y Mike en el proyecto Apache Nutch? a) Almacenamiento y procesamiento de grandes cantidades de datos b) Creación de un motor de búsqueda para Yahoo! c) Implementación de un sistema de seguridad para la red de Yahoo!.
¿Qué inspiró a Doug y Mike para resolver el problema de almacenamiento de datos en Apache Nutch? a) La solución de Yahoo! para el almacenamiento de grandes volúmenes de datos b) La solución de Google para el almacenamiento de grandes volúmenes de datos c) La solución de Microsoft para el almacenamiento de grandes volúmenes de datos Ninguna de las anteriores.
¿Qué paradigma de computación utilizó Google para procesar grandes conjuntos de datos en su paper MapReduce? a) Programación orientada a objetos b) Programación funcional c) Programación de eventos.
¿Por qué Doug Cutting decidió sacar GFS y MapReduce del proyecto original Apache Nutch y crear Hadoop como entidad propia? a) Porque Apache Nutch no tenía la capacidad técnica para implementar la solución. b) Porque Yahoo! tenía la infraestructura necesaria para implementar la solución c) Porque quería ofrecer la solución como código libre al mundo.
¿Qué compañía pretendía hacer de Hadoop un producto de uso empresarial? a) Apache Software Foundation b) Yahoo! c) Cloudera.
¿Por qué se considera Hadoop una plataforma? a) Porque tiene un único propósito y ofrece un tipo de funcionalidad b) Porque es una caja de herramientas que proporciona un conjunto de herramientas con las que construir una gran variedad de aplicaciones que requieran almacenar y procesar grandes volúmenes de datos c) Porque se basa en una infraestructura que tiene muchos servidores que trabajan conjuntamente para almacenar o para procesar los datos.
¿Qué significa que Hadoop es opensource? a) Que es una solución comercial y hay que pagar licencias o costes de adquisición del software de la plataforma b) Que todo su código es libre y por lo tanto, no hay que pagar licencias o costes de adquisición del software de la plataforma c) Que solo se puede utilizar para ciertos fines específicos.
¿Qué capacidad ofrece Hadoop en cuanto al almacenamiento de datos? a) Permite almacenar solo datos estructurados b) Permite almacenar solo datos semiestructurados c) Permite almacenar prácticamente cualquier volumen de datos de cualquier tipo: estructurados, semiestructurados o datos no estructurados.
¿En qué se basa la infraestructura de Hadoop? a) En un único servidor que realiza todas las tareas de almacenamiento y procesamiento de los datos b) En una infraestructura que tiene muchos servidores que trabajan conjuntamente para almacenar o para procesar los datos c) En un servidor principal y varios servidores secundarios que realizan tareas específicas.
¿Cómo es el modelo de escalado de Hadoop? a) Vertical b) Horizontal c) No se puede escalar.
¿Qué ventaja tiene el modelo de escalado horizontal de Hadoop? a) El coste de incrementar la capacidad es exponencial b) El coste de incrementar la capacidad es lineal c) No hay ninguna ventaja.
¿Cuáles son los componentes principales de Hadoop? a) HDFS y YARN. b) MapReduce y YARN. c) HDFS y MapReduce. d) HDFS, MapReduce y YARN.
¿Qué es HDFS? a) Un gestor de recursos. b) Un sistema de procesamiento masivo de datos. c) Un sistema de ficheros que almacena los datos. d) Una base de datos NoSQL.
¿Qué es YARN? a) Un gestor de recursos. b) Un sistema de procesamiento masivo de datos. c) Un sistema de ficheros que almacena los datos. d) Una base de datos NoSQL.
¿Qué es MapReduce? a) Un gestor de recursos. b) Un sistema de procesamiento masivo de datos. c) Un sistema de ficheros que almacena los datos. d) Una base de datos NoSQL.
¿Qué es la ingesta de información en el contexto de Big Data? a) El proceso de almacenar grandes volúmenes de datos. b) El proceso de procesar grandes volúmenes de datos. c) El proceso de traer los datos a la plataforma. d) El proceso de acceder a los datos con lenguajes estándar.
¿Qué es Apache Hive? a) Un sistema de procesamiento masivo de datos. b) Una base de datos NoSQL. c) Un componente para ingestar streams de datos. d) Una herramienta que permite acceder a ficheros de datos estructurados o semiestructurados que están en HDFS como si fueran una tabla de una base de datos relacional, utilizando un lenguaje similar a SQL.
¿Qué es Apache Pig? a) Una herramienta que permite acceder a ficheros de datos estructurados o semiestructurados que están en HDFS como si fueran una tabla de una base de datos relacional, utilizando un lenguaje similar a SQL. b) Una utilidad para definir flujos de datos de transformación o consulta mediante un lenguaje de scripting. c) Una base de datos NoSQL. d) Un sistema de procesamiento masivo de datos.
¿Qué es Apache HBase? a) Una herramienta que permite acceder a ficheros de datos estructurados o semiestructurados que están en HDFS como si fueran una tabla de una base de datos relacional, utilizando un lenguaje similar a SQL. b) Una base de datos NoSQL de tipo columnar que permite el acceso aleatorio, atómico y con operaciones de edición de datos. c) Un sistema de procesamiento masivo de datos. d) Un componente para ingestar streams de datos.
¿Qué es Hadoop y en qué se basa su arquitectura? a) Hadoop es una plataforma que se instala en un solo servidor para ejecutar tareas. b) Hadoop es una plataforma que se basa en un modelo de despliegue distribuido, es decir, se instala sobre un conjunto de servidores que trabajan de forma conjunta para efectuar las tareas. c) Hadoop es una plataforma que se basa en un modelo de despliegue centralizado, es decir, se instala sobre un solo servidor para efectuar las tareas. d) Hadoop es una plataforma que se basa en un modelo de despliegue en la nube, es decir, se instala en servidores distribuidos geográficamente para efectuar las tareas.
¿En qué consiste la arquitectura de Hadoop? a) Se basa en un modelo de despliegue centralizado. b) Se basa en un modelo de despliegue distribuido. c) Se basa en un modelo de despliegue híbrido.
¿Cómo percibe un usuario externo la infraestructura de Hadoop? a) Como una sola máquina. b) Como varios servidores independientes. c) Como un servidor centralizado.
¿Qué es un clúster de Hadoop? a) El conjunto de servidores que forman la plataforma que está en ejecución. b) Cada uno de los servidores que forman parte del clúster. c) El nodo que controla la ejecución de los trabajos o el almacenamiento de los datos.
¿Qué es un nodo edge o frontera en Hadoop? a) El nodo que realiza los trabajos. b) El nodo que controla la ejecución de los trabajos o el almacenamiento de los datos. c) El nodo que hace de puente entre el clúster y la red exterior y proporciona interfaces.
¿Cuáles son los tres tipos de nodos que existen en Hadoop? a) Nodos primarios, secundarios y terciarios. b) Nodos de almacenamiento, de procesamiento y de control. c) Nodos worker, master y edge o frontera.
¿Qué función desempeñan los nodos master en Hadoop? a) Realizan los trabajos. b) Controlan la ejecución de los trabajos o el almacenamiento de los datos. c) Hacen de puente entre el clúster y la red exterior y proporcionan interfaces.
¿Cómo se consigue la tolerancia a fallos en los nodos worker para el almacenamiento? a) Haciendo duplicados de los datos b) Existiendo dos nodos maestros por servicio, actuando en modo activo-pasivo c) Asignando a cada worker una parte del proceso o de los datos a almacenar.
¿Cómo se puede solucionar el problema de permisos al copiar el archivo Tarea para BDA01.ipynb al contenedor de docker? a) Asignando permisos de escritura a todos los usuarios b) Usando el comando sudo c) Todas las anteriores.
¿Qué comando se debe ejecutar en el anfitrión para conocer la versión de Docker? a) docker b) docker-version c) docker --version.
¿Qué instrucciones debes ejecutar en el anfitrión para verificar que tienes instalados docker y docker-compose? a) docker --version y docker-compose --version b) docker start y docker-compose up c) docker-compose run y docker version.
¿Qué comando debes ejecutar para levantar el entorno de Hadoop con docker-compose? a) docker-compose up b) docker-compose start c) docker-compose run.
¿Cuál es el propósito del Namenode en Hadoop? a) Almacenar y gestionar los metadatos del sistema de archivos distribuido b) Procesar los datos en un clúster Hadoop c) Gestionar la seguridad y autenticación en un clúster Hadoop.
¿Qué sucede si el Namenode falla en un clúster Hadoop? a) El clúster Hadoop sigue funcionando normalmente b) El clúster Hadoop se detiene por completo c) Los nodos de datos pierden la conexión con el Namenode y no pueden seguir procesando datos.
¿Cuál es la finalidad principal de Spacy a) Entrenar modelos de aprendizaje profundo para el procesamiento del lenguaje natural b) Proporcionar una interfaz de usuario para la manipulación de datos de texto c) Realizar tareas de procesamiento del lenguaje natural, como el etiquetado de partes del discurso o la extracción de entidades.
Denunciar test Consentimiento Condiciones de uso