Test final BDA
|
|
Título del Test:
![]() Test final BDA Descripción: Preguntas tipo test del examen final |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Qué tipo de escalado es el más habitual en plataformas Hadoop?. Escalado vertical. Escalado horizontal. Escalado incremental. Escalado local. ¿Cuál es el componente que se utiliza para planificar, orquestar o automatizar flujos de trabajo en Hadoop?. Impala. Oozie. YARN. Hive. ¿El factor de replicación reduce la capacidad de almacenamiento real de un clúster HDFS?. Sí, porque cada bloque de datos se almacena varias veces en distintos nodos para garantizar tolerancia a fallos. No, porque el factor de replicación solo afecta al rendimiento de lectura, no al espacio disponible. No, porque HDFS comprime automáticamente los datos antes de replicarlos. Sí, pero únicamente cuando el clúster tiene más de 10 nodos. Si en HDFS un fichero indica que tiene permisos rwxrwxrwx, ¿quién puede modificar el fichero?: El usuario que lo creó. Todos los usuarios menos el que creó el fichero. Todos los usuarios. En HDFS no se pueden modificar los ficheros. Para ingestar datos en HDFS que se genera en tiempo real, ¿qué componente se utiliza?: Flink. Flume. Storm. Spark. ¿Qué componente del ecosistema Hadoop permite ver los ficheros de HDFS como si fueran tablas de una base de datos relacional?. YARN. Ambari. Hive. Oozie. ¿Qué servicio de Amazon Web Services permite desplegar clústeres Hadoop gestionados?: HDInsight. EMR. Dataproc. Redshift. ¿Ambari incluye toda o casi toda la funcionalidad de NameNode UI?: Sí, porque Ambari integra y centraliza la mayoría de funciones de monitorización y gestión que ofrece la interfaz web del NameNode. No, porque Ambari solo permite instalar Hadoop, pero no monitorizar ni gestionar HDFS. No, porque ambari sustituye completamente al NameNode y elimina su interfaz web. Sí, pero únicamente cuando el clúster utiliza un único DataNode. ¿Qué característica define mejor el paradigma introducido por Hadoop?: Centralizar todos los datos en un único servidor. Procesar los datos en un único nodo maestro. Llevar el procesamiento hacia donde se encuentran los datos. Procesar los datos únicamente en memoria. ¿Cuál de las siguientes herramientas es ampliamente utilizada en el ecosistema Big Data para procesamiento distribuido?: Pig. Mahout. Spark. Sqoop. |





