BIG DATA APLICADO (CE
![]() |
![]() |
![]() |
Título del Test:![]() BIG DATA APLICADO (CE Descripción: Tema1 y 2 |




Comentarios |
---|
NO HAY REGISTROS |
Hadoop es la única tecnología capaz de almacenar y procesar grandes volúmenes de datos hasta un volumen de petabytes. ¿Verdadero o falso?. Verdadero. Falso. Hadoop, como es una solución bastante moderna, no tiene una herramienta de gobierno de datos. ¿Verdadero o falso?. Verdadero. Falso. Sqoop es el componente que se utiliza para ingestar datos de sensores en Hadoop. ¿Verdadero o falso?. Verdadero. Falso. Hadoop es un proyecto liderado por la empresa Cloudera. ¿Verdadero o falso?. Verdadero. Falso. Hadoop requiere hardware commodity, lo que significa que puedo montarme un clúster en casa con los PCs obsoletos que tengo. ¿Verdadero o falso?. Verdadero. Falso. Hadoop no es un sistema eficiente para casos de uso de poca volumetría. ¿Verdadero o falso?. Verdadero. Falso. Storm permite procesar datos que llegan en streaming. ¿Verdadero o falso?. Verdadero. Falso. Hadoop no es un sistema eficiente para casos de uso de poca volumetría ¿Verdadero o falso?. Verdadero. Falso. ¿Cómo se llama el sistema de almacenamiento de Hadoop?: GFS. YARN. HDFS. MapReduce. Hadoop es una tecnología fácil de instalar y administrar. ¿Verdadero o falso?. Verdadero. Falso. ¿Qué componente del ecosistema Hadoop permite acceder a los ficheros de HDFS con lenguaje SQL, como si fueran tablas de una base de datos?: MapReduce. Pig. Hive. Kafka. Google está utilizando Hadoop para la generación de los índices de búsqueda ¿Verdadero o falso?. Verdadero. Falso. ¿Cuál es el componente que se utiliza para planificar, orquestar o automatizar flujos de trabajo en Hadoop?: Impala. Oozie. YARN. Hive. ¿Cuáles son las herramientas del ecosistema Hadoop más utilizadas?: Impala, Sqoop y Storm. Spark, Hive y Kafka. Spark, Oozie y Mahout. Impala, Pig y HBase. Los nodos frontera realizan parte del trabajo de procesamiento con los datos en una plataforma Hadoop. ¿Verdadero o falso?. Verdadero. Falso. Sobre el tipo de red en el que conectar Hadoop, ¿qué afirmación es correcta?: Al necesitar hardware commodity, no importa el tipo de red. La red debería tener un buen ancho de banda, por ejemplo 10-20 Gbps. Hadoop no necesita red de comunicaciones. No importa el ancho de banda de la red, pero sí que tenga un ping muy bajo. Aproximadamente, cuánto costaría una infraestructura Hadoop de 10 nodos worker, 2 nodos master y 1 nodo frontera?: 100.000 euros. 10.000 euros. 300.000 euros. 1.000.000 euros. El coste de Hadoop es similar al de las bases de datos relacionales, la diferencia está en que Hadoop es escalable. ¿Verdadero o falso?. Verdadero. Falso. ¿Cuál es la herramienta o componente del ecosistema Hadoop con la que los Data Scientists realizan análisis interactivos?: Zeppelin. Hive. Ambari. HDFS. ¿Cuál de las siguientes afirmaciones el correcta sobre las soluciones de Hadoop-as-a-Service?: Son mucho más eficientes que las soluciones en infraestructura propia. No requieren un desembolso inicial. Son difíciles de instalar o configurar. Son muy baratas, pero hay que estudiar muy bien qué dimensionamiento debe tener la plataforma. ¿Cómo se consigue escalar o ganar mayor capacidad en una plataforma Hadoop?: Añadiendo más nodos master al clúster. Cambiando los servidores por otros con CPUs más potentes. Añadiendo más nodos worker al clúster. Realizando optimizaciones en los sistemas operativos. ¿Cómo se llama la solución Hadoop que ofrece Amazon Web Services?: HDInsight. EMR. Dataproc. Amazon Web Services no ofrece una solución Hadoop. ¿Qué cantidad de memoria es recomendada para la instalación de Hadoop?: Al necesitar hardware commodity, no importa la cantidad de memoria. Se recomienda 256 Gb de memoria RAM en todos los nodos. 64 Gb en los nodos worker y 256 Gb en los nodos master. Al menos 1 Tb en todos los nodos. ¿Qué tipo de nodo en Hadoop tiene discos en RAID?: Los nodos master. Los nodos worker. Todos los nodos. Ningún nodo. Se suele considerar a Doug Cutting como el "padre de Hadoop". ¿Verdadero o falso?. Verdadero. Falso. ¿Cuál de las siguientes afirmaciones es más apropiada para Hadoop?: Es la mejor tecnología para cualquier caso de uso Big Data. El nivel de seguridad es muy alto, al nivel de otras tecnologías de gestión de datos tradicionales (como las bases de datos relacionales). Hadoop se despliega en infraestructura propia, no en entornos cloud. Cambió el paradigma tradicional, acercando el procesamiento a donde se almacenan los datos. ¿Qué tipo de escalado es el más apropiado para Hadoop?: Escalado vertical. Escalado horizontal. Escalado tangencial. Hadoop no escala. La arquitectura de Hadoop se basa en tener nodos worker, que hacen el trabajo, y nodos master que coordinan ese trabajo. ¿Verdadero o falso?. ¿Cuál de las siguientes distribuciones Hadoop se encuentra activa hoy en día: MAPR. Cloudera. Sólo existen distribuciones en cloud. Hortonworks. ¿Cuál es el comando de HDFS para ver el contenido de un fichero?: open. read. ls. cat. YARN ha caído en desuso al aparecer Spark. ¿Verdadero o falso?. Verdadero. Falso. Hadoop cubre bien los casos de uso donde se quiere analizar datos con algoritmos de Machine Learning. ¿Verdadero o falso?. Verdadero. Falso. Si un nodo falla durante la ejecución de una tarea, YARN se da cuenta y rearranca esa tarea en otro nodo. ¿Verdadero o falso?. Verdadero. Falso. Se suele decir que YARN es el sistema operativo de Hadoop. ¿Verdadero o falso?. Verdadero. Falso. Si en HDFS un fichero indica que tiene permisos rwxrwxrwx, ¿quién puede modificar el ficheor?: El usuario que lo creó. Todos los usuarios menos el que creó el fichero. Todos los usuarios. En HDFS no se pueden modificar los ficheros. En HDFS, sólo los ficheros grandes se dividen en bloques. ¿Verdadero o falso?. Verdadero. Falso. ¿Cuál es el comando de HDFS para llevar un fichero desde el disco del nodo frontera hasta HDFS?: cp. mv. mv external. put. ¿Cuál es el comando de HDFS para crear un directorio?: make_dir. create dir. rmdir. mkdir. YARN puede ejecutar aplicaciones de procesamiento en streaming. ¿Verdadero o falso?. Verdadero. Falso. Si tengo un HDFS con 10 datanodes, y cada datanode tiene una capacidad de 10 terabytes. ¿Cuál será la capacidad real, si no modifico ningún parámetro de HDFS?: 100 terabytes. Unos 20 terabytes. 10 terabytes. Unos 50 terabytes. ¿Cuál es el comando de HDFS para ver el contenido de un directorio?: read_dir. mkdir. cp. ls. MapReduce se usa cada día más, especialmente tras la aparición de Spark. ¿Verdadero o falso?. Verdadero. Falso. MapReduce permite que los desarrolladores no tengan que preocuparse en muchos aspectos de la computación distribuida. ¿Verdadero o falso?. Verdadero. Falso. ¿Cuáles son los componentes del core de Hadoop?: GFS y MapReduce. HDFS, YARN e Impala. HDFS, YARN y MapReduce. HDFS, YARN y Hive. YARN divide la capacidad de procesamiento y memoria en contenedores. ¿Verdadero o falso?. Verdadero. Falso. En HDFS, el Namenode se encarga de dar los ficheros a las aplicaciones que quieren leerlos. ¿Verdadero o falso?. Verdadero. Falso. HDFS está optimizado para ficheros de gran tamaño. ¿Verdadero o falso?. HDFS funciona mejor con ficheros binarios. ¿Verdadero o falso?. Verdadero. Falso. La replicación permite que no se pierdan datos. ¿Verdadero o falso?. HDFS es una implementación del paper de Google denominado GFS (Google File System). ¿Verdadero o falso?. En HDFS, lo ideal es poner un factor de replicación alto a los ficheros que son críticos o muy importantes. ¿Verdadero o falso?. ¿Cuál es el tamaño por defecto de un bloque en HDFS?: 128 Gb. 64 Gb. 120 Mb. 64 Mb. El factor de replicación reduce la capacidad de almacenamiento real de un clúster HDFS. ¿Verdadero o falso?. HDFS tiene una orientación "write-once, read many", que significa "se escribe una vez, se lee muchas veces". ¿Verdadero o falso?. Verdadero. Falso. YARN se ofreció en Hadoop desde su origen. ¿Verdadero o falso?. Verdadero. Falso. ¿Qué métodos se suelen desarrollar para hacer un programa MapReduce?: Map, Reduce y Order. Map, Reduce y Shuffle. Map y Reduce. Ninguno, MapReduce se encarga de todo. ¿Se puede configurar qué nivel de prioridad tiene una tarea en YARN?: No, YARN va ejecutando las tareas según le llegan. Sí, si paras el resto de tareas. Sí, mediante la configuración del Scheduler. No, esto sólo se configura desde HDFS. ¿Cuál es el comando de HDFS para modificar el factor de replicación de un fichero?: mod. chmod. setrep. mod rf. ¿Cómo se llama el nodo que coordina la ejecución de trabajos en YARN?: NameNode. Scheduler. ResourceManager. NodeManager. ¿En qué año se puede decir que se originó Hadoop?. 2003. 2004. 2006. 2011. ¿Cuál de las siguientes afirmaciones sobre Hadoop es falsa?. Si quiero instalar y usar Hadoop, no tengo que pagar un coste de licencia. Hadoop permite almacenar ficheros de vídeo y procesarlos. El coste de instalar y operar una plataforma Hadoop es más o menos similar al de una base de datos relacional tradicional (Oracle, IBM DB2, etc.). Hadoop tiene una gran capacidad de almacenamiento, pero está limitado en cuanto a la capacidad de procesamiento. Hadoop requiere servidores muy específicos, con al menos 1 terabyte de memoria RAM. Imagina que queremos montar una plataforma Hadoop para traer datos de una base de datos relacional (por ejemplo, una base de datos Oracle), almacenarlos y hacer consultas con un lenguaje similar a SQL para calcular una serie de métricas (medias, máximos, etc.). ¿Cuál de las siguientes combinaciones de componentes de Hadoop crees que servirá para llevar a cabo el caso de uso?. YARN + Sqoop + Hive. HDFS + Flume + YARN + Impala. HDFS + YARN + Sqoop + Hive. Hadoop no dispone de un punto único de fallo. Verdadero. Falso. Los nodos master deben tener mucha capacidad de almacenamiento para poder guardar una copia de los datos. Verdadero. Falso. La red no es importante en Hadoop, se puede elegir una red que no sea muy cara. Verdadero. Falso. Hadoop no es probablemente la mejor tecnología para cada caso de uso concreto, pero es bastante buena para la mayoría de casos de uso. Verdadero. Falso. Hadoop es bastante eficiente incluso con pocos datos. Verdadero. Falso. Si no sé qué tecnología Big Data implantar para mi empresa porque tengo necesidad de resolver multitud de casos de uso, Hadoop puede ser una buena opción. Verdadero. Falso. |