Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESETECNOLOGIA BIG DATA IMF

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
TECNOLOGIA BIG DATA IMF

Descripción:
EXAMNE IMF DATA SCIENCE

Autor:
AVATAR

Fecha de Creación:
19/03/2024

Categoría:
Universidad

Número preguntas: 27
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
BigQuery es una herramienta de: Analítica y almacenamiento de datos. Representación gráfica de datos. Proceso de datos en streaming. Similar a Kafka.
En un ecosistema de Hadoop, se encuentra típicamente la siguiente herramienta: Flink. HBase. MongoDB. Databricks.
Son servicios de machine learning en cloud: Sagemaker, CloudVision y Dataflow. Kinesis, HDInsight y Cloud Machine Learning Engine Amazon Lex, Azure Machine Learning y Cloud Vision. RDS, SQL Data Warehouse, Dialogflow.
Hay estudios que indican que Spark es más rápido que Hadoop en el orden de: 100 veces más en memoria. 10 veces más en memoria. 100 veces más en memoria y cinco en disco. 100 veces más en memoria y diez en disco.
¿Que significa el concepto de "lazy evaluation"? Las transformaciones de datos solo se harán cuando una acción sea ejecutada. Las transformaciones de datos de forma inmediata. Las transformaciones de datos se almacenan en disco en espera de ser ejecutadas. Una transformación se ejecuta antes de la acción.
¿Qué característica no cumple Hive? Latencia alta. Permite tratar petabytes de datos. Permite tratar petabytes de datos. Permite el borrado y actualización de datos.
Shuffle es un concepto relacionado con: Neo4J. MapReduce. -Esquemas de bases de datos. Unidad mínima de almacenamiento en HDFS.
¿Cuáles de estas opciones son acciones? "Count()", "take(n)" y "map()". "First()", "take(n)" y "flatmap()". "Collect()", "Count()" y "First()".
El almacenamiento de datos primario en Spark es: La memoria. Memoria y data warehouse. Disco duro. Bases de datos.
Una PAAS (plataforma como servicio) permite crear: Un entorno de desarrollo. Dar de alta servicios de máquinas virtuales. Gestionar un servicio de almacenamiento. Generar informes.
Spark es tolerante a fallos gracias al uso de: Almacenamiento continuo en disco. Uso de DAGS y RDD inmutables. Al uso de datasets en memoria. Al uso de datasets en memoria.
¿Qué lenguajes de programación soporta Spark? Python, Scala, Java. Java, Scala, R. Java, Scala, R y Python. Python, Scala, Java, R y .NET.
Sqoop es una herramienta: De importación de datos de fuentes de datos no estructuradas a Hadoop. De importación y exportación de datos estructurados desde sistemas externos a Hadoop, y al contrario. De importación de datos en tiempo real de sistemas externos a Hadoop. De importación y exportación de datos estructurados, semiestructurados y desestructurados desde sistemas externos a Hadoop, y al contrario.
En un clúster de Hadoop, existen los siguientes nodos: Sólo master nodes. Master nodes y slave nodes. Solo slave nodes. Master nodes y yarn nodes.
Zoekeeper coordina El almacenamiento de la información. Las comunicaciones de red. Los procesos distribuidos. La gestión de la memoria del clúster Hadoop.
¿Cuáles son las principales características de una base de datos de grafos? Los nodos, las relaciones entre los nodos y las propiedades de los nodos. Los nodos y las relaciones entre los nodos. Los nodos y su indexación. Los nodos y las relaciones entre nodos.
¿Qué es el modo stand alone? Todas las tareas se ejecutan en una sola máquina. Modalidad usada en sistemas con un solo procesador. El modelo más extendido en sistemas distribuidos en producción Una forma de gestionar la memoria.
Spark es tolerante a fallos gracias al uso de: Almacenamiento continuo en disco. Uso de DAGS y RDD inmutables. Al uso de datasets en memoria. Por utilizar espacios de memoria redundantes.
Google Dataproc es el servicio de Google Cloud para: Utilizar servicios de big data. El modelo de almacenamiento de datos. La herramienta de análisis de datos IoT. Un gestor de máquinas virtuales.
MapReduce está escrito en el siguiente lenguaje: R. Python. Java. Scala.
bases de datos NoSQL están especialmente indicadas para trabajar con: Muchos datos con claves foráneas. Muchos datos con claves foráneas. Grandes volúmenes de datos sin estructuras definidas inicialmente. Pequeños volúmenes de datos.
MongoDB cumple con las siguientes características del teorema de CAP: Consistencia y tolerancia a particiones. Solo consistencia. Consistencia y disponibilidad. Consistencia, disponibilidad y tolerancia a particiones.
Hadoop forma parte de: Amazon. Microsoft. Google. Apache Software Foundation.
¿Qué característica no cumple Hive? Latencia alta. Permite tratar petabytes de datos. Se pueden hacer consultas SQL. Permite el borrado y actualización de datos.
¿Cuáles de estas opciones son acciones? "Count()", "take(n)" y "map()". "First()", "take(n)" y "flatmap()". "Collect()", "Count()" y "First()".
concepto de "lazy evaluation"? Las transformaciones de datos solo se harán cuando una acción sea ejecutada. Las transformaciones de datos de forma inmediata. Las transformaciones de datos se almacenan en disco en espera de ser ejecutadas. Una transformación se ejecuta antes de la acción.
Una PAAS (plataforma como servicio) permite crear: Un entorno de desarrollo. Dar de alta servicios de máquinas virtuales. Gestionar un servicio de almacenamiento. Generar informes.
Denunciar test Consentimiento Condiciones de uso