GCP
|
|
Título del Test:![]() GCP Descripción: examen cloud |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Tiene 250 000 dispositivos que generan un evento de estado JSON cada 10 segundos. Desea capturar estos datos para analizar series temporales de valores atípicos. ¿Qué debería hacer?. Importe los datos a BigQuery. Desarrolle una aplicación personalizada que utilice la API de BigQuery para consultar el conjunto de datos y muestre los datos atípicos de los dispositivos según sus requisitos comerciales. Importe los datos a BigQuery. Utilice la consola de BigQuery para consultar el conjunto de datos y visualizar los datos atípicos de los dispositivos según sus necesidades empresariales. Envíe los datos a Cloud Bigtable. Utilice la herramienta cbt de Cloud Bigtable para visualizar los datos atípicos de los dispositivos según sus requisitos empresariales. Envíe los datos a Cloud Bigtable. Instale y utilice la consola HBase para Cloud Bigtable para consultar la tabla y obtener datos atípicos de dispositivos según sus requisitos comerciales. Estás diseñando el almacenamiento para archivos CSV y utilizando una transformación personalizada de Apache Spark con uso intensivo de E/S como parte del despliegue de un pipeline de datos en Google Cloud. Tienes previsto utilizar ANSI SQL para ejecutar consultas para tus analistas. ¿Cómo deberías transformar los datos de entrada?. Utilice BigQuery para el almacenamiento. Utilice Dataflow para ejecutar las transformaciones. Utilice BigQuery para el almacenamiento. Utilice Dataproc para ejecutar las transformaciones. Utilice Cloud Storage para el almacenamiento. Utilice Dataflow para ejecutar las transformaciones. Utilice Cloud Storage para el almacenamiento. Utilice Dataproc para ejecutar las transformaciones. Su empresa está cargando archivos de valores separados por comas (CSV) en BigQuery. Los datos se importan correctamente; sin embargo, los datos importados no coinciden byte a byte con el archivo de origen. ¿Cuál es la causa más probable de este problema?. Los datos CSV cargados en BigQuery no están marcados como CSV. Los datos CSV contenían filas no válidas que se omitieron durante la importación. Los datos CSV no han pasado por una fase ETL antes de cargarse en BigQuery. Los datos CSV cargados en BigQuery no utilizan la codificación predeterminada de BigQuery. Estás utilizando Pub/Sub para transmitir actualizaciones de inventario desde muchos terminales de punto de venta (POS) a BigQuery. Cada evento de actualización tiene la siguiente información: identificador de producto "prodSku", incremento de cambio "quantityDelta", identificación de POS "termId" y "messageId", que se crea para cada intento de envío desde el terminal. Durante una interrupción de la red, descubrió que se enviaban mensajes duplicados, lo que provocaba que el sistema de inventario contabilizara los cambios de forma incorrecta. Determinó que la aplicación del terminal tiene problemas de diseño y puede enviar el mismo evento más de una vez durante los reintentos de envío. Quieres asegurarte de que la actualización del inventario sea precisa. ¿Qué debes hacer?. Agregue otro atributo, orderId, a la carga útil del mensaje para identificar el pedido de compra único en todos los terminales. Asegúrese de descartar los mensajes cuyos valores de "orderId" y "prodSku" coincidan con las filas correspondientes de la tabla de BigQuery. Examine el "messageId" de cada mensaje. Asegúrese de descartar cualquier mensaje cuyo valor de "messageId" coincida con las filas correspondientes de la tabla de BigQuery. En lugar de especificar un incremento de cambio para "quantityDelta", utilice siempre el valor de inventario derivado después de aplicar el incremento. Nombre el nuevo atributo "adjustedQuantity". Examine el valor de "publishTime" de cada mensaje. Asegúrese de descartar los mensajes cuyos valores de "publishTime" coincidan con filas de la tabla de BigQuery. Estás configurando el almacenamiento de archivos para una canalización de datos en Google Cloud. Quieres admitir archivos JSON. El esquema de estos archivos cambiará ocasionalmente. Sus equipos de analistas utilizarán consultas SQL ANSI agregadas sobre estos datos. ¿Qué debería hacer?. Utilice BigQuery para el almacenamiento. Proporcione archivos de formato para la carga de datos. Actualice los archivos de formato según sea necesario. Utilice BigQuery para el almacenamiento. Seleccione "Detectar automáticamente" en la sección Esquema. Utilice Cloud Storage para el almacenamiento. Vincule los datos como tablas temporales en BigQuery y active la opción "Detectar automáticamente" en la sección Esquema de BigQuery. Utilice Cloud Storage para el almacenamiento. Vincule los datos como tablas permanentes en BigQuery y active la opción "Detectar automáticamente" en la sección Esquema de BigQuery. Necesitas transmitir datos de series temporales en formato Avro y, a continuación, escribirlos simultáneamente en BigQuery y Cloud Bigtable mediante Dataflow. El objetivo es lograr una latencia mínima de extremo a extremo. Según los requisitos de su empresa, esto debe completarse lo antes posible. ¿Qué debe hacer?. Cree una canalización y utilice la transformación ParDo. Cree una canalización que agrupe los datos en una PCollection y utilice la transformación Combine. Cree una canalización que agrupe los datos mediante una PCollection y, a continuación, utilice la transformación de E/S Avro para escribirlos en Cloud Storage. Una vez escritos los datos, cárguelos desde Cloud Storage en BigQuery y Bigtable. Cree una canalización que agrupe los datos utilizando una PCollection y luego utilice transformaciones de Bigtable y BigQueryIO. Estás trabajando en un proyecto con dos requisitos de cumplimiento. El primer requisito establece que tus desarrolladores solo deben poder ver los cargos de facturación de Google Cloud de sus propios proyectos. El segundo requisito establece que los miembros de su equipo de finanzas pueden establecer presupuestos y ver los cargos actuales de todos los proyectos de la organización. El equipo de finanzas no debería tener acceso al contenido del proyecto. Quieres configurar los permisos. ¿Qué debes hacer?. Asigne a los miembros del equipo de finanzas el rol de Administrador de facturación para cada una de las cuentas de facturación que deban gestionar. Asigne a los desarrolladores el rol de Visor para el proyecto. Agregue a los miembros del equipo de finanzas al rol predeterminado de Propietario de IAM. Agregue a los desarrolladores a un rol personalizado que les permita ver únicamente sus propios gastos. Agregue a los desarrolladores y gerentes de finanzas al rol de Visor para el Proyecto. Añada al equipo de finanzas el rol de Visor del proyecto. Añada a los desarrolladores el rol de Revisor de seguridad para cada una de las cuentas de facturación. Desea publicar métricas del sistema en Google Cloud desde una gran cantidad de hipervisores y máquinas virtuales locales para su análisis y la creación de paneles. Ya tienes un agente de monitorización personalizado implementado en todos los hipervisores y tu sistema de métricas local no puede gestionar la carga. Quieres diseñar un sistema que pueda recopilar y almacenar métricas a gran escala. No quieres gestionar tu propia base de datos de series temporales. Las métricas de todos los agentes deben registrarse en la misma tabla, pero los agentes no deben tener permiso para modificar ni leer los datos registrados por otros agentes. ¿Qué debería hacer?. Modificar el agente de monitoreo para que escriba los mensajes protobuf directamente en BigTable. Modifique el agente de monitorización para que publique mensajes protobuf en Pub/Sub. Utilice un clúster Dataproc o un trabajo de Dataflow para consumir los mensajes de Pub/Sub y escribirlos en BigTable. Modificar el agente de supervisión para que escriba mensajes protobuf en HBase desplegado en instancias de máquinas virtuales de Compute Engine. Modifique el agente de supervisión para que escriba mensajes protobuf en Pub/Sub. Utilice un clúster Dataproc o un trabajo de Dataflow para consumir mensajes de Pub/Sub y escribirlos en Cassandra implementado en instancias de máquinas virtuales de Compute Engine. Su empresa está transmitiendo datos de sensores en tiempo real desde su planta de producción a Bigtable y han notado un rendimiento extremadamente deficiente. ¿Cómo debería rediseñarse la clave de fila para mejorar el rendimiento de Bigtable en las consultas que alimentan los paneles de control en tiempo real?. Utilice una clave de fila con el formato <timestamp>. Utilice una clave de fila con el formato <sensorid>. Utilice una clave de fila con el formato <timestamp>#<sensorid>. Utilice una clave de fila con el formato <sensorid>#<timestamp>. Estás diseñando un repositorio de datos relacional en Google Cloud que crecerá según sea necesario. Los datos serán transaccionalmente consistentes y se agregarán desde cualquier lugar del mundo. Desea supervisar y ajustar el número de nodos para el tráfico de entrada, que puede aumentar de forma impredecible. ¿Qué debería hacer?. Utilice Cloud Spanner para el almacenamiento. Controle la utilización de la CPU y aumente el número de nodos si supera el 70 % durante el período de tiempo en el que se encuentra. Utilice Cloud Spanner para el almacenamiento. Controle el uso del almacenamiento y aumente el número de nodos si se utiliza más del 70%. Utilice Cloud Bigtable para el almacenamiento. Supervise los datos almacenados y aumente el número de nodos si se utiliza más del 70 %. Utilice Cloud Bigtable para el almacenamiento. Controle la utilización de la CPU y aumente el número de nodos si supera el 70 % durante el período de tiempo en el que se encuentra. |




