Google Associate Cloud Engineer #6
|
|
Título del Test:![]() Google Associate Cloud Engineer #6 Descripción: Compilación de preguntas de examen |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Tu organización es una empresa financiera que necesita almacenar archivos de registro de auditoría durante 3 años. Tu organización tiene cientos de proyectos de Google Cloud. Necesitas implementar un enfoque rentable para la retención de archivos de registro. ¿Qué deberías hacer?. A. Crear una exportación al receptor (sink) que guarde los registros de Cloud Audit en BigQuery. B. Crear una exportación al receptor (sink) que guarde los registros de Cloud Audit en un bucket de almacenamiento Coldline (Coldline Storage). C. Escribir un script personalizado que use la API de logging para copiar los registros de los logs de Stackdriver a BigQuery. D. Exportar estos registros a Cloud Pub/Sub y escribir una tubería (pipeline) de Cloud Dataflow para almacenar los registros en Cloud SQL. Quieres ejecutar un único proxy inverso HTTP con caché en GCP para un sitio web sensible a la latencia. Este proxy inverso específico consume casi nada de CPU. Quieres tener una caché en memoria de 30 GB, y necesitas 2 GB adicionales de memoria para el resto de los procesos. Quieres minimizar el coste. ¿Cómo deberías ejecutar este proxy inverso?. A. Crear una instancia de Cloud Memorystore for Redis con capacidad de 32 GB. B. Ejecutarlo en Compute Engine y elegir un tipo de instancia personalizado con 6 vCPUs y 32 GB de memoria. C. Empaquetarlo en una imagen de contenedor y ejecutarlo en Kubernetes Engine, usando instancias n1-standard-32 como nodos. D. Ejecutarlo en Compute Engine, elegir el tipo de instancia n1-standard-1, y añadir un disco persistente SSD de 32 GB. Estás alojando una aplicación en servidores bare-metal (físicos) en tu propio centro de datos. La aplicación necesita acceso a Cloud Storage. Sin embargo, las políticas de seguridad impiden que los servidores que alojan la aplicación tengan direcciones IP públicas o acceso a internet. Quieres seguir las prácticas recomendadas de Google para proporcionar a la aplicación acceso a Cloud Storage. ¿Qué deberías hacer?. A. 1. Usar nslookup para obtener la dirección IP de storage.googleapis.com. 2. Negociar con el equipo de seguridad para poder dar una dirección IP pública a los servidores. 3. Solo permitir tráfico de salida (egress) desde esos servidores a las direcciones IP de storage.googleapis.com. B. 1. Usando Cloud VPN, crear un túnel VPN hacia una Nube Privada Virtual (VPC) en Google Cloud. 2. En esta VPC, crear una instancia de Compute Engine e instalar el servidor proxy Squid en esta instancia. 3. Configurar tus servidores para usar esa instancia como proxy para acceder a Cloud Storage. C. 1. Usar Migrate for Compute Engine (anteriormente conocido como Velostrata) para migrar esos servidores a Compute Engine. 2. Crear un balanceador de carga interno (ILB) que use storage.googleapis.com como backend. 3. Configurar tus nuevas instancias para usar este ILB como proxy. D. 1. Usando Cloud VPN o Interconnect, crear un túnel hacia una VPC en Google Cloud. 2. Usar Cloud Router para crear un anuncio de ruta personalizado para 199.36.153.4/30. Anunciar esa red a tu red local (on-premises) a través del túnel VPN. 3. En tu red local, configurar tu servidor DNS para resolver *.googleapis.com como un CNAME a restricted.googleapis.com. Quieres desplegar una aplicación en Cloud Run que procese mensajes de un tema (topic) de Cloud Pub/Sub. Quieres seguir las prácticas recomendadas de Google. ¿Qué deberías hacer?. A. 1. Crear una Cloud Function que use un disparador (trigger) de Cloud Pub/Sub en ese tema. 2. Llamar a tu aplicación en Cloud Run desde la Cloud Function para cada mensaje. B. 1. Otorgar el rol de Suscriptor de Pub/Sub (Pub/Sub Subscriber) a la cuenta de servicio usada por Cloud Run. 2. Crear una suscripción de Cloud Pub/Sub para ese tema. 3. Hacer que tu aplicación extraiga (pull) mensajes de esa suscripción. C. 1. Crear una cuenta de servicio. 2. Dar el rol de Invocador de Cloud Run (Cloud Run Invoker) a esa cuenta de servicio para tu aplicación Cloud Run. 3. Crear una suscripción de Cloud Pub/Sub que use esa cuenta de servicio y use tu aplicación Cloud Run como el endpoint de envío (push endpoint). D. 1. Desplegar tu aplicación en Cloud Run sobre GKE con la conectividad establecida en Interna. 2. Crear una suscripción de Cloud Pub/Sub para ese tema. 3. En el mismo clúster de Google Kubernetes Engine que tu aplicación, desplegar un contenedor que tome los mensajes y los envíe a tu aplicación. Necesitas desplegar una aplicación, la cual está empaquetada en una imagen de contenedor, en un nuevo proyecto. La aplicación expone un endpoint HTTP y recibe muy pocas peticiones al día. Quieres minimizar los costes. ¿Qué deberías hacer?. A. Desplegar el contenedor en Cloud Run. B. Desplegar el contenedor en Cloud Run sobre GKE. C. Desplegar el contenedor en App Engine Flexible. D. Desplegar el contenedor en GKE con el autoescalado del clúster y el autoescalado horizontal de pods habilitados. Tu empresa tiene una organización de GCP existente con cientos de proyectos y una cuenta de facturación. Tu empresa adquirió recientemente otra empresa que también tiene cientos de proyectos y su propia cuenta de facturación. Te gustaría consolidar todos los costes de GCP de ambas organizaciones de GCP en una única factura. Te gustaría consolidar todos los costes a partir de mañana. ¿Qué deberías hacer?. A. Vincular los proyectos de la empresa adquirida a la cuenta de facturación de tu empresa. B. Configurar la cuenta de facturación de la empresa adquirida y la cuenta de facturación de tu empresa para exportar los datos de facturación al mismo conjunto de datos de BigQuery. C. Migrar los proyectos de la empresa adquirida a la organización de GCP de tu empresa. Vincular los proyectos migrados a la cuenta de facturación de tu empresa. D. Crear una nueva organización de GCP y una nueva cuenta de facturación. Migrar los proyectos de la empresa adquirida y los proyectos de tu empresa a la nueva organización de GCP y vincular los proyectos a la nueva cuenta de facturación. Construiste una aplicación en Google Cloud que usa Cloud Spanner. Tu equipo de soporte necesita monitorizar el entorno pero no debe tener acceso a los datos de las tablas. Necesitas una solución simplificada para otorgar los permisos correctos a tu equipo de soporte, y quieres seguir las prácticas recomendadas de Google. ¿Qué deberías hacer?. A. Añadir al grupo del equipo de soporte al rol roles/monitoring.viewer. B. Añadir al grupo del equipo de soporte al rol roles/spanner.databaseUser. C. Añadir al grupo del equipo de soporte al rol roles/spanner.databaseReader. D. Añadir al grupo del equipo de soporte al rol roles/stackdriver.accounts.viewer. Para fines de análisis, necesitas enviar todos los registros (logs) de todas tus instancias de Compute Engine a un conjunto de datos de BigQuery llamado platform-logs. Ya has instalado el agente de Cloud Logging en todas las instancias. Quieres minimizar el coste. ¿Qué deberías hacer?. A. 1. Dar el rol de Editor de Datos de BigQuery (BigQuery Data Editor) en el conjunto de datos platform-logs a las cuentas de servicio usadas por tus instancias. 2. Actualizar los metadatos de tus instancias para añadir el siguiente valor: logs-destination: bq://platform-logs. B. 1. En Cloud Logging, crear una exportación de registros con un tema de Cloud Pub/Sub llamado logs como receptor (sink). 2. Crear una Cloud Function que sea activada por mensajes en el tema logs. 3. Configurar esa Cloud Function para descartar los registros que no sean de Compute Engine e insertar los registros de Compute Engine en el conjunto de datos platform-logs. C. 1. En Cloud Logging, crear un filtro para ver solo los registros de Compute Engine. 2. Hacer clic en Crear Exportación (Create Export). 3. Elegir BigQuery como Servicio Receptor (Sink Service), y el conjunto de datos platform-logs como Destino del Receptor. D. 1. Crear una Cloud Function que tenga el rol de Usuario de BigQuery en el conjunto de datos platform-logs. 2. Configurar esta Cloud Function para crear un trabajo de BigQuery que ejecute esta consulta: INSERT INTO dataset.platform-logs ... SELECT ... FROM compute.logs ... 3. Usar Cloud Scheduler para activar esta Cloud Function una vez al día. Estás usando Deployment Manager para crear un clúster de Google Kubernetes Engine. Usando el mismo despliegue de Deployment Manager, también quieres crear un DaemonSet en el espacio de nombres kube-system del clúster. Quieres una solución que utilice el menor número de servicios posible. ¿Qué deberías hacer?. A. Añadir la API del clúster como un nuevo Proveedor de Tipo (Type Provider) en Deployment Manager, y usar el nuevo tipo para crear el DaemonSet. B. Usar el Configurador de Tiempo de Ejecución (Runtime Configurator) de Deployment Manager para crear un nuevo recurso Config que contenga la definición del DaemonSet. C. Con Deployment Manager, crear una instancia de Compute Engine con un script de inicio (startup script) que use kubectl para crear el DaemonSet. D. En la definición del clúster en Deployment Manager, añadir un metadato que tenga kube-system como clave y el manifiesto del DaemonSet como valor. Estás construyendo una aplicación que se ejecutará en tu centro de datos. La aplicación usará servicios de Google Cloud Platform (GCP) como AutoML. Creaste una cuenta de servicio que tiene el acceso apropiado a AutoML. Necesitas habilitar la autenticación a las APIs desde tu entorno local (on-premises). ¿Qué deberías hacer?. A. Usar credenciales de cuenta de servicio en tu aplicación local. B. Usar gcloud para crear un archivo de clave (key file) para la cuenta de servicio que tiene los permisos apropiados. C. Configurar una interconexión directa (Direct Interconnect) entre tu centro de datos y Google Cloud Platform para habilitar la autenticación para tus aplicaciones locales. D. Ir a la consola de IAM y administración, otorgar a una cuenta de usuario permisos similares a los de la cuenta de servicio, y usar esta cuenta de usuario para la autenticación desde tu centro de datos. Estás utilizando Container Registry para almacenar centralmente las imágenes de contenedores de tu empresa en un proyecto separado. En otro proyecto, quieres crear un clúster de Google Kubernetes Engine (GKE). Quieres asegurarte de que Kubernetes pueda descargar imágenes desde Container Registry. ¿Qué deberías hacer?. A. En el proyecto donde se almacenan las imágenes, otorgar el rol de IAM "Visor de Objetos de Almacenamiento" (Storage Object Viewer) a la cuenta de servicio utilizada por los nodos de Kubernetes. B. Cuando crees el clúster de GKE, elegir la opción "Permitir acceso total a todas las APIs de la Nube" (Allow full access to all Cloud APIs) bajo 'Alcances de acceso' (Access scopes). C. Crear una cuenta de servicio y darle acceso a Cloud Storage. Crear una clave P12 para esta cuenta de servicio y usarla como un imagePullSecrets en Kubernetes. D. Configurar las ACLs en cada imagen en Cloud Storage para dar acceso de solo lectura a la cuenta de servicio por defecto de Compute Engine. Desplegaste una nueva aplicación dentro de tu clúster de Google Kubernetes Engine usando el archivo YAML especificado a continuación. (Ver imagen del YAML) Compruebas el estado de los pods desplegados y notas que uno de ellos todavía está en estado PENDING (Pendiente) name: myapp-deployment-58ddbbb995-lp86m ready: 0/1 status: pending Quieres averiguar por qué el pod está atascado en estado pendiente. ¿Qué deberías hacer?. A. Revisar los detalles del objeto Servicio (Service) myapp-service y buscar mensajes de error. B. Revisar los detalles del objeto Despliegue (Deployment) myapp-deployment y buscar mensajes de error. C. Revisar los detalles del Pod myapp-deployment-58ddbbb995-lp86m y buscar mensajes de advertencia. D. Ver los registros (logs) del contenedor en el pod myapp-deployment-58ddbbb995-lp86m y buscar mensajes de advertencia. Estás configurando una VM de Windows en Compute Engine y quieres asegurarte de que puedes iniciar sesión en la VM a través de RDP. ¿Qué deberías hacer?. A. Después de que se haya creado la VM, usar las credenciales de tu Cuenta de Google para iniciar sesión en la VM. B. Después de que se haya creado la VM, usar gcloud compute reset-windows-password para recuperar las credenciales de inicio de sesión para la VM. C. Al crear la VM, añadir metadatos a la instancia usando windows-password como clave y una contraseña como valor. D. Después de que se haya creado la VM, descargar la clave privada JSON para la cuenta de servicio por defecto de Compute Engine. Usar las credenciales en el archivo JSON para iniciar sesión en la VM. Quieres configurar una conexión SSH a una única instancia de Compute Engine para usuarios en el grupo dev1. Esta instancia es el único recurso en este proyecto particular de Google Cloud Platform al que los usuarios de dev1 deberían poder conectarse. ¿Qué deberías hacer?. A. Establecer los metadatos enable-oslogin=true para la instancia. Otorgar al grupo dev1 el rol compute.osLogin. Indicarles que usen Cloud Shell para conectarse por ssh a esa instancia. B. Establecer los metadatos enable-oslogin=true para la instancia. Establecer la cuenta de servicio a "sin cuenta de servicio" (no service account) para esa instancia. Indicarles que usen Cloud Shell para conectarse por ssh a esa instancia. C. Habilitar "bloquear claves de todo el proyecto" (block project wide keys) para la instancia. Generar una clave SSH para cada usuario en el grupo dev1. Distribuir las claves a los usuarios de dev1 e indicarles que usen sus herramientas de terceros para conectarse. D. Habilitar "bloquear claves de todo el proyecto" para la instancia. Generar una clave SSH y asociar la clave con esa instancia. Distribuir la clave a los usuarios de dev1 e indicarles que usen sus herramientas de terceros para conectarse. Necesitas producir una lista de las APIs de Google Cloud Platform habilitadas para un proyecto de GCP usando la línea de comandos gcloud en Cloud Shell. El nombre del proyecto es my-project. ¿Qué deberías hacer?. A. Ejecutar gcloud projects list para obtener el ID del proyecto, y luego ejecutar gcloud services list --project <ID del proyecto>. B. Ejecutar gcloud init para establecer el proyecto actual a my-project, y luego ejecutar gcloud services list --available. C. Ejecutar gcloud info para ver el valor de la cuenta, y luego ejecutar gcloud services list --account. D. Ejecutar gcloud projects describe <nombre del proyecto> para verificar el valor del proyecto, y luego ejecutar gcloud services list --available. |




