Google Associate Cloud Engineer #5
|
|
Título del Test:![]() Google Associate Cloud Engineer #5 Descripción: Compilación de preguntas de examen |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Desplegaste una aplicación de App Engine usando gcloud app deploy, pero no se desplegó en el proyecto deseado. Quieres averiguar por qué sucedió esto y dónde se desplegó la aplicación. ¿Qué deberías hacer?. A. Comprobar el archivo app.yaml de tu aplicación y comprobar la configuración del proyecto. B. Comprobar el archivo web-application.xml de tu aplicación y comprobar la configuración del proyecto. C. Ir a Deployment Manager y revisar la configuración para el despliegue de aplicaciones. D. Ir a Cloud Shell y ejecutar gcloud config list para revisar la configuración de Google Cloud usada para el despliegue. Quieres configurar 10 instancias de Compute Engine para disponibilidad cuando ocurra mantenimiento. Tus requisitos establecen que estas instancias deben intentar reiniciarse automáticamente si fallan (crash). Además, las instancias deben ser altamente disponibles, incluso durante el mantenimiento del sistema. ¿Qué deberías hacer?. A. Crear una plantilla de instancia para las instancias. Establecer el "Reinicio Automático" (Automatic Restart) en encendido (on). Establecer el "Mantenimiento en el host" (On-host maintenance) en Migrar instancia de VM. Añadir la plantilla de instancia a un grupo de instancias. B. Crear una plantilla de instancia para las instancias. Establecer el "Reinicio Automático" en apagado (off). Establecer el "Mantenimiento en el host" en Terminar instancias de VM. Añadir la plantilla de instancia a un grupo de instancias. C. Crear un grupo de instancias para las instancias. Establecer la comprobación de estado de "Autocuración" (Autohealing) en saludable (HTTP). D. Crear un grupo de instancias para la instancia. Verificar que la configuración de "Opciones avanzadas de creación" para "no reintentar la creación de la máquina" esté establecida en apagado (off). Alojas un sitio web estático en Cloud Storage. Recientemente, comenzaste a incluir enlaces a archivos PDF en este sitio. Actualmente, cuando los usuarios hacen clic en los enlaces a estos archivos PDF, sus navegadores les piden que guarden el archivo en su sistema local. En cambio, quieres que los archivos PDF en los que se hace clic se muestren directamente dentro de la ventana del navegador, sin pedir al usuario que guarde el archivo localmente. ¿Qué deberías hacer?. A. Habilitar Cloud CDN en el frontend del sitio web. B. Habilitar "Compartir públicamente" (Share publicly) en los objetos de archivo PDF. C. Establecer los metadatos Content-Type en application/pdf en los objetos de archivo PDF. D. Añadir una etiqueta (label) al bucket de almacenamiento con una clave de Content-Type y un valor de application/pdf. Tienes una máquina virtual que está configurada actualmente con 2 vCPUs y 4 GB de memoria. Se está quedando sin memoria. Quieres actualizar la máquina virtual para que tenga 8 GB de memoria. ¿Qué deberías hacer?. A. Confiar en la migración en vivo (live migration) para mover la carga de trabajo a una máquina con más memoria. B. Usar gcloud para añadir metadatos a la VM. Establecer la clave en required-memory-size y el valor en 8 GB. C. Detener la VM, cambiar el tipo de máquina a n1-standard-8, e iniciar la VM. D. Detener la VM, aumentar la memoria a 8 GB, e iniciar la VM. Tienes cargas de trabajo de producción y de prueba que quieres desplegar en Compute Engine. Las VMs de producción necesitan estar en una subred diferente a la de las VMs de prueba. Todas las VMs deben poder contactarse entre sí a través de IP Interna sin crear rutas adicionales. Necesitas configurar la VPC y las 2 subredes. ¿Qué configuración cumple con estos requisitos?. A. Crear una única VPC personalizada con 2 subredes. Crear cada subred en una región diferente y con un rango CIDR diferente. B. Crear una única VPC personalizada con 2 subredes. Crear cada subred en la misma región y con el mismo rango CIDR. C. Crear 2 VPCs personalizadas, cada una con una sola subred. Crear cada subred en una región diferente y con un rango CIDR diferente. D. Crear 2 VPCs personalizadas, cada una con una sola subred. Crear cada subred en la misma región y con el mismo rango CIDR. Necesitas crear un grupo de instancias gestionado con autoescalado para una aplicación web HTTPS. Quieres asegurarte de que las VMs no saludables sean re-creadas. ¿Qué deberías hacer?. A. Crear una comprobación de estado (health check) en el puerto 443 y usarla al crear el Grupo de Instancias Gestionado. B. Seleccionar Multi-Zona en lugar de Zona-Única al crear el Grupo de Instancias Gestionado. C. En la Plantilla de Instancia, añadir la etiqueta (label) health-check. D. En la Plantilla de Instancia, añadir un script de inicio que envíe un latido (heartbeat) al servidor de metadatos. Tu empresa tiene un proyecto de Google Cloud Platform que utiliza BigQuery para almacenamiento de datos (data warehousing). Tu equipo de ciencia de datos cambia frecuentemente y tiene pocos miembros. Necesitas permitir que los miembros de este equipo realicen consultas. Quieres seguir las prácticas recomendadas de Google. ¿Qué deberías hacer?. A. 1. Crear una entrada de IAM para la cuenta de usuario de cada científico de datos. 2. Asignar el rol BigQuery jobUser al grupo. (Nota: esta opción está mal redactada en el original, mezcla usuario y grupo). B. 1. Crear una entrada de IAM para la cuenta de usuario de cada científico de datos. 2. Asignar el rol de usuario BigQuery dataViewer al grupo. C. 1. Crear un grupo de Google dedicado en Cloud Identity. 2. Añadir la cuenta de usuario de cada científico de datos al grupo. 3. Asignar el rol BigQuery jobUser al grupo. D. 1. Crear un grupo de Google dedicado en Cloud Identity. 2. Añadir la cuenta de usuario de cada científico de datos al grupo. 3. Asignar el rol de usuario BigQuery dataViewer al grupo. Tu empresa tiene una solución de 3 niveles (3-tier) ejecutándose en Compute Engine. La configuración de la infraestructura actual se muestra a continuación. (Ver imagen: Tier 1, Tier 2, Tier 3 con sus subredes) Cada nivel tiene una cuenta de servicio que está asociada con todas las instancias dentro de él. Necesitas habilitar la comunicación en el puerto TCP 8080 entre niveles de la siguiente manera: • Las instancias en el nivel #1 deben comunicarse con el nivel #2. • Las instancias en el nivel #2 deben comunicarse con el nivel #3. ¿Qué deberías hacer?. A. 1. Crear una regla de firewall de entrada (ingress) con la siguiente configuración: • Objetivos: todas las instancias • Filtro de origen: rangos de IP (con el rango establecido en 10.0.2.0/24) • Protocolos: permitir todos 2. Crear una regla de firewall de entrada con la siguiente configuración: • Objetivos: todas las instancias • Filtro de origen: rangos de IP (con el rango establecido en 10.0.1.0/24) • Protocolos: permitir todos. B. 1. Crear una regla de firewall de entrada (ingress) con la siguiente configuración: • Objetivos: todas las instancias con la cuenta de servicio del nivel #2 • Filtro de origen: todas las instancias con la cuenta de servicio del nivel #1 • Protocolos: permitir TCP:8080 2. Crear una regla de firewall de entrada con la siguiente configuración: • Objetivos: todas las instancias con la cuenta de servicio del nivel #3 • Filtro de origen: todas las instancias con la cuenta de servicio del nivel #2 • Protocolos: permitir TCP: 8080. C. 1. Crear una regla de firewall de entrada con la siguiente configuración: • Objetivos: todas las instancias con la cuenta de servicio del nivel #2 • Filtro de origen: todas las instancias con la cuenta de servicio del nivel #1 • Protocolos: permitir todos 2. Crear una regla de firewall de entrada con la siguiente configuración: • Objetivos: todas las instancias con la cuenta de servicio del nivel #3 • Filtro de origen: todas las instancias con la cuenta de servicio del nivel #2 • Protocolos: permitir todos. D. 1. Crear una regla de firewall de salida (egress) con la siguiente configuración: • Objetivos: todas las instancias • Filtro de origen: rangos de IP (con el rango establecido en 10.0.2.0/24) • Protocolos: permitir TCP: 8080 2. Crear una regla de firewall de salida con la siguiente configuración: • Objetivos: todas las instancias • Filtro de origen: rangos de IP (con el rango establecido en 10.0.1.0/24) • Protocolos: permitir TCP: 8080. Se te asigna un proyecto con una única Nube Privada Virtual (VPC) y una única subred en la región us-central1. Hay una instancia de Compute Engine alojando una aplicación en esta subred. Necesitas desplegar una nueva instancia en el mismo proyecto en la región europe-west1. Esta nueva instancia necesita acceso a la aplicación. Quieres seguir las prácticas recomendadas de Google. ¿Qué deberías hacer?. A. 1. Crear una subred en la misma VPC, en europe-west1. 2. Crear la nueva instancia en la nueva subred y usar la dirección privada de la primera instancia como el endpoint. B. 1. Crear una VPC y una subred en europe-west1. 2. Exponer la aplicación con un balanceador de carga interno. 3. Crear la nueva instancia en la nueva subred y usar la dirección del balanceador de carga como el endpoint. C. 1. Crear una subred en la misma VPC, en europe-west1. 2. Usar Cloud VPN para conectar las dos subredes. 3. Crear la nueva instancia en la nueva subred y usar la dirección privada de la primera instancia como el endpoint. D. 1. Crear una VPC y una subred en europe-west1. 2. Hacer emparejamiento (Peer) de las 2 VPCs. 3. Crear la nueva instancia en la nueva subred y usar la dirección privada de la primera instancia como el endpoint. Tus proyectos incurrieron en más costes de lo esperado el mes pasado. Tu investigación revela que un contenedor de desarrollo de GKE emitió una gran cantidad de registros, lo que resultó en costes más altos. Quieres deshabilitar los registros rápidamente usando el menor número de pasos posible. ¿Qué deberías hacer?. A. 1. Ir a la ventana de ingesta de registros (Logs ingestion) en Stackdriver Logging y deshabilitar la fuente de registros para el recurso de contenedor de GKE. B. 1. Ir a la ventana de ingesta de registros en Stackdriver Logging y deshabilitar la fuente de registros para el recurso de Operaciones del Clúster GKE (GKE Cluster Operations). C. 1. Ir a la consola de GKE y eliminar los clústeres existentes. 2. Recrear un nuevo clúster. 3. Desmarcar la opción para habilitar el Stackdriver Logging heredado (legacy). D. 1. Ir a la consola de GKE y eliminar los clústeres existentes. 2. Recrear un nuevo clúster. 3. Desmarcar la opción para habilitar el Stackdriver Monitoring heredado. Tienes un sitio web alojado en el entorno estándar de App Engine. Quieres que el 1% de tus usuarios vea una nueva versión de prueba del sitio web. Quieres minimizar la complejidad. ¿Qué deberías hacer?. A. Desplegar la nueva versión en la misma aplicación y usar la opción --migrate. B. Desplegar la nueva versión en la misma aplicación y usar la opción --splits para dar un peso de 99 a la versión actual y un peso de 1 a la nueva versión. C. Crear una nueva aplicación de App Engine en el mismo proyecto. Desplegar la nueva versión en esa aplicación. Usar la librería de App Engine para hacer proxy del 1% de las peticiones a la nueva versión. D. Crear una nueva aplicación de App Engine en el mismo proyecto. Desplegar la nueva versión en esa aplicación. Configurar tu balanceador de carga de red para enviar el 1% del tráfico a esa nueva aplicación. Tienes una aplicación web desplegada como un grupo de instancias gestionado (managed instance group). Tienes una nueva versión de la aplicación para desplegar gradualmente. Tu aplicación web está recibiendo actualmente tráfico web en vivo. Quieres asegurarte de que la capacidad disponible no disminuya durante el despliegue. ¿Qué deberías hacer?. A. Realizar una actualización gradual (rolling-action start-update) con maxSurge establecido en 0 y maxUnavailable establecido en 1. B. Realizar una actualización gradual (rolling-action start-update) con maxSurge establecido en 1 y maxUnavailable establecido en 0. C. Crear un nuevo grupo de instancias gestionado con una plantilla de instancia actualizada. Añadir el grupo al servicio de backend del balanceador de carga. Cuando todas las instancias en el nuevo grupo de instancias gestionado estén saludables, eliminar el antiguo grupo de instancias gestionado. D. Crear una nueva plantilla de instancia con la nueva versión de la aplicación. Actualizar el grupo de instancias gestionado existente con la nueva plantilla de instancia. Eliminar las instancias en el grupo de instancias gestionado para permitir que el grupo recree la instancia usando la nueva plantilla. Estás construyendo una aplicación que almacena datos relacionales de usuarios. Usuarios de todo el mundo usarán esta aplicación. Tu CTO está preocupado por los requisitos de escalado porque el tamaño de la base de usuarios es desconocido. Necesitas implementar una solución de base de datos que pueda escalar con el crecimiento de tus usuarios con cambios de configuración mínimos. ¿Qué solución de almacenamiento deberías usar?. A. Cloud SQL. B. Cloud Spanner. C. Cloud Firestore. D. Cloud Datastore. Eres el administrador de la organización y de facturación de tu empresa. El equipo de ingeniería tiene el rol de Creador de Proyectos (Project Creator) en la organización. No quieres que el equipo de ingeniería sea capaz de vincular proyectos a la cuenta de facturación. Solo el equipo de finanzas debería ser capaz de vincular un proyecto a una cuenta de facturación, pero no deberían poder realizar ningún otro cambio en los proyectos. ¿Qué deberías hacer?. A. Asignar al equipo de finanzas solo el rol de Usuario de Cuenta de Facturación (Billing Account User) en la cuenta de facturación. B. Asignar al equipo de ingeniería solo el rol de Usuario de Cuenta de Facturación en la cuenta de facturación. C. Asignar al equipo de finanzas el rol de Usuario de Cuenta de Facturación en la cuenta de facturación y el rol de Gestor de Facturación de Proyectos (Project Billing Manager) en la organización. D. Asignar al equipo de ingeniería el rol de Usuario de Cuenta de Facturación en la cuenta de facturación y el rol de Gestor de Facturación de Proyectos en la organización. Tienes una aplicación ejecutándose en Google Kubernetes Engine (GKE) con el autoescalado del clúster habilitado. La aplicación expone un endpoint TCP. Hay varias réplicas de esta aplicación. Tienes una instancia de Compute Engine en la misma región, pero en otra Nube Privada Virtual (VPC), llamada gce-network, que no tiene rangos de IP superpuestos con la primera VPC. Esta instancia necesita conectarse a la aplicación en GKE. Quieres minimizar el esfuerzo. ¿Qué deberías hacer?. A. 1. En GKE, crear un Servicio de tipo LoadBalancer que use los Pods de la aplicación como backend. 2. Establecer la externalTrafficPolicy del servicio a Cluster. 3. Configurar la instancia de Compute Engine para usar la dirección del balanceador de carga que se ha creado. B. 1. En GKE, crear un Servicio de tipo NodePort que use los Pods de la aplicación como backend. 2. Crear una instancia de Compute Engine llamada proxy con 2 interfaces de red, una en cada VPC. 3. Usar iptables en esta instancia para reenviar el tráfico desde gce-network a los nodos de GKE. 4. Configurar la instancia de Compute Engine para usar la dirección del proxy en gce-network como endpoint. C. 1. En GKE, crear un Servicio de tipo LoadBalancer que use los Pods de la aplicación como backend. 2. Añadir una anotación a este servicio: cloud.google.com/load-balancer-type: Internal 3. Emparejar (Peer) las dos VPCs. 4. Configurar la instancia de Compute Engine para usar la dirección del balanceador de carga que se ha creado. D. 1. En GKE, crear un Servicio de tipo LoadBalancer que use los Pods de la aplicación como backend. 2. Añadir una Política de Seguridad de Cloud Armor al balanceador de carga que ponga en lista blanca las IPs internas de las instancias del MIG (Grupo de Instancias Gestionado). 3. Configurar la instancia de Compute Engine para usar la dirección del balanceador de carga que se ha creado. |




