Test de Conceptos Cloud: AWS vs GCP y Pipelines
|
|
Título del Test:
![]() Test de Conceptos Cloud: AWS vs GCP y Pipelines Descripción: Test de Conceptos Cloud: AWS vs GCP y Pipelines |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Según el texto, ¿cuál es el paso necesario para construir 'pipelines' de ciencia de datos escalables?. Optimizar los scripts para que se ejecuten más rápido en una sola máquina local. Comprar licencias de software más costosas como SAS o SPSS. Utilizar exclusivamente servidores físicos 'on-premise' para garantizar la seguridad. Moverse de scripts de una sola máquina a clústeres de máquinas, comúnmente en la nube. En el contexto de AWS, ¿cuál es una diferencia clave mencionada entre usar una solución gestionada (como Kinesis) y una 'self-hosted' (como Kafka)?. Existe un compromiso (trade-off) entre el costo y el trabajo de DevOps necesario. Kinesis solo funciona con Python, mientras que Kafka funciona con todo. Kinesis es gratuito mientras que Kafka es muy costoso. Kafka no permite procesar datos en tiempo real, solo Kinesis lo hace. ¿Cuál es la función principal de Amazon Redshift y cuál es su limitación según el texto?. Es una base de datos columnar ideal como Data Warehouse, pero no escala bien a volúmenes de Data Lake. Es un Data Lake que escala infinitamente pero es lento. Es una herramienta de visualización que reemplaza a Tableau. Es el servicio de máquinas virtuales de AWS. ¿Qué ventaja competitiva se menciona sobre Google Cloud Platform (GCP) respecto a la integración de herramientas?. Tiene muchas más herramientas disponibles que AWS. GCP utiliza servidores físicos en lugar de virtuales. GCP no cobra por el uso de sus servicios de Data Warehouse. Sus componentes pueden conectarse fácilmente usando Dataflow, requiriendo menos esfuerzo de ingeniería. En el ecosistema de AWS, ¿qué combinación de herramientas se menciona comúnmente para lograr funcionalidad de Data Lake?. Redshift y Kinesis. Lambda y SageMaker. Almacenar datos en S3 y usar Athena para consultarlos. EC2 y Docker. ¿Cuál es la característica distintiva de BigQuery (GCP) comparada con la arquitectura tradicional de AWS mencionada?. BigQuery requiere que el usuario gestione los servidores manualmente. BigQuery separa el almacenamiento del cómputo y escala para casos de uso de Data Lake y Data Warehouse a la vez. BigQuery es una base de datos relacional tradicional como MySQL. BigQuery solo funciona para datos en streaming y no para datos en reposo. Si estás trabajando en GCP y necesitas una herramienta equivalente a AWS Lambda (funciones serverless), ¿cuál usarías según el texto?. BigTable. Cloud Functions. Dataflow. PubSub. ¿Por qué el curso decide enseñar PySpark en lugar de AWS SageMaker?. Porque PySpark es específico de AWS y quieren especializarse. Porque SageMaker es demasiado costoso. Porque PySpark es una herramienta visual sin código. Porque SageMaker es específico de AWS, mientras que PySpark permite distribuir código en múltiples plataformas. ¿Qué herramienta de GCP se basa en la librería Apache Beam y es portable a otras plataformas?. PubSub. Dataflow. Cloud Storage. BigQuery. |





