DASP 5 Digitalización aplicada al sector productivo
![]() |
![]() |
![]() |
Título del Test:![]() DASP 5 Digitalización aplicada al sector productivo Descripción: Test CFGS |




Comentarios |
---|
NO HAY REGISTROS |
Relaciona cada término con su definición correspondiente. Interconexión de técnicas y tecnologías que permiten analizar grandes volúmenes de datos y generar modelos predictivos y prescriptivos. Obstáculos como la privacidad, la integridad de los datos, la gestión de acceso y el cumplimiento normativo en entornos de nube. Normativas y prácticas destinadas a proteger los datos personales y corporativos contra accesos no autorizados y ciberataques. ¿Qué es el papel de la ciberseguridad en un entorno digitalizado?. Evitar la protección de datos digitales para simplificar el acceso. Descartar la necesidad de protección avanzada en los sistemas digitales. Implementar medidas para proteger sistemas y datos digitales contra accesos no autorizados y ciberataques. ¿Qué significa "Variedad" en el contexto de Big Data?. La rapidez con la que se procesan los datos. La calidad de los datos. Los diferentes tipos y formatos de datos, estructurados y no estructurados. La cantidad de datos disponibles. ¿Qué papel desempeña la Ciberseguridad en el entorno de los sistemas basados en la nube?. Protege contra el acceso no autorizado y ataques cibernéticos a los datos y aplicaciones en la nube. Mejora la calidad del hardware utilizado en los centros de datos. Elimina la necesidad de políticas de acceso y permisos. ¿Qué medida de seguridad es esencial para proteger la comunicación por correo electrónico en la nube?. Uso de contraseñas simples y fáciles de recordar. Implementación de cifrado de extremo a extremo para proteger el contenido del mensaje. Compartir libremente la cuenta de correo electrónico con otros usuarios. ¿Cuál de las siguientes descripciones mejor se ajusta a la característica de "Volumen" en Big Data?. La rapidez con la que se generan y procesan los datos. La cantidad masiva de datos generados a través de diversas fuentes. La variedad de formatos y tipos de datos. La precisión y calidad de los datos. ¿Qué ejemplo ilustra mejor la característica de "Velocidad" en Big Data?. Datos de redes sociales. Streams de datos en tiempo real, como datos de sensores y transacciones en línea. Textos y vídeos en diferentes formatos. Análisis de datos de pacientes para identificar patrones de enfermedades. ¿Qué características son fundamentales para que un hecho sea considerado un dato?. Simplicidad y precisión. Contexto y relevancia. Procesamiento y organización. Presentación en un formato comprensible. Implementar controles de cumplimiento y realizar auditorías periódicas es una práctica recomendada para asegurar que los servicios en la nube cumplan con las leyes y normativas aplicables. Verdadero. Falso. ¿Cuál de las siguientes afirmaciones describe mejor el concepto de iteración continua en la ciencia de datos?. Cada etapa del proceso de ciencia de datos es independiente y no influye en las demás. Los insights obtenidos pueden llevar a una redefinición del problema y ajustes en la preparación de datos o selección de características. La iteración continua significa que una vez que se obtiene el modelo final, no se necesita más ajuste. Los modelos se construyen de una vez y se implementan sin necesidad de reevaluación. ¿Cuál de las siguientes afirmaciones sobre datos es correcta?. Son siempre presentados en un formato accesible y comprensible. Proveen contexto y relevancia por sí solos. Son hechos individuales y sin procesar. Muestran interrelaciones entre diversos conjuntos de datos. ¿Cuál de las siguientes opciones describe mejor la diferencia entre un dato y la información?. Un dato es una pieza bruta sin contexto, mientras que la información es el resultado de procesar y organizar esos datos. Un dato contiene juicios e interpretaciones, mientras que la información es neutral. Un dato es útil para la toma de decisiones, mientras que la información no lo es. La información es siempre más precisa que un dato. ¿Qué rol juega la retroalimentación y mejora en el ciclo continuo de la ciencia de datos?. No es necesario monitorear ni ajustar los modelos después de su implementación. Permite la retroalimentación continua para ajustar y mejorar los modelos con el tiempo. Solo se realiza una vez al final del ciclo de vida del modelo. Se centra únicamente en la fase de recolección de datos. La auditoría y monitoreo continuo en entornos de nube no es necesaria para detectar actividades sospechosas. Verdadero. Falso. Relaciona cada término con su definición correspondiente. Proceso que describe las etapas por las que pasa un dato desde su creación hasta su eliminación. Conjunto de prácticas y tecnologías destinadas a proteger los datos almacenados y procesados en entornos de nube. Un dato es un hecho bruto y sin procesar, mientras que la información es el resultado de procesar y contextualizar los datos para que tengan significado. ¿Qué estrategia pueden usar las empresas para reducir la dependencia de un solo proveedor de servicios en la nube?. Utilizar APIs y middleware. Considerar estrategias de multi-cloud o hybrid-cloud. Asegurar que los datos estén encriptados. Implementar soluciones de redundancia y recuperación ante desastres. ¿Qué puede suceder como resultado de los insights obtenidos en la fase de exploración de datos y los resultados de la evaluación del modelo en un proyecto de ciencia de datos?. Los insights obtenidos siempre son finales y no requieren ajustes en el problema o los datos. Los insights obtenidos pueden llevar a una redefinición del problema y los resultados de la evaluación del modelo pueden requerir ajustes en la preparación de datos o la selección de características. La fase de exploración de datos no influye en la evaluación del modelo. La preparación de datos y la selección de características son independientes de los resultados de la evaluación del modelo. ¿Qué implica la dependencia secuencial en el proceso de ciencia de datos?. Todas las etapas del proceso se pueden realizar simultáneamente sin importar el orden. Cada etapa depende de la anterior para su efectividad, como la preparación de datos antes del análisis. La secuencia de las etapas no afecta el resultado final del análisis de datos. La dependencia secuencial significa que el análisis de datos se realiza antes de recolectar los datos. La confidencialidad asegura que los datos solo sean accesibles para las personas autorizadas. Verdadero. Falso. Relaciona cada término con su definición correspondiente. Conjunto de técnicas y herramientas utilizadas para almacenar, procesar y analizar grandes volúmenes de datos. Permitir la escalabilidad, flexibilidad y ahorro de costos al almacenar y gestionar recursos informáticos de forma remota. Extraer valor de los datos mediante el análisis y la interpretación, ayudando a la toma de decisiones y optimización de procesos. La encriptación de datos en tránsito y en reposo no es necesaria para proteger los datos sensibles en la nube. Verdadero. Falso. ¿Qué deben hacer las empresas para cumplir con el Reglamento General de Protección de Datos (GDPR) en Europa o la Ley de Portabilidad y Responsabilidad de Seguros deSalud (HIPAA) en los Estados Unidos?. Diseñar sus aplicaciones para ser portátiles. Monitorear continuamente el uso de recursos. Asegurar que los datos y procesos en la nube cumplan con todas las leyes y normativas relevantes. Implementar herramientas de monitoreo y gestión. ¿Cuál es uno de los principales desafíos de la seguridad y privacidad en el almacenamiento de datos en la nube?. Optimizar el uso de recursos en la nube. Garantizar que los datos estén seguros y cumplan con las normativas de privacidad. Asegurar un rendimiento óptimo y tiempos de respuesta rápidos. Evitar el 'vendor lock-in'. La integridad de los datos se refiere a que los datos sean precisos y no se alteren sin autorización. Verdadero. Falso. La Gestión de Identidades y Accesos (IAM) ayuda a controlar quién tiene acceso a los recursos de la nube y qué permisos tienen. Verdadero. Falso. |