option
Cuestiones
ayuda
daypo
buscar.php

DASP 5 Evaluación de datos II

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
DASP 5 Evaluación de datos II

Descripción:
Digitalización aplicada a los sectores productivos

Fecha de Creación: 2025/04/20

Categoría: Otros

Número Preguntas: 62

Valoración:(2)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Ejecución del ciclo de vida de los datos. Planificación. Captura. Utilización. Análisis. Archivado. Borrado.

¿Qué significa DLM en el contexto de los datos?. Data Learning Model. Data Lifecycle Management. Digital Logic Mechanism. Data Legal Management.

¿Por qué es importante gestionar el ciclo de vida de los datos?. Porque permite optimizar su utilidad y minimizar errores. Porque ayuda a liberar recursos cuando los datos ya no son necesarios. Porque impide el acceso a los datos por parte de los usuarios. Porque elimina automáticamente todos los datos sin analizar.

¿Cuál es uno de los motivos actuales por los que la gestión del ciclo de vida de los datos es cada vez más necesaria?. Por la expansión del análisis de Big Data. Por el desarrollo del internet de las cosas (IoT). Porque los datos ahora se eliminan automáticamente. Porque los datos ya no requieren revisión constante.

¿Qué beneficios aporta revisar los datos durante todo su ciclo de vida?. Mejora la precisión y la eficiencia en su uso. Reduce el consumo innecesario de recursos. Elimina todos los datos antiguos sin criterio. Minimiza la posibilidad de errores en los análisis.

¿Qué se decide en la etapa de planificación del ciclo de vida de los datos?. Qué tipos de datos son valiosos y cómo se gestionarán. Quién será responsable de los datos y qué resultados se esperan. Cuáles serán los dispositivos de almacenamiento. Qué herramientas se utilizarán para borrar los datos.

¿Cómo se diferencian los datos estructurados de los no estructurados?. Los datos estructurados se guardan en bases de datos relacionales (SQL). Los datos no estructurados se guardan en bases de datos no relacionales (no SQL). Los datos no estructurados siempre se guardan en formato de texto plano. Los datos estructurados se almacenan solo en formatos de imagen.

¿Cuál es una característica clave de la fase de captura de datos?. Los datos se almacenan según las categorías a las que pertenecen. Los datos solo se obtienen de bases de datos ya existentes. Se recopilan datos de múltiples fuentes externas. Los datos son almacenados sin tener en cuenta su estructura.

¿Qué función cumple la etapa de utilización del ciclo de vida de los datos?. Gestionar el modelo de almacenamiento y protección de los datos. Elegir las herramientas necesarias para mantener los datos seguros. Realizar análisis detallados de los datos recopilados. Recopilar datos de distintas fuentes de forma continua.

¿Cuál es el propósito principal de la fase de análisis de los datos?. Resolver problemas y tomar decisiones basadas en los datos. Obtener información para respaldar los objetivos empresariales. Recopilar nuevos datos provenientes de fuentes externas. Archivar los datos después de haber sido utilizados.

¿Qué sucede en la fase de archivado de los datos?. Los datos se almacenan para ser preservados durante un período de tiempo. Los datos se eliminan de las bases de datos de manera permanente. Los datos se procesan para obtener conclusiones útiles. Los datos se organizan en una estructura de fácil acceso para su futura consulta.

¿Qué proceso se lleva a cabo en la fase de borrado de los datos?. Se eliminan los datos innecesarios para liberar espacio de almacenamiento. Se utiliza software especializado para asegurar la eliminación segura. Los datos son movidos a un archivo temporal antes de ser eliminados. Se destruyen físicamente los dispositivos de almacenamiento para garantizar la seguridad.

¿Cuál de las siguientes afirmaciones describe correctamente la etapa de planificación en el ciclo de vida de los datos?. Se definen los tipos, origen y arquitectura de los datos. Se eligen las herramientas específicas para almacenar los datos. Se decide cómo eliminar los datos una vez que ya no sean útiles. Se montan los entornos de hardware y software para la posterior gestión de los datos.

¿Qué tipos de bases de datos se utilizan para almacenar datos estructurados?. Bases de datos no relacionales (NoSQL). Bases de datos relacionales (SQL). Bases de datos en la nube. Archivos de texto planos.

¿Qué es importante en la fase de captura de los datos?. Almacenar los datos en función de sus categorías. Clasificar todos los datos como estructurados. Solo almacenar datos provenientes de bases de datos internas. Eliminar los datos no utilizados para evitar el consumo de recursos.

¿En qué fase del ciclo de vida de los datos se eligen las herramientas para proteger y mantener seguros los datos?. Captura. Utilización. Archivado. Borrado.

¿Por qué es importante la etapa de análisis de los datos?. Permite resolver problemas y tomar decisiones estratégicas. Asegura que los datos se utilicen para apoyar los objetivos empresariales. Se asegura de que los datos estén correctamente archivados. Elimina los datos innecesarios antes de su análisis.

¿Cuál de las siguientes acciones ocurre en la fase de archivado de los datos?. Los datos se procesan para la toma de decisiones. Los datos se almacenan por un tiempo determinado sin ser utilizados. Los datos se eliminan permanentemente del sistema. Se crean copias de seguridad de los datos archivados.

¿Qué se debe hacer con los datos en la etapa de borrado?. Eliminar los datos innecesarios para liberar espacio de almacenamiento. Asegurarse de que los datos sean irrecuperables mediante un software especializado. Solo eliminar los datos que no pertenecen a clientes o empleados. Guardar una copia de los datos antes de eliminarlos por completo.

¿Qué puede ocurrir si no se realiza una eliminación segura de los datos?. Los datos pueden ser recuperados mediante un software especializado en recuperación de datos. Se genera espacio adicional de almacenamiento automáticamente. Los datos se pueden destruir sin dejar rastro. No hay consecuencias, los datos se pierden sin riesgo.

¿Qué tipo de datos se almacena en bases de datos no relacionales (NoSQL)?. Datos estrictamente numéricos. Datos no estructurados. Datos de acceso rápido y frecuente. Datos de clientes en formato organizado.

¿Qué se define en la etapa de planificación del ciclo de vida de los datos?. El tipo, origen y arquitectura de los datos. Cuáles serán los resultado óptimos. Los métodos para eliminar los datos innecesarios. El responsable de gestionar los datos durante su ciclo de vida.

¿Cuál es el propósito de la etapa de utilización de los datos?. Gestionar el almacenamiento y protección de los datos. Elegir las herramientas que protegen y mantienen seguros los datos. Clasificar los datos en diferentes categorías. Es una etapa importante para realizar una limpieza eficiente de datos en etapas posteriores.

¿Qué se hace en la fase de análisis del ciclo de vida de los datos?. Los datos se utilizan para resolver problemas y respaldar decisiones. Se asegura la limpieza eficiente de los datos. Se archivan los datos para su almacenamiento a largo plazo. Se eliminan los datos innecesarios por razones de espacio.

¿Cuál es una de las principales razones para eliminar datos durante la fase de borrado?. La escasez de espacio de almacenamiento. Para mejorar la calidad de los datos almacenados. Para realizar análisis más rápidos y eficientes. Para liberar recursos de los dispositivos de almacenamiento.

¿Qué sucede con los datos en la fase de borrado si se almacenan en dispositivos como discos duros o tarjetas SD?. Pueden ser recuperados mediante software especializado si no se eliminan de forma segura. Se eliminan de manera irreversible sin posibilidad de recuperación. Se mueven a una ubicación diferente del sistema. Se archivan de manera temporal antes de su eliminación final.

¿Qué caracteriza a los datos de Big Data?. Son conjuntos de datos masivos difíciles de procesar por las bases de datos tradicionales. Son datos pequeños y fácilmente gestionables por bases de datos SQL. Son datos estructurados con un formato estándar. Son datos que solo se generan de fuentes internas de una empresa.

¿Cuáles son algunas de las fuentes de datos utilizadas en Big Data?. Solo bases de datos estructuradas. Sensores, actuadores e internet (como redes sociales). Solo fuentes internas de la empresa. Datos provenientes exclusivamente de registros físicos.

¿Qué herramientas de gestión de Big Data utilizan las empresas más consolidadas?. Hadoop. MySQL. Excel. Microsoft Access.

¿Qué tipo de procesamiento es clave en el Big Data para las empresas?. Procesamiento manual de datos. Almacenamiento sin procesamiento. Procesamiento rápido en tiempo real. Procesamiento únicamente en lotes diarios.

¿Cuál de las siguientes no es una aplicación común de Big Data?. Obtención de perfiles de comportamiento y consumo. Viabilidad de un producto. Tareas de contabilidad básica. Anticipación a un ciberataque.

¿Cuáles son las 5 V que definen las características del Big Data?. Volumen, velocidad, variedad, veracidad y valor. Volumen, visualización, veracidad, valor y validación. Velocidad, valor, veracidad, verificación y volumen. Volumen, variabilidad, velocidad, verificación y valor.

¿Qué significa "volumen" en el contexto del Big Data?. La rapidez con la que los datos se procesan. La ingente cantidad de datos que desbordan a las organizaciones. La variedad de los tipos de datos. La calidad y fiabilidad de los datos almacenados.

¿Cómo ha cambiado el volumen de datos en los últimos años?. Ha crecido de terabytes a petabits. Ha disminuido a medida que se mejora la eficiencia en el almacenamiento. Se ha mantenido igual debido a las limitaciones de almacenamiento. Solo se genera información a partir de datos estructurados.

¿Qué factor caracteriza la "velocidad" en Big Data?. La cantidad de datos procesados por segundo. La rapidez con que los datos se almacenan en servidores locales. La rapidez con la que los datos se vuelven obsoletos y envejecen. La velocidad de la conexión a internet.

¿Qué implica la "veracidad" en el Big Data?. La rapidez de procesamiento de los datos. La variedad de los tipos de datos disponibles. La fiabilidad, coherencia y limpieza de los datos. La cantidad de datos almacenados en los servidores.

¿Cuáles de los siguientes son factores que pueden contaminar la veracidad de los datos?. Errores en el software, datos estadísticos distorsionados, y errores humanos. Solo la falta de espacio de almacenamiento. La sobrecarga de datos en los sistemas. La cantidad excesiva de datos no estructurados.

¿Qué es el "valor" de los datos en el contexto de Big Data?. La capacidad de convertir los datos en información útil y de calidad para generar ventaja competitiva. La cantidad de datos procesados en tiempo real. La calidad del almacenamiento de los datos. La rapidez con la que se generan nuevos datos.

¿Cómo se puede obtener valor de los datos en Big Data?. Simplemente recopilando más datos sin procesarlos. Tomando decisiones basadas en la información precisa, segmentando clientes y reduciendo riesgos. Almacenando los datos sin realizar ningún tipo de análisis. Ignorando la calidad de los datos y procesándolos sin restricciones.

¿Cuál es el factor más importante de las 5V características del big data?. Volumen. Velocidad. Variedad. Veracidad. Valor.

¿Qué disciplina se encarga de hacer útiles los datos a través de métodos estadísticos, machine learning y deep learning?. Inteligencia artificial. Ciencia de los datos. Análisis de datos. Big Data.

¿En qué caso se utilizaría el análisis estadístico en la ciencia de los datos?. Para automatizar decisiones con incertidumbre. Para tomar algunas decisiones importantes con incertidumbre. Para procesar grandes volúmenes de datos sin estructurar. Para aplicar algoritmos de aprendizaje profundo.

¿Qué disciplina se utiliza cuando se quieren automatizar muchas decisiones con incertidumbre?. Estadística. Machine learning e inteligencia artificial. Deep learning. Análisis de datos.

¿Qué disciplina se utiliza cuando se quieren tomar unas cuantas decisiones importantes con incertidumbre?. Estadística. Machine learning e inteligencia artificial. Deep learning. Análisis de datos.

¿Qué disciplina se utiliza cuando se quieren procesar grandes volúmenes de datos sin estructurar y comenzar con su aprendizaje en profundidad?. Estadística. Machine learning e inteligencia artificial. Deep learning. Análisis de datos.

¿Qué tipo de datos se procesan principalmente con Deep learning?. Datos estructurados y pequeños. Datos pequeños y fácilmente organizables. Grandes volúmenes de datos sin estructurar. Solo datos cuantitativos.

¿Cuál es la finalidad principal del análisis de datos?. Procesar datos sin estructurar. Recopilar, transformar y organizar datos para obtener conclusiones. Automatizar decisiones con incertidumbre. Implementar algoritmos de aprendizaje profundo.

¿Qué objetivo tiene el análisis de datos en cuanto a la toma de decisiones?. Predecir de forma exacta todos los eventos futuros. Hacer predicciones e impulsar decisiones informadas en contextos de incertidumbre. Automatizar decisiones sin intervención humana. Organizar datos sin extraer conclusiones significativas.

¿Qué técnica se emplea cuando se desea procesar grandes volúmenes de datos sin estructurar y realizar un aprendizaje profundo?. Inteligencia artificial. Deep learning. Machine learning. Análisis de datos.

¿Qué relación existe entre Big Data y el análisis de datos?. Big Data solo almacena datos sin procesarlos, mientras que el análisis de datos no utiliza Big Data. El análisis de datos procesa los grandes volúmenes de Big Data para generar conclusiones. Big Data y el análisis de datos son lo mismo, solo que Big Data usa más almacenamiento. Big Data se utiliza para almacenar grandes volúmenes de datos que luego son analizados para obtener conclusiones.

¿Cuál es el propósito de machine learning en el contexto de la ciencia de los datos?. Realizar análisis manuales de los datos sin automatización. Automatizar muchas decisiones con incertidumbre utilizando algoritmos. Procesar grandes volúmenes de datos sin estructurar. Crear modelos de predicción a partir de datos no estructurados.

¿Qué diferencia existe entre machine learning e inteligencia artificial?. Machine learning no es capaz de aprender por sí mismo. Machine learning es una técnica dentro de la inteligencia artificial que permite a las máquinas aprender de los datos. La inteligencia artificial no se ocupa de la toma de decisiones automáticas. Machine learning solo se aplica a datos estructurados, mientras que la inteligencia artificial a todos los tipos de datos.

¿Cuál es el objetivo principal del análisis descriptivo de datos?. Predecir futuros comportamientos o eventos. Sugerir decisiones o acciones específicas. Conocer el estado actual de una corporación mediante el análisis de datos históricos. Usar machine learning para crear modelos predictivos.

¿En qué se basa el análisis predictivo de datos?. En la toma de decisiones manuales basadas en datos. En los datos históricos y actuales para predecir el futuro mediante probabilidades. En la recomendación de acciones específicas basadas en datos históricos. En la creación de nuevos modelos para entender lo desconocido.

¿Qué característica define al análisis prescriptivo de datos?. Analiza el estado actual de la empresa para tomar decisiones. Predice los eventos futuros usando estadísticas y probabilidades. Sugerir decisiones o acciones específicas para alcanzar un resultado deseado, utilizando análisis previos y técnicas avanzadas. Se enfoca únicamente en los datos históricos para justificar decisiones.

¿Qué tipo de análisis se utiliza para predecir si un producto va a funcionar o no?. Análisis descriptivo. Análisis prescriptivo. Análisis predictivo. Ninguno de los anteriores.

¿Qué profesional se dedica a responder a las preguntas existentes y crear información a partir de fuentes de datos?. Científico de datos. Analista de datos. Ingeniero de datos. Desarrollador de software.

¿Qué hace un científico de datos (data scientist)?. Crea nuevas formas de modelar y entender lo desconocido mediante el uso de datos sin procesar. Responde preguntas existentes utilizando análisis de datos. Solo analiza datos históricos para crear informes. Se encarga de la recolección y almacenamiento de datos.

¿Cuál de los siguientes análisis utiliza técnicas avanzadas, como redes neuronales artificiales, para recomendar acciones a seguir?. Análisis descriptivo. Análisis predictivo. Análisis prescriptivo. Análisis de Big Data.

¿Qué tipo de análisis de datos es más adecuado para justificar la toma de decisiones empresariales basadas en el rendimiento histórico?. Análisis descriptivo. Análisis predictivo. Análisis prescriptivo. Análisis de Big Data.

¿Cuál es la principal diferencia entre un científico de datos y un analista de datos?. El analista de datos crea nuevas formas de modelar datos, mientras que el científico de datos responde preguntas existentes. El científico de datos no trabaja con datos sin procesar. El científico de datos crea nuevas preguntas y modelos a partir de datos sin procesar, mientras que el analista responde preguntas ya formuladas. Ambos roles son exactamente iguales en sus funciones.

¿Qué tipo de análisis de datos utiliza estadísticas combinadas con machine learning para predecir el futuro?. Análisis descriptivo. Análisis predictivo. Análisis prescriptivo. Análisis exploratorio.

Denunciar Test