option
Cuestiones
ayuda
daypo
buscar.php

DIGITALIZACION TEMA 5

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
DIGITALIZACION TEMA 5

Descripción:
EVALUACIÓN DE LOS DATOS

Fecha de Creación: 2026/01/15

Categoría: Otros

Número Preguntas: 68

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál describe mejor el objetivo de evaluar datos en digitalización?. Convertir datos en información útil para decidir mejor. Guardar datos sin cambios para consultas futuras siempre. Eliminar datos antiguos para ahorrar espacio de forma. Crear informes sin analizar causas ni patrones reales.

¿Qué diferencia central separa “dato” de “información”?. El dato es crudo; la información está contextualizada. El dato siempre es gráfico; la información numérica. El dato se comparte; la información se oculta. El dato es legal; la información no aplica.

En el ciclo de vida del dato, ¿qué idea es correcta?. Pasa por etapas desde creación hasta eliminación final. Solo existe una fase: almacenamiento en la nube. Termina siempre en análisis predictivo obligatorio. Se limita a datos de sensores industriales únicamente.

¿Qué son los datos, según el tema?. Hechos crudos sin significado propio todavía claro. Conclusiones finales con contexto y valor inmediato. Reglas de negocio validadas por expertos internos. Informes interpretados con decisiones ya aplicadas.

¿Qué es la información, según el tema?. Datos organizados con contexto, significado y relevancia. Datos duplicados sin limpieza para auditorías externas. Valores aleatorios sin patrón para pruebas internas. Archivos sueltos guardados sin estructura ni uso.

¿Cuáles son las fases típicas del ciclo de vida?. Captura, almacenamiento, análisis, distribución, uso, archivo, eliminación. Captura, compresión, cifrado, venta, copia, bloqueo, borrado. Medición, transporte, impresión, etiquetado, embalaje, envío, cobro. Diseño, prototipo, producción, marketing, venta, soporte, retirada.

¿Qué describe mejor la captura/recopilación de datos?. Obtener datos de fuentes como sensores o transacciones. Borrar datos erróneos para evitar sesgos en modelos. Convertir datos en gráficos para informes directivos. Guardar datos en discos locales sin acceso remoto.

En captura de datos, ¿qué papel tiene una API?. Permite comunicación entre aplicaciones mediante protocolos definidos. Sustituye a bases de datos y elimina la necesidad. Es un sensor físico para medir variables industriales. Es un método para borrar datos sin recuperación.

. ¿Qué describe mejor el almacenamiento de datos?. Guardar datos seguro en nube, servidores o bases. Convertir datos en conclusiones para dirección general. Presentar dashboards sin KPIs ni objetivos definidos. Entrenar modelos IA sin datos históricos disponibles.

¿Qué es un Data Warehouse en este tema?. Almacén de datos estructurados para análisis y decisión. Repositorio de vídeo e imagen sin estructura alguna. Copia temporal de sensores para borrar semanalmente. Red social interna para compartir archivos personales.

¿Qué es un Data Lake según el enfoque del tema?. Repositorio para datos brutos o semiestructurados masivos. Base relacional cerrada con tablas estrictas fijas. Carpeta local sin permisos ni control de accesos. Sistema de correo usado como base de datos.

¿Qué ocurre en “procesamiento y análisis de datos”?. Transformar datos brutos en información útil para decidir. Archivar datos antiguos en almacenamiento más caro siempre. Enviar datos sin filtros a todos los usuarios. Eliminar datos nuevos para evitar sobrecarga operativa.

¿Qué significa “limpieza” de datos en el ciclo?. Corregir o eliminar errores y duplicados detectados. Convertir datos en tablas para informes mensuales. Guardar datos en nube sin cifrado por rapidez. Copiar datos sin control para tener redundancia.

¿Qué significa “normalización” en este contexto?. Pasar datos a formato común para coherencia global. Borrar valores extremos para que todo cuadre. Duplicar datos para que el análisis sea estable. Cambiar IPs para mejorar velocidad de transmisión.

¿Qué es la “distribución de la información”?. Entregar información por reportes, dashboards o alertas. Mover sensores físicos a otra planta industrial. Convertir datos en crudo para guardarlos sin fin. Eliminar datos en lote para reducir costes siempre.

¿Qué es un dashboard en el tema?. Interfaz gráfica que muestra KPIs para decidir mejor. Carpeta comprimida con archivos sin clasificación alguna. Programa antivirus que elimina amenazas en servidores. Cable físico para conectar sensores a la red.

¿Qué define la fase “uso de los datos”?. Aplicar datos procesados para generar valor y mejorar. Guardar datos sin lectura por cumplimiento únicamente. Transferir datos brutos a cualquiera sin permisos. Eliminar datos relevantes para acelerar reportes siempre.

¿Qué es el “archivado de datos”?. Conservar datos poco usados por motivos legales o históricos. Borrar datos repetidos para evitar sesgos analíticos. Convertir datos en modelos IA para predicción directa. Reemplazar servidores por móviles para reducir costes.

¿Qué implica la eliminación o destrucción de datos?. Borrado seguro para evitar recuperación posterior posible. Copia ilimitada en múltiples nubes sin control. Guardar datos en papel para auditorías manuales. Mover datos a dashboards sin análisis previo.

¿Qué es “análisis de datos” en este tema?. Transformar datos en información útil para decisiones y mejora. Guardar datos sin cambios para mantenerlos intactos. Borrar datos antiguos para liberar memoria únicamente. Convertir texto en PDF para archivar documentos.

¿Qué incluye la exploración de datos?. Revisar estructura, calidad, tendencias y patrones principales. Ejecutar robots físicos para recoger piezas en planta. Montar servidores sin internet para evitar filtraciones. Instalar antivirus y firewalls como única medida.

En exploración, ¿qué caracteriza al análisis descriptivo?. Usa tablas, gráficos y estadísticas básicas resumidas. Predice el futuro con redes neuronales profundas. Decide acciones óptimas sin datos históricos previos. Elimina datos nuevos para evitar ruido constante.

¿Qué busca la identificación de patrones en exploración?. Relaciones o anomalías con clustering o correlación aplicada. Cambios de hardware para acelerar servidores locales. Copias manuales diarias sin automatización ninguna. Sustituir KPIs por opiniones de usuarios finales.

¿Qué es el modelado de datos?. Construir modelos matemáticos para describir y predecir resultados. Guardar datos en carpetas para acceso casual. Eliminar duplicados sin revisar valores faltantes. Crear diagramas sin relación con datos reales.

¿Qué define un modelo predictivo según el tema?. Usa históricos para anticipar resultados futuros o riesgos. Describe pasado sin inferencias ni comparaciones temporales. Escribe informes sin gráficos para evitar sesgos. Sustituye datos por intuiciones de expertos internos.

¿Qué hace el análisis prescriptivo en el tema?. Sugiere acciones basadas en resultados de modelos predictivos. Mide latencia de red para optimizar conexiones WiFi. Borra datos antiguos para mejorar rendimiento del sistema. Clasifica cables y sensores por color en planta.

¿Qué describe la simulación dentro del análisis?. Crear escenarios hipotéticos para prever evolución de datos. Convertir datos en texto plano para archivado legal. Repetir datos para aumentar tamaño del conjunto. Bloquear APIs para evitar accesos externos siempre.

¿Qué objetivo tiene la validación de modelos?. Probar precisión y validez con datos de prueba. Hacer copias en la nube para redundancia total. Convertir datos en dashboards con colores llamativos. Eliminar datos etiquetados para evitar filtraciones.

¿Qué implica interpretar resultados del análisis?. Traducir resultados a insights accionables con contexto real. Guardar datos sin lectura para auditorías internas. Crear modelos sin evaluar su rendimiento nunca. Transferir datos brutos a todos los empleados.

¿Qué incluye implementación y monitoreo de modelos?. Desplegar e integrar modelos y supervisar su rendimiento. Recolectar datos solo una vez y cerrar sistema. Archivar modelos para no usarlos en producción. Eliminar dashboards por riesgo de malas decisiones.

¿Qué busca la visualización y comunicación de resultados?. Presentar hallazgos claros en informes o dashboards finales. Cambiar sensores por cámaras para captar más datos. Sustituir datos por opiniones para ahorrar tiempo. Guardar todo en local para evitar accesos remotos.

¿Qué es big data en el tema?. Infraestructura para almacenar, procesar y analizar datos masivos. Programa de correo para compartir archivos grandes siempre. Método para borrar datos antiguos de forma automática. Herramienta única que reemplaza toda la ingeniería.

¿Qué caracteriza big data frente a bases tradicionales?. Maneja datos complejos y dinámicos a gran escala. Solo trabaja con datos pequeños y totalmente estables. Se limita a textos cortos y tablas simples. Requiere siempre intervención manual para cada paso.

¿Qué característica del big data se relaciona con velocidad?. Rapidez en generar, capturar y procesar datos continuamente. Lentitud controlada para evitar decisiones demasiado rápidas. Eliminación de datos nuevos para prevenir saturación. Bloqueo de transmisión para reducir tráfico de red.

¿Qué diversidad de datos admite big data según el tema?. Estructurados, semiestructurados y no estructurados diversos también. Solo estructurados en tablas relacionales estrictas siempre. Solo números sin texto ni imagen permitidos. Solo datos locales creados en una única fuente.

¿Qué herramientas/técnicas se citan para manejar big data?. Almacenamiento distribuido, paralelo, algoritmos y visualización avanzada. Únicamente hojas de cálculo sin automatización ninguna. Borrado manual y copiado en USB cada día. Impresión en papel para análisis y auditorías.

Relación entre análisis de datos, big data e IA: ¿cuál es correcta?. Big data aporta volumen; IA aprende; análisis extrae valor. IA reemplaza datos; big data ya no se usa. El análisis elimina big data para reducir complejidad. Big data solo existe sin IA ni análisis alguno.

¿Qué es la ingeniería de datos en el tema?. Infraestructura y sistemas para gestionar y preparar datos. Técnica para inventar datos cuando faltan registros. Método de marketing para segmentar clientes sin datos. Software antivirus especializado en eliminar malware empresarial.

¿Dónde se ubica la ingeniería de datos en el ciclo?. Al principio: captura, almacenamiento y preparación para análisis. Al final: solo comunicación de resultados a dirección. Solo en archivado legal y destrucción definitiva segura. Únicamente en visualización mediante dashboards de ventas.

¿Qué diferencia clave hay entre ingeniería y minería de datos?. Ingeniería mueve/estructura; minería extrae valor y conocimiento. Ingeniería predice futuro; minería solo guarda información cruda. Ingeniería elimina datos; minería genera duplicados masivos. Ingeniería crea malware; minería lo elimina con firewalls.

¿Qué tarea se menciona como actividad de ingeniería de datos?. Diseñar pipelines, bases de datos y arquitecturas de flujo. Eliminar KPIs para evitar decisiones basadas en números. Sustituir APIs por papel para control documental. Guardar datos solo en local para mayor privacidad.

¿Qué herramientas se citan como ETL en el tema?. Apache NiFi, Talend y Apache Airflow en procesos. Excel, Paint y Word para automatizar el flujo. Antivirus, firewall y MFA para análisis de datos. Router, switch y cable para bases relacionales.

¿Qué plataformas se citan como big data en ingeniería?. Hadoop y Spark como plataformas de procesamiento masivo. WhatsApp y Telegram para intercambio seguro de archivos. Photoshop y AutoCAD para modelado de datos visual. Chrome y Firefox para análisis de tráfico de red.

¿Qué tecnologías se mencionan como habituales en ingeniería?. Distribuidas, tiempo real, microservicios y nube también. Solo papel y archivadores con control manual diario. Exclusivamente sistemas sin internet para evitar filtraciones. Únicamente tablets personales sin control empresarial central.

¿Cuál es una etapa clave del proceso de ingeniería?. Recopilar datos de fuentes y asegurar calidad y relevancia. Eliminar datos nuevos para reducir volumen a cero. Bloquear APIs para evitar integración con otros sistemas. Presentar dashboards antes de capturar datos reales.

¿Qué significa ETL en el proceso de ingeniería?. Extraer, transformar y cargar datos hacia sistemas destino. Editar, traducir y leer informes para dirección general. Enviar, transferir y listar datos en carpetas locales. Evaluar, testear y limpiar sensores en planta industrial.

¿Qué es gobernanza de datos en ingeniería (según el enfoque)?. Políticas para calidad, integridad, seguridad y cumplimiento legal. Borrado total de datos para evitar sanciones futuras. Sustituir modelos por intuición para reducir riesgos. Uso exclusivo de datos públicos sin control interno.

¿Qué es almacenamiento de datos en la nube?. Guardar datos en servidores remotos accesibles por internet. Guardar datos solo en discos locales sin conexión. Guardar datos en papel para auditorías presenciales. Guardar datos en móviles sin copias de seguridad.

¿Qué tipo de almacenamiento cloud es “como un disco tradicional”?. Almacenamiento de archivos accesible desde varios dispositivos. Almacenamiento de objetos con metadatos e identificador único. Almacenamiento de bloques para bases de datos virtuales. Almacenamiento relacional exclusivo para texto sin formato.

¿Qué tipo es ideal para muchos datos no estructurados?. Almacenamiento de objetos como en servicios tipo S3. Almacenamiento de archivos como carpetas locales compartidas. Almacenamiento de bloques como discos de máquinas virtuales. Almacenamiento relacional con tablas rígidas y columnas.

¿Qué define el almacenamiento de bloques?. Datos divididos en bloques con dirección independiente fija. Datos guardados como documentos con versiones manuales. Datos guardados en carpetas por fecha y autor. Datos cifrados siempre sin posibilidad de recuperación.

¿Cómo se accede típicamente a datos en la nube?. Por internet con web, apps móviles o APIs. Solo por cable directo dentro de la oficina. Solo por USB cifrado con contraseña diaria. Solo con impresiones en papel para control.

¿Qué seguridad suelen implementar proveedores cloud (según tema)?. Capas con cifrado, firewalls e intrusiones detectadas. Solo contraseña simple sin copias ni auditorías. Únicamente acceso público para facilitar colaboración total. Eliminación automática de datos para evitar ataques.

¿Qué beneficio cloud describe “subir o bajar capacidad”?. Escalabilidad y elasticidad sin comprar hardware adicional. Borrado obligatorio de datos para liberar almacenamiento siempre. Exclusividad de acceso desde un único dispositivo fijo. Prohibición de integrar servicios por riesgo de fuga.

¿Qué significa “pago por uso” en almacenamiento cloud?. Pagas solo por la cantidad de almacenamiento consumida. Pagas lo mismo siempre aunque no uses recursos. Pagas en hardware propio y mantenimiento interno anual. Pagas con datos personales como forma de moneda.

¿Qué beneficio cloud se relaciona con integración?. APIs y herramientas facilitan migración y gestión de datos. Impide conectar servicios externos para evitar dependencias. Elimina interfaces para reducir posibilidades de error humano. Obliga a usar solo almacenamiento local dentro empresa.

¿Qué beneficio cloud se relaciona con colaboración?. Edición y acceso compartido en tiempo real coordinado. Bloqueo total de archivos para evitar modificaciones siempre. Acceso exclusivo del administrador sin usuarios finales. Impresión obligatoria para validar cambios de documentos.

¿Qué es ciencia de datos según el tema?. Disciplina que combina áreas para extraer valor de datos. Método de guardar datos sin analizarlos nunca. Técnica para borrar datos sensibles automáticamente siempre. Sistema OT para controlar máquinas sin internet externo.

En Dirección, ¿para qué se usan BI y dashboards?. Monitorizar KPIs en tiempo real y decidir con datos. Eliminar KPIs para evitar presión en los equipos. Sustituir datos por opiniones para rapidez de decisión. Usar solo papel para control financiero de empresa.

En Dirección, ¿qué ejemplo se menciona de uso de datos?. Ajustar precios dinámicamente según demanda y competencia. Fijar precios siempre iguales para evitar cambios del mercado. Bajar precios al azar sin medir márgenes ni costos. Copiar precios de competidores sin analizar contexto interno.

En Desarrollo de producto, ¿qué uso aparece?. Detectar mejoras con datos de uso y feedback clientes. Evitar feedback para reducir cambios de versión futura. Publicar versiones sin medir satisfacción ni rendimiento final. Diseñar producto solo por intuición de un equipo.

En Desarrollo de producto, ¿qué son pruebas A/B?. Experimentos controlados para comparar versiones y eficacia final. Copias de seguridad duplicadas para evitar pérdida datos. Sistemas de cifrado para proteger información de usuarios. Modelos predictivos que no requieren datos históricos previos.

En Producción, ¿qué ejemplo se menciona en el tema?. Sensores generan datos para predecir fallos y mantenimiento. Sensores se desconectan para evitar dependencia de redes. Máquinas trabajan sin datos para impedir paradas inesperadas. Se imprime todo en papel para auditorías diarias.

En Logística, ¿qué aplicación se menciona?. Optimizar rutas y gestionar inventarios en tiempo real. Evitar inventarios para reducir errores de conteo. Usar solo registros manuales para control de almacén. Eliminar datos de rutas para proteger secretos internos.

En Marketing, ¿qué permite el análisis de datos de clientes?. Segmentar por comportamientos y personalizar campañas mejor. Ignorar segmentos para no discriminar nunca a nadie. Hacer campañas iguales para todos sin excepciones. Borrar datos de clientes para no tomar decisiones.

¿Qué ejemplo se cita de recomendación basada en datos?. Amazon o Netflix sugieren contenido según comportamiento pasado. Amazon imprime catálogos y decide según ventas históricas. Netflix bloquea datos para evitar sesgos de recomendación. Spotify elimina historial para proteger privacidad por defecto.

¿Para qué sirven IDS e IPS en el tema?. Detectar y prevenir intrusiones monitorizando actividad sospechosa. Guardar datos como objetos con metadatos e ID. Generar dashboards con KPIs para dirección de empresa. Convertir datos crudos en información con contexto útil.

¿Qué medida añade una capa extra a cuentas de usuario?. Autenticación multifactor (MFA) como verificación adicional segura. Desactivar contraseñas para evitar olvidos en usuarios. Copiar credenciales para que soporte acceda más rápido. Usar solo usuario invitado para todo el personal.

Denunciar Test