option
Cuestiones
ayuda
daypo
buscar.php

Primer parcial Big Data

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Primer parcial Big Data

Descripción:
Siglo 21

Fecha de Creación: 2023/08/09

Categoría: Otros

Número Preguntas: 106

Valoración:(4)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

En un proyecto de big data ¿Qué datos aportan valor al negocio?. Los datos que permiten obtener información útil para la toma de decisiones de un determinado negocio son los que aportan valor. Los datos generados por las interacciones de los clientes con los productos o servicios. Los datos demográficos y geográficos de la población objetivo. Los datos históricos de ventas y tendencias del mercado. Los datos de tráfico en el sitio web y comportamiento de navegación.

¿Qué entendemos por Big Data?. Es toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Se refiere a los datos almacenados en una hoja de cálculo de Excel. Son datos que solo son relevantes para las grandes empresas. Se trata de información poco importante en el mundo de los negocios. Son datos que solo pueden ser analizados por científicos de datos altamente capacitados.

Una característica de Big Data es que: Permite realizar analítica de los datos. Se limita al almacenamiento de información en servidores locales. Solo es relevante para empresas de tecnología. No requiere de procesos de limpieza ni transformación de datos. Está compuesto exclusivamente por datos numéricos.

Eres un consultor de Big Data en la empresa y el director te pide que le especifiques qué ventaja obtiene aplicando este tipo de tecnología si tenemos en cuenta la velocidad de los datos. ¿Qué responderías?. Para la empresa, la velocidad de los datos será ventajosa para la toma de decisiones. La velocidad de los datos no tiene impacto en las operaciones de la empresa. Big Data solo se centra en el almacenamiento, no en la velocidad de los datos. La velocidad de los datos solo afecta a las pequeñas empresas. Big Data solo se utiliza en la investigación científica, no en los negocios.

¿Cuáles de las siguientes corresponden al concepto de “Las 4 V” de “Big Data”? Seleccione las 4 (cuatro) opciones correctas. Velocidad. Volumen. Variedad. Valor. Viscosidad.

Selecciones las 2 (dos) opciones correctas. En una empresa de productos electrónicos, se está analizando la implementación de tecnología Big Data. ¿Cuáles son las principales ventajas que se obtendrían?. Análisis de operaciones, porque la empresa podrá analizar sus transacciones en mejor tiempo y de manera más eficaz. Visión 360° del cliente, porque le permitirá tener más información sobre sus clientes. Recetas de cocina, ya que Big Data puede ayudar a mejorar las recetas de los productos. Historias de fantasmas, ya que Big Data puede analizar historias de terror.

¿Qué aporta a las empresas la implementación de mejoras tecnológicas producto de una estrategia de Big Data?. Permite descubrir las necesidades y puntos a mejorar en la compañía. Optimiza los procesos de producción y reduce costos. Facilita la planificación de vacaciones para los empleados. Incrementa la duración de los cafés de la mañana. Mejora la calidad de la música ambiental en la oficina.

¿Qué aporta a las empresas la implementación de mejoras tecnológicas producto de una estrategia de Big Data?. Posibilitan la adquisición de datos y permiten descubrir las necesidades y puntos de mejora en la compañía. Incrementan el uso de papel en la oficina. Reducen la importancia de la seguridad de los datos. Aumentan el número de reuniones semanales. Facilitan la implementación de políticas de recursos humanos.

En los sistemas transaccionales de una empresa, ¿Qué tipo de datos podemos encontrar?. Datos estructurados. Recetas de cocina de los empleados. Páginas de chistes en línea. Datos meteorológicos en tiempo real. Historias de ciencia ficción.

¿Qué aporta a las organizaciones un rol más activo y social por parte del usuario de las nuevas tecnologías?. Un ecosistema proclive al Intercambio de Información. Mayor dificultad en la adopción de tecnologías. Reducción de la colaboración entre departamentos. Aumento de la complejidad en los procesos internos. Disminución de la eficiencia operativa.

Indique qué solicitudes se pueden resolver utilizando Data Mining: (seleccione la opción correcta). Encontrar patrones ocultos y repetitivos. Determinar la receta secreta de la abuela. Predecir el clima para los próximos 100 años. Identificar la marca de ropa favorita de una celebridad. Calcular el valor de Pi con una precisión de un millón de decimales.

¿Qué motivo a que Big Data se convierta en una tendencia en la actualidad?. Las empresas se dan cuenta de que no pueden analizar, ni manejar la información de manera convencional. Los unicornios mágicos requieren tecnología avanzada. Las empresas encuentran más beneficios en el uso de máquinas de escribir. Se ha demostrado que Big Data es solo una moda pasajera. Las empresas deciden regresar a métodos manuales para todas sus operaciones.

Estás a cargo de un proceso ETL para carga de datos en la laguna de datos, ahora, ¿Cuáles son los objetivos que deberías tener en cuenta en la fase de transformación de datos? Seleccione la opción correcta. Debo detectar y corregir inconsistencias, porque en esta etapa se limpian los datos mediante algoritmos avanzados. Debo aumentar la complejidad de los datos, añadiendo información irrelevante. Debo borrar todos los datos y empezar desde cero. Debo hacer que los datos sean más confusos para dificultar su análisis. Debo mezclar los datos con información personal de los empleados.

¿Qué aporta a las organizaciones un rol más activo y social por parte del usuario de las nuevas tecnologías?. Un ecosistema proclive al intercambio de información. Mayor complejidad en los procesos internos. Reducción de la colaboración entre departamentos. Aumento de la burocracia en la toma de decisiones. Incremento en la falta de comunicación.

¿Cuál es el objetivo general de la Inteligencia de Negocios o Business Intelligence?. La toma de decisiones. La creación de problemas adicionales. La disminución de la eficiencia operativa. La generación de conflictos internos. La desregulación de las políticas de la empresa.

Cuando hablamos de la característica “volumen” en Big Data, ¿Cuál es la visión respecto a la unidad de los datos?. Algunos datos no serán útiles por falta de calidad o porque no forman parte de la estrategia de análisis. Cada dato individual es considerado de alta importancia. Todos los datos se analizan por igual, sin excepción. Los datos se agrupan en categorías sin considerar su valor. Los datos son procesados de manera aislada sin conexión entre ellos.

Respecto a la característica VERACIDAD en Big Data, ¿A qué hace referencia?. A la calidad de los datos que se utilizan para el análisis. A la cantidad de datos almacenados en el sistema. A la velocidad a la que se recopilan los datos. A la variedad de formatos en los que se presentan los datos. A la volatilidad de los datos en el tiempo.

Una empresa de telefonía tiene implementada una laguna de datos, y necesita cargar los datos en esta laguna. De acuerdo a los perfiles profesionales al manejo de datos, ¿Qué perfil deberían contratar para que se encargue de tareas relacionadas al almacenaje, extracción y movimiento de datos?. Deberían contratar a un arquitecto de datos ya que realiza tareas de almacenaje, extracción y movimientos de datos para cargar datos a la laguna. Deberían contratar a un experto en cocina para preparar la laguna de datos. Deberían contratar a un astrónomo para analizar los datos en la laguna. Deberían contratar a un maestro de ceremonias para anunciar la llegada de los datos a la laguna. Deberían contratar a un filósofo para reflexionar sobre los datos en la laguna.

Cuando hablamos de la característica volumen en Big Data, ¿Cuál es la visión con respecto a la unidad de los datos?. Algunos datos no serán útiles por falta de calidad o porque no forman parte de la estrategia de análisis. Cada dato individual es considerado de alta importancia. Todos los datos se analizan por igual, sin excepción. Los datos se agrupan en categorías sin considerar su valor. Los datos son procesados de manera aislada sin conexión entre ellos.

Respecto a la velocidad en Big Data, ¿Qué factor/es de negocio se encuentra estrechamente ligado/s a esta característica?. La toma de decisiones. El aumento en el uso de papel en la oficina. La reducción de la colaboración entre equipos. La complejidad en la gestión de recursos humanos. La disminución de la eficiencia operativa.

Seleccione las 4 (cuatro) respuestas correctas. Una compañía de transporte contrata los servicios de un Administrador de datos; quien dice que para asegurar la buena calidad en los datos deben cumplir con ciertas características. ¿Cuáles son?. Consistencia: deben ser datos que al cruzarse con otros no pierdan su esencia, es decir, deben ser consistentes. Exactitud: no podemos dudar si son datos correctos o no, deben ser exactos. Completitud: porque, aunque en este momento sea irrelevante cierta parte del dato, en algún momento podría ser necesaria. Conformidad: porque los datos que obtenga la empresa, deben estar en un formato estandarizado y legible para su comprensión. Cambiabilidad: porque los datos deben estar en constante cambio para ser útiles.

¿A qué hacemos referencia cuando nos referimos a un error de tipo Sintáctico en los datos?. Información que, escrita de diferente manera, puede ser igualmente válida. Información que no se relaciona con el negocio. Información que está disponible en múltiples fuentes. Información que no es relevante para el análisis. Información que no se encuentra en la base de datos.

¿A qué hacemos referencia cuando nos referimos a un tipo de error semántico en los datos?. Es un error que se produce en el contenido de los datos. Es un error que se produce en la estructura de los datos. Es un error que se produce en la velocidad de los datos. Es un error que se produce en el volumen de los datos. Es un error que se produce en la variedad de los datos.

Estás a cargo de un proceso ETL en una empresa para ingesta de datos en la laguna de datos, ahora, ¿Cuál sería tu tarea?. Extract, Transform and Load que implica un proceso estandarizado de extracción, transformación y carga de datos. Ejecutar análisis de mercado en busca de peces exóticos. Diseñar logotipos para la laguna de datos. Programar eventos de entretenimiento en la laguna de datos. Investigar los hábitos de migración de las aves en la laguna de datos.

¿Cuál es el significado de las siglas en inglés ETL?. Examine, Test and Learn. Extract, Transfer and Locate. Evaluate, Track and Log. Extract, Transform and Load. Enhance, Transmit and Link.

¿Qué tipo de datos nos provee un archivo de Word para su aplicación en Big Data?. No estructurados. Altamente estructurados. Totalmente aleatorios. Numéricos y ordenados. Multiestructurados.

El área Staging, ¿Qué tipo de información almacena?. Información detallada. Información confidencial. Información antigua. Información irrelevante. Información ficticia.

¿Qué valoraciones aparecen como primordiales en la fase de carga de datos en los procesos ETL?. Destino y nivel de detalle de los datos. Colores y formas de los datos. Frecuencia y sabor de los datos. Tamaño y temperatura de los datos. Edad y género de los datos.

¿Cuál es el objetivo de la fase de transformación de los datos en los ETL?. Detectar y corregir inconsistencias mediante algoritmos avanzados de limpieza de datos. Cambiar la fuente de los datos sin ninguna modificación. Generar datos aleatorios para análisis. Convertir datos estructurados en datos no estructurados. Reorganizar los datos en un orden alfabético.

El arquitecto de datos de una compañía de telefonía definió la arquitectura con la que se implementará Big Data, ¿Cuáles son los componentes principales?. Data warehouse. Staging. Laguna de datos. Transaccionales. Nube de algodón de azúcar.

¿Cuál es la función del Científico de Datos?. Establecer modelos estadísticos-matemáticos que permitan definir cómo se van a hacer las cosas. Realizar experimentos químicos en el laboratorio. Diseñar estrategias de marketing digital. Gestionar la contabilidad de la empresa. Preparar café para los empleados.

De acuerdo a los perfiles profesionales relacionados al manejo de datos, ¿Qué perfil se encarga de tareas relacionadas al almacenaje, extracción y movimiento de datos?. Arquitecto de Datos. Chef de cocina. Astronauta. Maestro de ceremonias. Filósofo.

De acuerdo a los perfiles profesionales relacionados al manejo de datos, ¿Qué conocimiento engloba un centro de datos?. Computación, matemática y estadística. Historia del arte y literatura clásica. Geografía y geología. Cocina gourmet y repostería. Danza contemporánea y teatro musical.

De acuerdo a los perfiles profesionales relacionados al manejo de datos, ¿Qué conocimientos engloba un Científico de Datos?. Computación, matemática y estadística. Pintura al óleo y escultura. Zoología y botánica. Literatura contemporánea y poesía. +Astronomía y astrología.

Seleccione las 3(tres) opciones correctas. Una empresa de logística está implementando una solución Big Data. ¿Cuáles de los siguientes perfiles profesionales deben intervenir para una solución Big Data en la empresa de logística?. Un Data Steward (administrador de datos), porque será quien mantenga la calidad, la seguridad y la disponibilidad de los datos. Un científico de datos, porque es necesario a la hora de extraer conocimiento e información útil de los datos proporcionados. Un arquitecto de datos, porque definirá la estructura de organización y funcionamiento de la solución Big Data. Un chef de cocina, porque aportará sabores únicos a los datos. Un músico, porque añadirá melodía a los datos.

Teniendo en cuenta los perfiles profesionales de Big Data, estos son: Seleccione las 4 (cuatro) respuestas correctas. Analistas de datos (data analyst). Científico de datos (data scientist). Estrategas de datos (data strategist). Arquitecto de datos (data architect). Ingeniero de datos (data engineer).

¿Cuál es la función del Científico de datos?. Establecer modelos estadísticos-matemáticos que permitan definir cómo se van a hacer las cosas. Diseñar vestuarios para teatro. Investigar patrones de migración de aves. Preparar menús gourmet. Crear obras de arte abstracto.

En una editorial de periódicos están necesitando perfeccionar la cantidad de copias de periódicos que imprimen. Tienen un detalle de las cantidades que día a día se emiten, creen que es conveniente contratar un científico de datos para realizar esta tarea esto es: Verdadero. Falso.

Desde la academia. están motivando la generación de científicos de datos. ¿qué conocimiento deberían enseñar a los futuros científicos de datos? Seleccione la opción correcta. Computación, matemática y estadística, porque la propuesta de un científico de datos es multidisciplinaria. Historia del arte y literatura clásica, porque la creatividad es esencial en el análisis de datos. Zoología y botánica, porque la naturaleza puede proporcionar datos valiosos. Cocina gourmet y repostería, para fomentar la innovación en la ciencia de datos. Danza contemporánea y teatro musical, para mejorar las habilidades de comunicación de los científicos de datos.

“En la actualidad, comienza a denotarse una gran demanda de perfiles profesionales que sepa trabajar con datos, y a su vez existe una gran cantidad de recursos humanos formados en estas nuevas tecnologías, como por ejemplo los científicos de datos”. Verdadero. Falso.

Indique cuáles de las siguientes preguntas puede resolverse con Data Mining: ¿Cuál es el perfil de los clientes que probablemente respondan a la futura campaña?. ¿Cuál es la receta más deliciosa para hacer galletas?. ¿Cuántos planetas hay en nuestro sistema solar?. ¿Qué es el teorema de Fermat?. ¿Cuál es la capital de Francia?.

Una empresa quiere incorporar Big Data a su compañía, pero no está del todo convencida de realizar esta inversión. Entonces, te contratan para asesorarlos. ¿Qué motivó a que Big Data se convirtiera en una tendencia en la actualidad y podríamos decir que a esta empresa en particular?. La empresa se da cuenta que no puede almacenar, ni manejar la información de manera convencional. La empresa ha decidido implementar Big Data para competir en una maratón. La empresa ha desarrollado una aversión a los datos pequeños. La empresa quiere reducir la cantidad de información que maneja. La empresa ha decidido usar Big Data para mejorar la decoración de su oficina.

Selecciones las 4 (cuatro) respuestas correctas. La compañía de marketing MKT y Cía., debe comenzar a nutrir la laguna de datos. ¿Cuáles pueden ser las fuentes de datos desde donde tomar los datos?. Transacciones, porque tienen información de operaciones monetarias, telefónicas, etcétera. Machine to Machine (M2M), porque implican datos capturados por dispositivos que son retransmitidos a otros a través de redes. Datos biométricos, porque tienen información de las personas que es perfecta. Web y medios sociales, porque abarca datos generados en la internet y en las redes sociales de las personas. Correspondencia por palomas mensajeras, porque las palomas son confiables.

En un proyecto de tipo Audiovisual, ¿Cuáles son los principales canales de comunicación que permiten obtener datos de usuarios? Seleccione la opción correcta. Página Web, Redes Sociales y Aplicaciones. Estaciones de radio AM. Señales de humo. Cartas escritas a mano. Televisión por cable.

¿Cuáles son las características que debe tener un KPI para ser de utilidad?. Cuantificable, inequívoco y realizable. Largo y complicado de medir. Basado en conjeturas y suposiciones. Totalmente subjetivo y variable. Impreciso y vago.

“Social big data es una tendencia que aparece gracias a la creciente participación de los usuarios”… esto es: Verdadero. Falso.

¿De qué manera las empresas pueden recrear sus modelos de negocios a partir de datos capturados…. Vincular la actividad de las personas en la red con sus perfiles de usuario. Observar las fases de la luna. Contar el número de hojas en un árbol. Escuchar canciones de cuna. Medir la temperatura del océano.

Seleccione las 4 respuestas correctas. Teniendo en cuenta los 5 tipos de datos definidos para Big Data, estos pueden ser: Web y Medios sociales. Máquina-a-Maquina. Transacciones. Datos Biométricos. Datos geoespaciales.

En un proyecto de tipo Audiovisual ¿Cuáles son los principales canales de comunicación que permiten obtener datos de usuarios?. Página web o site de la empresa, producto o contenido específico. Redes sociales. Aplicaciones. Plataformas de streaming. Análisis de registros y registros de eventos.

En el contexto de Analítica de Marketing ¿Cuál es el significado de Real Time Bidding (RTB)?. Ubicar publicidad en la web en el tiempo real. Participación en subastas en tiempo real para la compra de publicidad en línea. Compra automatizada de anuncios en línea mediante subastas en tiempo real. Proceso de pujas en tiempo real para mostrar anuncios publicitarios en línea. Compra instantánea de espacios publicitarios en línea a través de subastas en tiempo real.

La empresa Analytics está trabajando en la fase de carga de datos en el proceso ETL. ¿Qué valoraciones primordiales deberían tener, estando en la fase de carga de datos? Seleccione la opción correcta. La empresa Analytics debería tener como valoraciones primordiales el destino y nivel de detalle de los datos. Asegurarse de la integridad y calidad de los datos durante la carga. Evaluar los tiempos de carga para garantizar un rendimiento óptimo. Verificar la compatibilidad y transformación de los datos con el esquema del Data Warehouse. Aplicar medidas de seguridad para proteger la confidencialidad de los datos durante la carga.

Teniendo en cuenta las fases de un proyecto audiovisual, en que fase/s el publico puede participar con acciones comunicativas que generan datos?. Distribución comercial. Promoción y Marketing. Visualización y Consumo. Participación en eventos y estrenos. Interacción en plataformas digitales.

Un reconocido estudio de abogados necesita almacenar sus documentos para comenzar a hacer un análisis de sus casos, los tiempos de resolución, la distribución de sus socios, etcétera. Todo el material disponible se encuentra en un archivo formato Word. Te piden que analices los datos, ¿Qué formato dirías que tienen?. El Word nos brinda datos no estructurados ya que son datos sin un orden claro. El formato Word contiene información en un formato no estructurado, lo que implica que los datos carecen de organización definida. Los datos en formato Word se presentan desordenados, lo que dificulta su análisis debido a la falta de estructura. La información almacenada en Word se caracteriza por ser no estructurada, lo que complica la extracción de patrones y tendencias. El formato Word almacena datos sin una disposición organizada, lo que puede requerir esfuerzos adicionales para su interpretación.

¿Por qué los smartphones son una fuente de datos valiosa para las empresas que nos ofrecen aplicaciones gratuitas?. Porque para interactuar con aplicaciones previamente tenemos que identificarnos con un usuario, y ello permite crear perfiles personales y recopilar hábitos de consumo. Los smartphones proveen información valiosa a empresas con aplicaciones gratuitas debido a que los usuarios deben registrarse, lo que facilita la creación de perfiles individuales y la recolección de datos de comportamiento. Las empresas que ofrecen aplicaciones gratuitas pueden aprovechar los smartphones para obtener datos significativos al requerir registros, lo que posibilita la construcción de perfiles y el seguimiento de patrones de uso. Los smartphones se convierten en una fuente de datos valiosa para empresas de aplicaciones gratuitas al solicitar registros, lo que les permite desarrollar perfiles personalizados y analizar comportamientos de usuario. La valiosa información que los smartphones proporcionan a empresas con aplicaciones gratuitas se debe a la obtención de datos a través de registros, permitiéndoles generar perfiles de usuarios y comprender sus hábitos.

Estas a cargo del armado de los ETL para la ingesta de datos en la laguna de datos. ¿de dónde obtienen las organizaciones información de interés para la toma de decisiones?. De sus sistemas corporativos, de sistemas de información de terceros, de redes sociales, de los dispositivos móviles de sus clientes y de dispositivos pertenecientes al internet de las cosas. Las organizaciones obtienen información relevante para la toma de decisiones desde diversas fuentes, como sus sistemas corporativos internos, sistemas de terceros, plataformas de redes sociales, dispositivos móviles de clientes y dispositivos conectados a la Internet de las cosas (IoT). La información utilizada en la toma de decisiones por parte de las organizaciones proviene de múltiples fuentes, incluyendo sus propios sistemas internos, sistemas de terceros, redes sociales, dispositivos móviles de usuarios y dispositivos del Internet de las cosas. Para la toma de decisiones, las organizaciones se abastecen de datos desde sus sistemas corporativos, sistemas de terceros, plataformas de redes sociales, dispositivos móviles de clientes y dispositivos integrados en el internet de las cosas. La información que guía las decisiones organizativas se origina en sus sistemas corporativos, sistemas de terceros, redes sociales, dispositivos móviles de clientes y dispositivos conectados a la Internet de las cosas.

Una organización está interesada en incorporar Big Data para mejorar en varios aspectos su desempeño en el mercado. Entonces, te consultan respecto a las ventajas de este tipo de soluciones para la toma de decisiones. ¿Qué podrías decir respecto a los datos y las nuevas tecnologías de Big Data, con respecto a los sistemas de toma de decisiones tradicionales?. “El análisis de datos no estructurados es una ventaja de las nuevas tecnologías de Big Data, porque siempre han sido difíciles de gestionar para los sistemas tradicionales”. Las soluciones de Big Data ofrecen una ventaja en la toma de decisiones al permitir el análisis de datos no estructurados de manera eficiente, lo cual es un desafío para los sistemas tradicionales. Uno de los beneficios clave de las tecnologías de Big Data para la toma de decisiones es su capacidad para manejar y analizar datos no estructurados, una tarea que resulta complicada para los sistemas convencionales. Las tecnologías de Big Data destacan en la mejora de la toma de decisiones al abordar la gestión de datos no estructurados, una tarea que solía ser un obstáculo para los sistemas tradicionales. En comparación con los sistemas de toma de decisiones tradicionales, las soluciones de Big Data sobresalen en la capacidad de manejar y analizar datos no estructurados de manera más efectiva.

Selecciones las 2(dos) respuestas correctas. El área de atención al cliente, recibe reclamos por mail y a través del call center. Si quisiéramos analizar los dos tipos de datos que estas variables representan, diríamos que son: Datos estructurados, porque tienen un formato fijo y preestablecido. No estructurados, porque no tienen un formato determinado y pueden ingresar de cualquier forma. Los dos tipos de datos representan una combinación de estructurados y no estructurados, ya que incluyen formatos fijos y variados. Datos estructurados, porque se recopilan y almacenan de manera ordenada en sistemas específicos. No estructurados, ya que pueden presentar diferentes formatos y carecen de una organización uniforme en su ingreso.

“He observado diferencias de tipo sintácticas en los datos, a la hora de migrarlos desde las fuentes de data lake (laguna de datos)”. Esto dijo el encargado de migrar los datos ¿A qué está haciendo referencia?. Está haciendo referencia a que hay información escrita de diferente manera, pero que puede ser igualmente valida. Se refiere a las diferencias en la estructura gramatical de los datos al ser transferidos desde el data lake, lo que podría requerir ajustes en su manejo. Indica que ha notado discrepancias sintácticas en los datos al llevarlos desde el data lake, lo que podría implicar la necesidad de transformaciones para su adecuada utilización. Está señalando que ha detectado discrepancias en la forma en que los datos están redactados al ser movidos desde el data lake, lo que podría impactar su interpretación. Se refiere a que ha observado variaciones en la construcción gramatical de los datos durante su migración desde el data lake, lo que podría influir en su calidad y utilidad.

¿Cómo se llama el enfoque de almacenamiento de datos que crea, primero el Almacén de datos central completo, y después los data marts para grupos específicos de usuarios?. Enfoque de arriba hacia abajo (top-down). Modelo de construcción descendente. Estrategia jerárquica de almacenamiento. Método de construcción secuencial. Enfoque de diseño centralizado.

En los procesos ETL, se llevan los datos desde las distintas fuentes de datos a un Staging ¿Cuál es el objetivo de las técnicas de almacenamiento de datos?. Integrar la información procedente de distintas fuentes de datos para la toma de decisiones. Organizar y estructurar los datos de manera coherente para su posterior análisis y aprovechamiento. Facilitar la consolidación de datos provenientes de diversas fuentes para su uso en la toma de decisiones. Centralizar la información de distintas fuentes en un solo lugar para mejorar la eficiencia en el acceso y análisis. Permitir la transformación y combinación de datos de diversas fuentes en una etapa intermedia.

¿Cuál es el objetivo del proceso de descubrimiento de conocimiento en bases de datos o KDD?. Extraer conocimiento de datos en el contexto de bases de datos grandes mediante minería de datos. Identificar patrones, tendencias y relaciones ocultas en conjuntos de datos extensos. Descubrir información valiosa y significativa a partir de grandes volúmenes de datos almacenados. Realizar análisis exhaustivos para desenterrar información relevante y no evidente en bases de datos extensas. Utilizar técnicas de minería de datos para extraer conocimiento sustancial de bases de datos amplias.

¿Qué es KDD (del ingles Knowledge Discovery in databases)?. Se refiere al amplio proceso de búsqueda de conocimientos en los datos que utiliza métodos de minería de datos. KDD es un proceso global que implica la identificación, extracción y interpretación de patrones y tendencias valiosas en conjuntos de datos. KDD es la disciplina que abarca la identificación sistemática de conocimiento relevante y oculto en bases de datos a través de análisis y minería de datos. KDD se refiere a un procedimiento completo para descubrir patrones, relaciones y tendencias en grandes volúmenes de datos mediante enfoques analíticos. KDD es un conjunto de técnicas que permiten desentrañar información valiosa y no evidente en bases de datos por medio de procesos de minería de datos y análisis avanzados.

¿Cómo se llama el Almacén de datos para satisfacer las necesidades de un departamento o sección dentro de una empresa?. Data mart. Almacén de datos sectorial. Almacén de datos departamental. Data mart especializado. Solución de datos segmentada.

¿Cómo se llama el enfoque de almacenamiento de datos que crea, primero el Almacén de datos central completo y después los data marts para grupos específicos de usuarios?. Enfoque de arriba hacia abajo. Enfoque jerárquico de almacenamiento de datos. Estrategia de construcción secuencial. Modelo ascendente de almacenamiento de datos. Metodología de diseño de arriba hacia abajo.

Un Data mart dispone de información acerca de toda la empresa, requiere un modelado del negocio complejo y puede llevar años en su construcción e implementación. Falso. Verdadero.

En el modelo Multidimensional ¿Cómo se estructura su diseño?. En Hechos: que son las actividades de interés para la empresa. Dimensiones: que son el contexto sobre el que se desea analizar estas actividades. En el modelo Multidimensional, se estructura con Hechos que son eventos clave de la empresa y Dimensiones que son atributos relacionados a esos eventos. El diseño del modelo Multidimensional involucra la organización de Hechos, que son las medidas relevantes, y Dimensiones, que son las categorías contextuales de interés. Los Hechos representan las transacciones o eventos de la empresa, mientras que las Dimensiones describen las características de esas transacciones para facilitar el análisis.

¿Qué significa que un Almacén de datos es variable en el tiempo?. Los datos se cargan con una referencia temporal. Indica que el Almacén de datos registra y almacena información histórica, lo que permite analizar cambios y tendencias a lo largo del tiempo. Significa que el Almacén de datos captura datos en diferentes momentos, permitiendo un análisis temporal de los cambios y evoluciones. Implica que el Almacén de datos almacena datos que tienen un componente de tiempo, permitiendo realizar análisis y comparativas históricas. Refiere a la característica del Almacén de datos de incluir datos con sellos de tiempo, lo que facilita realizar análisis en función de diferentes períodos.

¿Qué es un almacén de datos?. Es una colección de datos orientados por tema, integrados, variables en el tiempo y no volátiles que se emplea como apoyo a la toma de decisiones estratégicas. Un almacén de datos es un repositorio centralizado de información estructurada y organizada, utilizado para facilitar el análisis y la toma de decisiones en una organización. Un almacén de datos es una base de datos diseñada para almacenar datos históricos y actuales de manera optimizada, a fin de respaldar procesos de análisis y toma de decisiones. Se refiere a un sistema de almacenamiento que almacena datos clave de una empresa de manera coherente y accesible para respaldar procesos de toma de decisiones estratégicas. Un almacén de datos es una infraestructura que centraliza y organiza datos relevantes de la organización, facilitando la generación de informes y análisis para la toma de decisiones.

¿Qué significa que un Almacén de datos es no volátil?. Los nuevos datos se añaden siempre, de manera periódica, y no se sustituyen los existentes. Indica que los datos almacenados en el Almacén de datos no se modifican ni se eliminan, permanecen inalterados a lo largo del tiempo. Significa que los datos una vez cargados en el Almacén de datos no se alteran, actualizan ni eliminan, manteniendo su integridad original. Refiere a la característica del Almacén de datos de preservar los datos originales sin cambios, a diferencia de las bases de datos transaccionales que son volátiles. Se refiere a que los datos almacenados en el Almacén de datos son estáticos y no se modifican después de su carga inicial, asegurando su coherencia y consistencia.

¿Quién es el responsable de definir el medio de almacenamiento de los datos?. Arquitecto de datos. El administrador de bases de datos. El ingeniero de almacenamiento. El especialista en infraestructura. El responsable de tecnología de la información (TI).

¿Cuál de las siguientes, es una desventaja de la Almacén de datos Tradicionales?. Tiene un alto costo de infraestructura y almacenan sólo datos estructurados provenientes de sistemas transaccionales. Requieren un tiempo prolongado para el procesamiento y análisis de datos debido a su estructura rígida. La escalabilidad limitada puede dificultar el manejo de volúmenes crecientes de datos. Carecen de flexibilidad para incorporar datos no estructurados o semiestructurados. Suelen presentar dificultades en la integración de datos de múltiples fuentes heterogéneas.

¿Qué significa que un Almacén de datos es variable en el tiempo?. Tiene un alto costo de infraestructura y almacenan sólo datos estructurados provenientes de sistemas transaccionales. Requieren un tiempo prolongado para el procesamiento y análisis de datos debido a su estructura rígida. La escalabilidad limitada puede dificultar el manejo de volúmenes crecientes de datos. Carecen de flexibilidad para incorporar datos no estructurados o semiestructurados. Suelen presentar dificultades en la integración de datos de múltiples fuentes heterogéneas.

¿A dónde se aloja normalmente un Almacén de datos?. En un servidor de mainframe o en la nube. En un servidor dedicado en las instalaciones de la empresa. En un clúster de servidores de alto rendimiento. En plataformas de almacenamiento en la nube pública o privada. En sistemas de almacenamiento distribuido y escalable.

Identifique 2 características principales de los sistemas transaccionales. Generan datos de operaciones y actividades rutinarias. Brindan soporte a las operaciones y transacciones diarias. Mantienen la integridad de los datos a través de transacciones atómicas (cumplimiento de todo o nada) para asegurar la consistencia. Están diseñados para realizar procesos de entrada y actualización de datos en tiempo real, en línea con las operaciones diarias de la organización.

Mario debe llevar mediante algún proceso, los datos desde los transaccionales a la Data Warehouse. ¿Con cuál de los siguientes puede hacerlo?. Mario debe trabajar con el proceso ETL, porque es el encargado de llevar los datos desde diferentes fuentes a un almacenamiento. Para llevar a cabo esta tarea, Mario debe utilizar el enfoque ETL, que garantiza la migración de datos desde los sistemas transaccionales a la Data Warehouse. Mario puede utilizar el procedimiento ETL para transferir los datos, ya que este proceso asegura la correcta extracción, transformación y carga de la información a la Data Warehouse. El método adecuado para Mario es ETL, que se encarga de extraer datos de diferentes fuentes, transformarlos según sea necesario y cargarlos en la Data Warehouse para análisis. El proceso recomendado para Mario es ETL (extracción, transformación y carga), el cual permite transferir y adecuar datos desde sistemas transaccionales a la Data Warehouse.

¿Cuáles son las tres capas de las que consta una arquitectura de almacén de datos?. Repositorio de documentos, capa de inteligencia empresarial y el Enterprise Data Warehouse (EDW). Capa de extracción, transformación y carga (ETL), capa de almacén de datos y capa de presentación y análisis. Capa de adquisición de datos, capa de almacén central y capa de visualización y análisis. Capa de captura de datos, capa de procesamiento y capa de reportes y análisis. Capa de extracción de datos, capa de transformación y limpieza, y capa de presentación y visualización.

¿En qué etapa del ETL se puede procesar una longitud inconsistente de campos?. Transformación. Fase de Extracción. Etapa de Extracción y Carga. Proceso de Limpieza de Datos. Etapa de Carga.

Eres el analista de BI y te encargan desarrollar un nuevo modelo de datos. En el modelado multidimensional, ¿Cómo se estructuraría tu diseño?. En el modelado multidimensional el diseño se estructuraría en dimensiones y en hechos, porque son las fundamentales para el modelo. El diseño en el modelado multidimensional involucraría la identificación y organización de dimensiones que proporcionan contexto, junto con hechos que representan eventos o transacciones de relevancia. En el enfoque de modelado multidimensional, estructuraría el diseño en torno a dimensiones que describen características y hechos que cuantifican las actividades clave de la empresa. Mi enfoque en el modelado multidimensional se centraría en definir dimensiones que permiten analizar diferentes aspectos y hechos que almacenan medidas relevantes para el análisis. El diseño en el modelado multidimensional implicaría la creación de dimensiones que brindan contextos y hechos que almacenan valores cuantitativos, ambos elementos esenciales para el análisis de datos.

¿Cuáles son los componentes de Hadoop? Seleccione las dos respuestas correctas: MapReduce. HDFS. YARN. Hive. Pig.

¿Qué componentes forman parte del ecosistema de Hadoop? Seleccione las 4 correctas: Hive. Hbase. Zookeeper. Sqoop. Oozie.

¿Qué tipo de almacenamiento es que utilizan los sistemas corporativos?. Transaccionales. Estructurado. Relacional. Indexado. Normalizado.

¿Cómo se puede escalar de una arquitectura de Data Warehouse a una de Data Lake para Big Data?. Incorporando nuevas tecnologías de almacenes de datos como Hadoop, Elasticsearch, para poder lograr variedad y velocidad y disponibilizar la información en el tiempo real. Integrando soluciones de procesamiento en tiempo real como Kafka y Spark para gestionar flujos de datos continuos. Utilizando herramientas de almacenamiento distribuido como Amazon S3 o Google Cloud Storage para manejar volúmenes masivos de datos. Adoptando tecnologías de código abierto como Apache Cassandra o Apache HBase para habilitar la escalabilidad horizontal. Implementando sistemas de indexación y búsqueda como Apache Solr para mejorar la velocidad y eficiencia en la recuperación de datos.

¿Cómo se estructura la arquitectura clásica de un almacén de datos?. Fuentes de datos externas, repositorio de almacén de datos, Metadatos, Herramientas de consulta, Servidores OLAP. Capa de presentación, capa de procesamiento y capa de almacenamiento. Capa de adquisición de datos, capa de almacenamiento y capa de visualización. Capa de datos, capa de aplicaciones y capa de usuario final. Capa de fuentes de datos, capa de procesamiento, capa de almacenamiento y capa de presentación.

¿Cuáles son fuentes de datos utilizadas normalmente para extraer los datos que albergará el almacén de datos?. Bases de datos externas, internet, Datos de formato tradicional. Aplicaciones móviles, sensores IoT, redes sociales. Archivos planos, documentos PDF, servicios web. Sistemas ERP, CRM, sistemas de gestión de inventario. Sistemas de registro, sistemas de puntos de venta (POS), plataformas de comercio electrónico.

Estas a cargo del monitoreo del proceso ETL. ¿Qué anomalías típicas podemos encontrar? Seleccione las 4(cuatro) respuestas correctas. Al corregir el ETL puedo encontrarme valores nulos. Al corregir el ETL puedo encontrarme con una longitud inconsistente de campos. Al corregir el ETL puedo encontrarme distintas codificaciones para un mismo termino. Al corregir el ETL puedo encontrarme con una descripción inconsistente de campos. Inconsistencias en la validación de claves primarias y foráneas.

¿Cuáles son las técnicas de carga de datos más comunes en un proceso ETL?. Cargas secuenciales. Procesos por lotes (Batch). Procesamiento paralelo. Técnicas incrementales. Carga basada en microservicios.

¿Cuál es uno de los sujetos de la fase de transformación del ETL?. Detectar y corregir inconsistencias. Realizar cálculos y derivaciones. Filtrar y eliminar registros duplicados. Agregar resúmenes y totales. Cambiar formatos de datos.

¿Cuál es la función del proceso ETL?. Son los responsables de extraer los datos de las fuentes de datos transaccionales, realizar las transformaciones necesarias y cargarlos en el almacén de datos una vez que han sido tratados. Coordinar las operaciones de la base de datos. Gestionar los accesos a los sistemas de red. Proporcionar seguridad en los datos. Mantener la integridad de los registros.

¿Cuáles son las anomalías típicas que se encarga de corregir el ETL? Seleccione las 4 (cuatro) respuestas correctas. Longitud inconsistente de datos. Descripción inconsistente de datos. Distintas codificaciones para el mismo termino. Valores nulos. Datos fuera de rango.

Tienes que desarrollar el proceso ETL de la compañía. Seleccione las 3 (tres) opciones correctas. Extracción de datos, porque el proceso ETL permite mover datos de una fuente a otra. Carga de datos, porque el proceso ETL permite mover datos de una fuente para cargarlos en otra. Transformación de datos, porque el proceso ETL permite reformatear y limpiar datos antes de cargarlos a otra base de datos. Ejecución de consultas SQL para generar informes y análisis. Generación de reportes para el equipo de dirección.

¿Cuáles son las herramientas de consulta con las que finalmente se accederá al almacén de datos? Seleccione la opción correcta: Aplicaciones para consultas ad hoc e informes; Aplicaciones de consulta de directivos; Herramientas OLAP; Herramientas de Minería de Datos. Sistemas operativos y aplicaciones de oficina. Lenguajes de programación y frameworks web. Herramientas de seguridad y antivirus. Sistemas de gestión de proyectos y colaboración.

¿Cuáles son las técnicas de carga de datos más comunes en un proceso ETL?. Cargas secuenciales, procesos por lotes y procesamiento paralelo. Carga en tiempo real y carga incremental. Carga por lotes y carga masiva. Carga a través de APIs y carga basada en eventos. Carga en paralelo y carga distribuida.

Martín está por realizar una minería de datos, ¿de qué manera realizará la extracción de información o conocimiento?. Martín lo hará de manera automática. Porque es la única forma posible. Martin utilizará algoritmos de aprendizaje automático para extraer información de los datos. Utilizará herramientas de visualización de datos para explorar patrones y tendencias. Utilizará modelos de minería de datos para descubrir patrones ocultos y relaciones en los datos. Aplicará técnicas de estadísticas descriptivas para resumir los datos y obtener conocimiento.

Tu jefe te consulta en que consiste el proceso de minería de datos ¿Qué le contestarias?. Es el proceso que tiene como objetivo explorar y analizar grandes volúmenes de datos de manera automática o semiautomática para encontrar patrones ocultos y repetitivos que expliquen el comportamiento de los datos y generar modelos predictivos basados en datos. Es el proceso de identificar información valiosa y conocimiento relevante en grandes conjuntos de datos para apoyar la toma de decisiones. Consiste en aplicar algoritmos y técnicas estadísticas para descubrir patrones, tendencias y relaciones en datos complejos. Se trata de un enfoque sistemático para explorar datos, detectar estructuras y relaciones, y generar modelos predictivos y descriptivos. Implica la búsqueda de información útil y relevante en datos, a menudo a través de análisis de patrones, con el fin de tomar decisiones informadas.

En Minería de Datos, ¿De qué manera se realiza la extracción de información o conocimiento?. De manera automática. A través de algoritmos de aprendizaje automático. Utilizando herramientas de procesamiento de lenguaje natural. Mediante la exploración de patrones ocultos en los datos. Aplicando modelos predictivos y algoritmos de clustering.

Te postulaste para una vacante de científico de datos en unacompañía financiera, ¿Qué es lo que están buscando para esa vacante?. Se trata de una persona formada en las ciencias matemáticas y las estadísticas que domina la programación y sus diferentes leguajes, ciencias de la computación y analítica. Buscan a alguien con habilidades en el procesamiento y análisis de datos financieros. Están interesados en un profesional capaz de construir modelos predictivos para tomar decisiones basadas en datos financieros. Necesitan a alguien que pueda desarrollar algoritmos para detectar fraudes y riesgos en transacciones financieras. Desean encontrar a un experto en la interpretación de datos económicos para orientar las estrategias de inversión.

¿Para qué puede ser usada la información o conocimiento que se obtiene al emplear técnicas de minería de datos? Seleccione las 4 (cuatro) respuestas correctas. Aumentar los ingresos. Reducir los riesgos. Mejorar las relaciones con los clientes. Reducir los costos. Mejorar la calidad y precisión de la toma de decisiones.

¿Cuál es el primer paso del proceso de descubrimiento de conocimiento?. La integración y recopilación de los datos a analizar. La selección de las variables y atributos relevantes. La preparación y limpieza de los datos. La aplicación de algoritmos de minería de datos. La interpretación de los resultados obtenidos.

¿Cuáles son las etapas del proceso de descubrimiento de conocimiento o KDD? Seleccione las 4 (cuatro) respuestas correctas. Selección de datos. Procesamiento de datos. Transformación de datos. Minería de datos. Evaluación de resultados.

¿Cuál es el objetivo del proceso de descubrimiento de conocimiento en base de datos o KDD?. Extraer conocimiento de datos en el contexto de base de datos grandes mediante minería de datos. Identificar patrones y tendencias en grandes conjuntos de datos. Generar informes y resúmenes para la toma de decisiones. Construir modelos predictivos y descriptivos. Optimizar el rendimiento de las bases de datos.

Cuando hablamos del proceso KDD nos referimos al proceso de identificar parones válidos, novedosos, potencialmente útiles entendibles. Identifica las cuatro etapas principales por los que pasan los datos. Seleccione 4(cuatro) opciones correctas: Datos seleccionados. Datos. Datos procesados. Datos transformados. Datos en bruto.

¿Que perfil profesional tiene un alto conocimiento de estadística?. El científico de datos. El analista de datos. El estadístico. El matemático. El ingeniero en análisis de datos.

A la minería de datos también se la conoce por otros nombres como: extracción de conocimientos, análisis de patrones y datos, machine learning, entre otros. Verdadero. Falso.

Si trabajas como científico de datos y tenes que seleccionar las técnicas mas relevantes de la minería de datos ¿Cuáles seleccionarías?. Aunque dependa de que datos estemos buscando, seleccionaría las técnicas: arboles de decisión, reglas de asociación, canasta de productos, regresión múltiple, y regresión logística entre muchas otras. Clustering (agrupamiento). Redes neuronales artificiales. Support Vector Machines (Máquinas de Vectores de Soporte). Algoritmos de clasificación, como k-Nearest Neighbors (k-NN).

Una empresa te contrata para hacer minería de datos ¿Culaes son los dos grupos de técnicas que utilizaría para analizar los datos bajo la minería de datos? Seleccione la opción correcta: Técnicas estadísticas y de inteligencia artificial, porque se busca descubrir grandes patrones o irregularidades en una cantidad determinada de datos. Técnicas de visualización y análisis exploratorio de datos. Técnicas de procesamiento de lenguaje natural y reconocimiento de patrones. Técnicas de análisis de series temporales y pronóstico. Técnicas de minería de texto y análisis de sentimiento.

¿Cuáles son aplicaciones de la Minería de Datos?. Marketing. Análisis de la cesta de la compra. Segmentación de mercados. Análisis de riesgos. Gestión de fraudes. Ciencias de la salud. Identificación de patrones de enfermedades. Industria manufacturera. Optimización de procesos de producción. Investigación científica. Análisis de datos genómicos y proteómicos. Recursos humanos. Selección de candidatos y análisis de satisfacción laboral.

Denunciar Test