option
Mi Daypo

B90.01 - Fundamentos de Big Data

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
B90.01 - Fundamentos de Big Data

Descripción:
Big Data

Autor:
Andrewtwo
(Otros tests del mismo autor)

Fecha de Creación:
20/06/2017

Categoría:
Informática

Número preguntas: 43
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
alvaroonate ( hace 4 años )
hola
Responder
Temario:
¿Que es Big Data ? Es un campo orientado al análisis, procesamiento y almacenamiento de grandes colecciones de datos que, con frecuencia, provienen de distintas fuentes Especializada en el almacenamiento de los datos de un área de negocio específica. Se caracteriza por disponer la estructura óptima de datos para analizar la información al detalle desde todas las perspectivas que afecten a los procesos de dicho departamento Se caracteriza por integrar y depurar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de pespectivas y con grandes velocidades de respuesta.
Los resultados del procesamiento de la solución de Big Data pueden generar una gran variedad de conocimientos y beneficios. Seleccione 3: identificación de nuevos mercados datos generados por máquinas predicciones precisas detección de errores y fraudes datos automatizados.
Los datos generados por máquinas incluyen: base de datos, archivos planos, datos de telemetría, datos de medidores inteligentes y datos de uso de dispositivos logs web, datos de sensores, datos de telemetría, datos de medidores inteligentes y datos de uso de dispositivos base de datos, archivos planos, xml y json.
Los datos generados por humanos incluyen: social media, microblogging, correos electrónicos, fotos compartidas y mensajería social media, microblogging, correos electrónicos, fotos compartidas y mensajería (datos estructurados, video y datos de texto) social media, microblogging, correos electrónicos.
¿Que es un Datasets? Son conjuntos o grupos de datos relacionados que comparte los mismos atributos. Pueden estar basados en datos XML, datos relacionales y/o archivos de imágenes es el proceso de examinación de los datos con el fin de hallar hechos, relaciones, patrones, explicaciones y/o tendencias es la disciplina encargada comprender los datos, analizándolos mediante una variedad de técnicas científicas y herramientas automatizadas, enfocada en el descubrimiento de patrones y correlaciones ocultos.
¿ Que es Análisis de datos? es un tipo de procesamiento que facilita y administra aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones es una forma de análisis avanzado que utiliza datos nuevos e históricos para predecir la actividad futura, el comportamiento y las tendencias es el proceso de examinación de los datos con el fin de hallar hechos, relaciones, patrones, explicaciones y/o tendencias para respaldar la toma de decisiones y establecer patrones y relaciones entre los datos analizados.
¿que es Analítica? es el proceso de comprender el funcionamiento de una empresa para mejorar la toma de decisiones al analizar los datos externos y los datos generados por sus procesos empresariales es la disciplina encargada comprender los datos, analizándolos mediante una variedad de técnicas científicas y herramientas automatizadas, enfocada en el descubrimiento de patrones y correlaciones ocultos. Por lo general, el proceso implica filtrar grandes cantidades de datos sin procesar ni estructurar. Las decisiones están basadas en datos concretos y no solamente en la experiencia o la intuición es el proceso de examinación de los datos con el fin de hallar hechos, relaciones, patrones, explicaciones y/o tendencias para respaldar la toma de decisiones y establecer patrones y relaciones entre los datos analizados.
¿Que es Inteligencia de negocios (BI)? es una versión especial de almacén de datos (data warehouse). Son subconjuntos de datos con el propósito de ayudar a que un área específica dentro del negocio pueda tomar mejores decisiones se caracteriza por integrar y depurar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de pespectivas y con grandes velocidades de respuesta. es el proceso de comprender el funcionamiento de una empresa para mejorar la toma de decisiones al analizar los datos externos y los datos generados por sus procesos empresariales.
Los KPI están estrechamente relacionados con los objetivos estratégicos de una empresa y generalmente son utilizados para: seleccione 2 identificar áreas problemáticas, con el fin de adoptar medidas correctivas indicador de clave de desempeño lograr el cumplimiento normativo indicador cuantificable.
Un Petabyte (PB) con unidad de tamaño de los datos en byte corresponde a: 1,000,000,000,000,000,000 1,000,000,000,000 1,000,000,000,000,000 1,000,000,000,000,000,000,000.
La ______________ se enfoca en filtrar grandes cantidades de datos sin estructurar, con el fin de extraer información significativa que pueda pueda ser útil para enriquecer los datos empresariales actuales.
los principales factores empresariales y tecnológicos que permitieron que Big Data se convirtiera en una especialidad en sí: Seleccione 3 Analítica y ciencia de datos Datawarehouse Digitalización Social media.
Esta sección examinará los principales factores empresariales y tecnológicos que permitieron que Big Data se convirtiera en una especialidad en sí: Analítica y ciencia de datos Digitalización Tecnología asequible y hardware básico Social media Comunidades y dispositivos hiperconectados Cloud Computing.
La mayor parte de estas tecnologías se encuentran bien establecidas en la industria de las TI y son anteriores al surgimiento de Big Data. Dichas tecnologías son analizadas en esta sección ya que cada una de ellas es relevante de forma única para las soluciones y ecosistemas actuales de Big Data. Procesamiento de Transacciones en Línea (OLTP) Procesamiento Analítico en Línea (OLAP) Extraer - Transformar - Cargar (ETL) Bodegas de datos digitales (Data Warehouse) Data marts Hadoop.
puede existir como una RDBMS, como en el caso de una base de datos de OLAP Una base de datos analítica Bodegas de datos digitales (Data Warehouse) Procesamiento Analítico en Línea (OLAP).
Los cinco rasgos de Big Data son comúnmente conocidos como las Cinco "V": Capacidad,Velocidad,Variedad,Veracidad,Valor Volumen,Velocidad,Variedad,Veracidad,Valor Capacidad,Telemetria,Variedad,Veracidad,Valor.
Esta sección examina las cinco características de Big Data que pueden ser utilizadas para diferenciar los datos categorizados como “Big Data” de otros tipos de datos Volumen Velocidad Variedad Veracidad Valor.
Esta sección examina los tipos de datos que son procesados por las soluciones de Big Data, los cuales pueden ser clasificados en las siguientes categorías: estructurados,sin estructurar,semiestructurados relacionales,sin relacionar, semiorganizados logicos, archivos, xml.
Defina los tipos de datos que son procesados por las soluciones de Big Data: Datos estructurados Datos sin estructurar Datos semiestructurados Metadata.
Puede contener bases de datos analíticas que pueden mejorar los tiempos de respuesta de las consultas. Data marts Bodegas de datos digitales (Data Warehouse). DataSets.
Las secciones a continuación describen con mayor profundidad los siguientes tipos básicos de análisis de datos: Análisis descriptivo, Análisis predictivo, Minería de datos Análisis cuantitativo, Análisis cualitativo, Minería de datos.
Defina los tipos básicos de análisis de datos (Data Analysis): Análisis cuantitativo Análisis cualitativo Minería de datos (Data Mining).
Esta sección explora más a fondo la analítica, describiendo a continuación cuatro tipos comunes de analítica: Analítica semidescriptiva, Analítica de verificación, Analítica predictiva,Analítica prescriptiva Analítica descriptiva, Analítica diagnóstica, Analítica predictiva,Analítica prescriptiva.
Esta sección explora más a fondo la analítica, describiendo a continuación cuatro tipos comunes de analítica: Analítica descriptiva Analítica diagnóstica Analítica predictiva Analítica prescriptiva.
Los resultados de la analítica _________________________ se pueden observar por medio de herramientas interactivas de visualización que permiten identificar fácilmente tendencias y patrones.
La analítica _________________________ tiene más valor para las empresas porque esta técnica recomienda un plan de acción que puede ser seguido.
Que es Aprendizaje automático (Machine Learning)? es un campo de la estadística y las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sea estructurados o no estructurados es el proceso de enseñar a las computadoras a aprender a partir de datos existentes y a aplicar el conocimiento adquirido para formular predicciones sobre datos desconocidos.
Los algoritmos de aprendizaje automático (Machine Learning) se dividen en los siguientes dos tipos: Aprendizaje supervisado Aprendizaje no supervisado.
La Inteligencia de negocios (BI) tradicional usa: Seleccione 2 analítica prescriptiva analítica descriptiva analítica diagnóstica.
La Inteligencia de negocios (BI) tradicional no puede funcionar eficientemente sin los ______, puesto que estos contienen los datos optimizados y segregados que la Inteligencia de negocios (BI) necesita para realizar reportes.
La Inteligencia de negocios (BI) tradicional usa bodegas de datos digitales (Data Warehouses) y data marts para realizar reportes y analizar datos (Data Analysis), porque esto permite realizar: una disminución en el almacenamiento de datos consultas complejas de análisis de datos consultar fuentes de datos externas .
Inteligencia de negocios (BI) de Big Data comprende tanto la _____ y _____ para facilitar la comprensión, a nivel empresarial, de la forma en que funciona un negocio. analítica descriptiva y analítica prescriptiva analítica predictiva y analítica prescriptiva.
Si bien los análisis de la Inteligencia de negocios (BI) tradicional generalmente se enfocan en procesos individuales de la empresa, los análisis de la Inteligencia de negocios (BI) de Big Data se enfocan simultáneamente en: patrones y anomalías múltiples procesos de negocio.
Las herramientas tradicionales de visualización de datos consultan los datos de las bases de datos relacionales, sistemas de OLAP, bodegas de datos digitales (Data Warehouses) y hojas de cálculo para presentar los resultados de la: analítica descriptiva y de la analítica diagnóstica. analítica descriptiva y de la analítica predictiva.
Las características comunes de las herramientas de visualización usadas en Big Data son: Agregación Drill-Down Filtrado (filtering) Roll-Up Análisis “qué-tal-si”.
Las herramientas avanzadas de visualización de datos de Big Data comprenden la analítica de datos descriptiva y diagnostica predictiva y prescriptiva.
Estas herramientas eliminan la necesidad de usar métodos de preprocesamiento de datos (como ETL) y se conectan directamente a las fuentes de datos estructurados, semiestructurados y sin estructurar Herramientas avanzadas de visualización Herramientas de fuentes de datos Herramientas de generación de reportes.
Para que el análisis de datos (Data Analysis) y analítica tengan éxito y ofrezcan valor, las empresas necesitan tener: frameworks Hadoop y gestión de Big Data frameworks de gestión de datos y gestión de Big Data un almacén de datos y frameworks de gestión de datos.
las soluciones de Big Data son necesarias para todas las empresas? Si No.
Muchas soluciones y herramientas modernas de Big Data de código abierto están orientadas en lotes, lo que significa que pueden tener soporte limitado para la transmisión de: datos en tiempo real análisis de datos altos volúmenes de datos.
Las soluciones de Big Data acceden y generan datos que son convertidos en activos de la empresa. Se requiere un framework de _____ para garantizar que los datos y el entorno de solución mismo están regulados, estandarizados y se desarrollan de manera controlada.
Es necesaria una metodología para controlar cómo fluyen los datos hacia dentro y hacia afuera de las soluciones de Big Data y controlar cómo se pueden establecer los loop de retroalimentación, para facilitar que los datos procesados sean sometidos a mejoras constantes. por ejemplo, el preprocesamiento para la limpieza (cleansing) de los datos Metodología de gestión Metodología diferencial Metodología analítica.
Algunas de las justificaciones comunes para incorporar un entorno basado en nube para respaldar una solución de Big Data son: Seleccione 3 se requiere un personal técnico especializado existen recursos inadecuados de hardware interno la iniciativa de Big Data es un prototipo el proyecto debe estar aislado del resto de la empresa para no afectar los procesosempresariales existentes Los servidores corporativos trabajan con Gnu/Linux .
Denunciar test Condiciones de uso
INICIO
CREAR TEST
COMENTARIOS
ESTADÍSTICAS
RÉCORDS
Otros tests del Autor