option
Cuestiones
ayuda
daypo
buscar.php

CMO 1 TRIMESTRE 4#

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
CMO 1 TRIMESTRE 4#

Descripción:
CMO PRIMER TRIMESTRE 4

Fecha de Creación: 2026/03/26

Categoría: Otros

Número Preguntas: 40

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Los sistemas de mensajería tienen que servir para que fluyan los datos de una aplicación a otra a modo productor – consumidor. Para ello la solución más fiable para implementar estos sistemas de mensajería pasaría por: Conectar una aplicación a otra, aunque haya asimetría. Definir mecanismos simples de buffering. Utilizar un agente de mensajes, añadiendo nuevos productos o consumidores a una pipeline.

La moda es un parámetro calculable tanto en variables cualitativas como cuantitativas, siendo el valor: Con mayor frecuencia absoluta. Con la misma frecuencia. Con menor frecuencia absoluta Retroalimentación La respuesta correcta es: Con mayor frecuencia absoluta.

Dentro de los algoritmos de ML –Machine Learning– reforzados se dan los siguientes elementos: Deploy, Enviroment y Actions. Agent, Enviroment y Causes. Agent, Enviroment, y Actions.

La media es el valor promedio de la distribución, es decir: La selección del dato mayor, entre todos los valores recogidos. La suma de todos los datos dividida entre el número total de datos. Muy válida sobre todo en aquellos casos donde los valores son muy extremos.

Data Mining sería: El conjunto de técnicas para el descubrimiento (de manera automatizada y eficiente) de algo que se desconoce y que potencialmente será útil. Una estructura para la implementación de un Data Warehousing, que facilita todas sus operaciones. El proceso de la transformación de datos en información y conocimiento.

El Clasificador Bayesiano ingenuo se basa en: El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica. El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario un gran volumen de datos para su entrenamiento. El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario ningún dato para su entrenamiento.

Dentro de la asociación y colaboración que existe entre Big Data y BI, definiremos este último como: Aquellas herramientas de alto coste desarrolladas por Oracle, Microsoft y SAP. Sinónimo de tecnología CRM y ERP. El conjunto de herramientas, estrategias, aplicaciones, tecnologías, y arquitecturas enfocadas a recolectar información sobre la empresa.

R Language, dentro de las herramientas para el manejo de Big Data, es: Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones. Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU. Uno de los más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos.

Para el preprocesamiento o transformación de datos, utilizando incluso filtros, podemos utilizar diferentes herramientas como: WHOM. WEKA. WIKI.

Dentro de los algoritmos para la ML –Machine Learning–, tenemos el supervisado, que sería: El método de prueba y error. La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación. Aquel que se usa cuando no se conoce como serán los resultados.

Actualmente, la ciencia de los datos es una herramienta fundamental para algunas de las áreas más importantes de las empresas, tales como: Marketing, Comercial y Defensa. Pruebas de Aplicaciones, Marketing, Logística e Implantación de aplicaciones. Marketing, Publicidad y RRHH.

Dentro de los algoritmos para la ML –Machine Learning–, tenemos el denominado sin supervisión, que sería: Aquel que se usa cuando no se conoce como serán los resultados, es decir, cuando existen variables en el conjunto de datos de las cuales no sabemos qué efecto tienen. El método de prueba y error. La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación.

El Big Data también se le denomina la tecnología de las 5 V compuesta por: Volumen, Velocidad, Variedad, Volatilidad y Valor. Volumen, Velocidad, Variedad, Volatilidad y Viabilidad. Volumen, Velocidad, Variedad, Veracidad y Valor.

Algunas de las principales características del Data Mining son: Un proceso automatizado, archivos Datawarehouse, que normalmente aglutinan poca información, que puede suponer una toma de decisiones basada en la experiencia de los directivos. Los patrones que van del presente al futuro, ignorando lo que ocurrió en el pasado. Un proceso automatizado, archivos Datawarehouse, que normalmente aglutinan una gran cantidad de datos para la toma de decisiones.

Quien realmente acuñó el término Business Intelligence como el conjunto de elementos para mejorar la toma de decisiones empresarial mediante sistemas de información digitales fue: Howard Dresden, empleado de Gartner Group. Michael Porter. Bill Gates de Microsoft.

Algunas de las ventajas del uso del BI podrían ser: Retener clientes que consideran irse a la competencia, conocimiento mejor del cliente y su comportamiento, y obtener mayores beneficios de las ventas actuales. La fuga de clientes innecesarios, definición de los BSC o Balance Scorecard, y consecución de un modelo empresarial avanzado. La creación de un departamento de sistemas y tecnologías de la información, elaboración de la estrategia del negocio, implementa solución integrada, y transformación de datos.

Dave Rogers, directivo de BCG –Boston Consulting Group–, enumera los cinco dominios para liderar la transformación digital. Estos son: ERP, experiencia sensorial, datos, innovación y clientes. Datos, innovación, competencia, valor y clientes. Proyectos de transformación digital, CRM, tecnologías emergentes, operaciones en materia de ciberseguridad y clientes.

Para saber en qué nivel de inteligencia de negocio se encuentra una empresa, existe el modelo BIMM (Business Intelligence Maturity Model) desarrollado por la consultora Gartner, que identifica una serie de niveles para ver la madurez de la estrategia de BI de la entidad, siendo algunos de ellos: BI no existe, oportunidad de BI, estándares de proceso de BI, modelo empresarial avanzado, y transformación a BI. Existencia de la figura de un sponsor, hay definidos un BSC o Balance Scorecard, y modelo empresarial avanzado. Departamento de sistemas y tecnologías de la información, estrategia del negocio, solución integrada, y transformación a BI.

Los tipos principales de Clustering serían: Control Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster) y Gestion Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo). Hard Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster) y Soft Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo). Hard Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo) y Soft Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster).

Dentro de la arquitectura de Datawarehouse tenemos dos esquemas de representación de relaciones de datos y su estructuración. Estos son: Esquema en Estrella (consiste en estructurar la información en procesos, vistas y métricas recordando a una estrella) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas). Esquema en Estrella (que es un tipo de almacén de datos el cual proporciona únicamente los últimos valores o los más recientes excluyendo el histórico) Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas). Esquema en Estrella (que es un proceso para extraer y filtrar datos de las operaciones y transacciones de la organización y sus sistemas, para transformarlos, integrarlos y almacenarlos) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas).

Dentro de la arquitectura de Datawarehouse tenemos diferentes modalidades como: Enterprise Data Warehouse 2 0, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario. Enterprise Bus Arquitecture, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario. Corporate Information Factory, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario.

Dentro de las tendencias actuales en BI, lo que indica el fabricante de software de BI Tableau es: Las herramientas de inteligencia artificial son cada vez más importantes en su aplicación al BI, pero las organizaciones ya no están dispuestas a aceptar modelos de caja negra, sino que exigen que los resultados de la inteligencia artificial sean capaces de explicar y justificar la motivación de sus conclusiones. El tránsito de los datos a la nube se detiene. Las herramientas de inteligencia artificial son cada vez menos importantes en su aplicación al BI, pero las organizaciones ya no están dispuestas a aceptar modelos de caja negra, sino que exigen que los resultados de la inteligencia artificial sean capaces de explicar y justificar la motivación de sus conclusiones.

Data Mining o minería de datos es: Un proceso simple y que debe abordarse de forma individual por los expertos del negocio y los expertos en las diferentes técnicas aplicables, generalmente de tipo estadístico. Una herramienta típica que forma parte de la arquitectura de los sistemas de BI y de DSS, consistente en la búsqueda y obtención de conocimiento del comportamiento de negocio a partir de la información disponible en la organización y de las relaciones entre los datos. Una herramienta cuyo software no cubre todo el proceso, excluyendo la selección de los datos (muestreo) y la exploración de los mismos.

El proceso analítico OLAP consiste en: La observación multidimensional de los hechos (compras, ventas, costes, gastos, ingresos,) que sean relevantes para una determinada área de negocio, departamento o ámbito de actividad, que no podrán ser almacenadas y gestionadas por gestores de bases de datos relacionales o multidimensionales. La observación multidimensional de los hechos (compras, ventas, costes, gastos, ingresos,) que sean relevantes para una determinada área de negocio, departamento o ámbito de actividad. Segmentación de BB DD, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos.

Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020, identifica las siguientes debilidades: Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo. Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información. Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global.

Algunas de las operaciones que se pueden realizar gracias a los procesos de Data Mining o minería de datos son: Construcción de modelos predictivos, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos. Segmentación de BB DD, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos. Detección de Desviaciones, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos.

El empresario y político Joan Majó identifica alguna de las características de este modelo de sociedad que serían: El coste de los elementos materiales, el crecimiento de la riqueza global, la incorporación de nuevos conocimientos y la introducción masiva de la tecnología en los procesos de producción. Cambio de modelo social, el coste de los materiales, y desigualdades sociales. Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, avances en el ámbito tecnoeconómico y el coste de los elementos materiales.

La fase de planificación también se denomina por el analista: La V Modeller. Modelo en V. Las 7 Vs.

Apache Kafka es una plataforma de mensajería distribuida, desarrollada por: LinkedIn y lanzado como proyecto abierto desde la Fundación Apache. Google y lanzado como proyecto abierto desde la compañía Oracle. Facebook y lanzado como proyecto abierto desde la compañía IBM.

Dentro de la fase de planificación, Know sería: El consumidor al que se destinará el producto del análisis resultante. Lo que ya es conocido. El modo de presentar el análisis.

Apache Pig es una plataforma de flujo de datos para realizar análisis de macrodatos en la que, para comenzar a utilizarla: Es tan fácil como hacer una instalación sencilla, con un flujo de trabajo basado en Pig Commands, MapReduce Code y Run on Hadoop Cluster. Es imprescindible tener conocimientos avanzados en programación en lenguajes como Java o Python. Previamente es imprescindible tener un emulador unix, para poder ejecutar los diferentes comandos.

Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, la Organización para la Cooperación y el Desarrollo Económicos los define como: Aquel material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación. No serían datos de investigación ni los análisis preliminares, borradores de la elaboración de artículos, planes de investigaciones futuras, revisiones por pares ni comunicaciones entre colegas. Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento.

Apache Hive es: Una infraestructura de almacén de datos basada en Apache Hadoop, basado en SQL conocido como HQL. Una herramienta visual al estilo Sql Developer para la formalización de consultas y exportación a Excel. Una herramienta que suelen utilizar los grupos de calidad del dato en las empresas para la gestión de pedidos, desarrollado por Google.

Cassandra es una base de datos NoSQL con las siguientes características: Distribuida, Escalable y con tolerancia a fallos. Cada fila tendrá las exactamente las mismas columnas. Tecnología RDBMS.

El código de Hadoop está construido en: JAVA, aunque compatible con otros lenguajes de programación. APEX. CSS, HTML y JS.

HDFS es: Un lenguaje de programación orientado a objetos. Protocolo de comunicación. Tecnología de almacenamiento de datos.

Las estructuras de datos inmutables tienen como beneficio: La corrupción de datos en aplicaciones multiproceso. Modificación de datos en su ubicación, como C, C++, Java y Python. La reducción de errores, y facilitar la escritura de aplicaciones de subprocesos múltiples.

Algunas de las premisas del Big Data serían: Fotografías. Audios. Archivos y documentos.

Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, Borgman en 2008 los definió como: Material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación. Material registrado comúnmente aceptado por la comunidad científica como necesario para validar resultados de investigación. Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento.

Los niveles y clasificación de la inteligencia son: Operacional, táctica, y estratégica. Emocional, operacional y táctica. Política, operacional y táctica.

Denunciar Test