option
Cuestiones
ayuda
daypo
buscar.php
TEST BORRADO, QUIZÁS LE INTERESE: BIG DATA - SIMULACRO EXAMEN
COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
BIG DATA - SIMULACRO EXAMEN

Descripción:
BIG DATA ( SIMULACRO 1 Y 2 )

Autor:
AVATAR
JESUS GOMEZ
OTROS TESTS DEL AUTOR

Fecha de Creación:
19/03/2024

Categoría: Informática

Número Preguntas: 489
COMPARTE EL TEST
COMENTARNuevo Comentario
No hay ningún comentario sobre este test.
Temario:
Para definir la estrategia de BI, tenemos que tener en cuenta una serie de elementos para la implementación tales como: Trabajar de modo separado el departamento de sistemas y tecnologías de la información con la estrategia del negocio y los demás departamentos, para que no haya una solución integrada, orientados al logro particular y a tener una solución general No será necesaria la figura de ningún sponsor, ni tampoco la definición de un BSC o Balance Scorecard, ya que en esta estrategia no hace falta contar con los objetivos estratégicos Identificar los procesos de negocio que requieren o necesitan aplicar técnicas de análisis de forma continua y Definir y elegir a los líderes de proceso o encargados que incidan de forma determinante en la organización.
Dentro de los algoritmos de ML –Machine Learning– reforzados se dan los siguientes elementos: Agent, Enviroment, y Actions Deploy, Enviroment y Actions Agent, Enviroment y Causes.
Dentro de la arquitectura de Datawarehouse existen las dimensiones. Desde una perspectiva de la gestión histórica de los datos existen 6: SCD2 tipo 0 – SCD2 tipo 6 / Híbrida SCD2 tipo 0 – SCD2 tipo 6 / Estrella SCD2 tipo 0 – SCD2 tipo 6 / Fija.
Las bases de datos NoSQL tienen un diseño diferente de las BB DD típicas de los sistemas: JDBC – ODBC ADO RDBMS – Sistemas gestores de base de datos relacionales.
Se puede aplicar el análisis de los datos y la estadística, a distintas áreas de una empresa como pueda ser la de Marketing, por ejemplo para conocer los hábitos de compra del cliente final. Para ello, se basa en dos tipos de estadísticas: Relaciones (relación entre segmentos parecidos), y segmentación (conclusiones en base a un segmento de nicho) Buyer (tipología de un consumidor) y Customer Journey (recorrido del consumidor) Descriptiva (estudio de todos los elementos y no un subconjunto), e inferencial (sacar conclusiones para toda la población en base a un segmento).
La GDPR distingue dos tipos de entidades en la gestión de datos personales. Estas serían: Estratos de la población y entorno competitivo Fomento de la formación de la población joven, y servicios de telecomunicaciones dentro del comercio global Controlador de datos (empresa que recopila datos de los ciudadanos de países miembros de la UE) y el procesador de datos (entidad que hace un tratamiento de datos que han sido recopilados anteriormente por el controlador).
Algunas de las principales características del Data Mining son: Los patrones que van del presente al futuro, ignorando lo que ocurrió en el pasado Un proceso automatizado, archivos Datawarehouse, que normalmente aglutinan una gran cantidad de datos para la toma de decisiones Un proceso automatizado, archivos Datawarehouse, que normalmente aglutinan poca información, que puede suponer una toma de decisiones basada en la experiencia de los directivos.
Dentro de la segmentación de los datos, podemos aplicar técnicas de clustering, muchas veces simplemente mediante la observación. El clustering sería: Cuando los datos no los agrupamos en clases Una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados Una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados.
Dentro de la implementación de la clasificación en WEKA mediante árboles de decisión tenemos la matriz de confusión que consiste en: Determinar dónde se equivocó nuestro modelo, es decir, cuáles clasificó correctamente y cuáles no Determinar dónde se equivocó nuestro modelo, es decir, identificando solo cuáles clasificó correctamente, para entender los resultados Determinar dónde se equivocó nuestro modelo, es decir, identificando solo cuáles clasificó incorrectamente, para entender los resultados.
Los sistemas de mensajería tienen que servir para que fluyan los datos de una aplicación a otra a modo productor – consumidor. Para ello la solución más fiable para implementar estos sistemas de mensajería pasaría por: Utilizar un agente de mensajes, añadiendo nuevos productos o consumidores a una pipeline Conectar una aplicación a otra, aunque haya asimetría Definir mecanismos simples de buffering.
Cassandra es una base de datos NoSQL con las siguientes características: Tecnología RDBMS Cada fila tendrá las exactamente las mismas columnas Distribuida, Escalable y con tolerancia a fallos.
Algunos de los tipos de operadores que se utilizan en lenguaje R se puede clasificar en: Aritmético cuyos operadores serán por ejemplo >, <, Relacional cuyos operadores serán por ejemplo >, <, Asignación cuyos operadores serán por ejemplo >, <,.
La Shell de Scala se encuentra en el directorio: Var/tmp Bin/scala Etc/drivers.
Algunos de los ejemplos típicos básicos de Scala podrían ser String que tendrá un valor de: Verdadero o falso Secuencia de caracteres 32-bit de punto flotante de precisión simple IEEE754.
Dentro de la era de la digitalización, se prevé que el futuro del Big Data: Sea un concepto y tecnología que está a punto de desaparecer Estará ligado a otros conceptos como la Inteligencia Artificial y el Machine Learning Es una tecnología que parece que ha tocado techo y es difícil que tenga más recorrido en las empresas.
La media es el valor promedio de la distribución, es decir: La suma de todos los datos dividida entre el número total de datos La selección del dato mayor, entre todos los valores recogidos Muy válida sobre todo en aquellos casos donde los valores son muy extremos.
Las funciones en la programación funcional son: Complejas que dificulta la implementación de algoritmos Aumento de bug de errores en las pruebas de código Simples, con pocas líneas de código, permitiendo una mayor robustez, y alta calidad en el software codificado.
La minería de datos dentro de la etapa de procesamiento serían: Son los gestores documentales para la gestión de elevadas cantidades de información textual Son aplicaciones para identificar y extraer información en grandes volúmenes de datos Son aplicaciones informáticas destinadas a la indexación automática.
UNICEF se considera un ejemplo de fuente de datos abiertas porque: No hay problema en hacer donaciones públicas Aparece en los medios de comunicación de una forma regular Ofrece estadísticas sobre la situación de las mujeres y los niños en el mundo.
El primer autor que pone encima de la mesa el concepto de “maquina inteligente” fue: Arthur Samuel en 1952 Alan Turing con su Diseño de Turing en 1950 Frank Rosenblatt en 1956.
Algunos de los tipos de algoritmo de Clustering que se utilizan de forma generalizada serían: Modelos de Conectividad, Centroides, Distribuidos, y de Soft Modelos de Conectividad, Centroides, Distribuidos, y de Densidad Modelos de Conectividad, Centroides, Distribuidos, y de Control.
La herramienta Scala se utiliza principalmente para: Lenguaje de programación para el tratamiento de datos El lanzamiento de paquetes para comprobar los elementos de red La programación orientada a objetos.
Quien realmente acuñó el término Business Intelligence como el conjunto de elementos para mejorar la toma de decisiones empresarial mediante sistemas de información digitales fue: Bill Gates de Microsoft Howard Dresden, empleado de Gartner Group Michael Porter.
Algunas de las características y atributos que debe tener el Datawarehouse son: Estable, coherente, fiable e información histórica Volátil, fija en el tiempo, integrado y orientado a temas generales Volátil, fija en el tiempo, integrado y coherente.
El modelado predictivo como una técnica más del Data Mining consiste en: La aplicación del clustering, que es un tipo de aprendizaje no supervisado y que produce una segmentación en grupos dadas unas características o relaciones comunes Poner el foco en predecir la salida de un evento y está basado en un comportamiento similar al aprendizaje humano mediante la observación de las características más importantes de una tarea El establecimiento de relaciones entre registros individuales o grupos de estos.
Dentro de la arquitectura de Datawarehouse tenemos diferentes modalidades como: Corporate Information Factory, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario Enterprise Bus Arquitecture, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario Enterprise Data Warehouse 2 0, o data warehouse virtual/federado, también conocido como MD (multidimensional arquitecture), que consiste en una arquitectura basada en datamarts independientes federados, que pueden hacer uso de una staging area en el caso de ser necesario.
RPA (Robotic Process Automation) o, lo que es lo mismo, automatización robótica de procesos, es: Un conjunto de herramientas que sirven para cualquier proyecto salvo los de transformación digital Un conjunto de herramientas que solo se utilizan para mejorar los repositorios de datos en la organización, ya que puede facilitar la extracción e integración de datos con origen en distintas fuentes, por lo que la calidad del análisis realizado sobre ellos será mejor Un conjunto de herramientas tecnológicas que facilita el que determinados procesos realizados por operadores humanos, normalmente repetitivos y de escaso valor añadido, puedan ser sustituidos mediante un software correctamente parametrizado.
Definimos sociedad de la información como: Un cambio de modelo social, cambios en el coste de los materiales, y desigualdades sociales Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, que afectarán a los ámbitos tecnoeconómico y el coste de los elementos materiales La utilización de la información como un recurso económico, aumento del uso de información por parte del gran público y el desarrollo de un nuevo sector de la información (tecnologías y contenidos).
Dentro de la arquitectura de Hadoop basada en HDFS como MapReduce comparten: Escalan únicamente usando hardware más grande a modo scale-up Diseños para funcionar en clusters de servidores de baja a media capacidad y escalan su capacidad agregando más servidores (scale-out) Diseñado para funcionar únicamente a modo monoservidor.
Algunos repositorios Open Data de fácil acceso podrían ser: Portal de Datos Abiertos de la UE, APORTA y Google Dataset Search Todos aquellos que emitan empresas que supongan un coste Semrush.
Actualmente, la ciencia de los datos es una herramienta fundamental para algunas de las áreas más importantes de las empresas, tales como: Marketing, Publicidad y RRHH Marketing, Comercial y Defensa Pruebas de Aplicaciones, Marketing, Logística e Implantación de aplicaciones.
Actualmente muchas organizaciones están capturando, y generando volúmenes de información para fines regulatorios con una periodicidad de: 3 o más años Les es indiferente y no lo necesitan para su operativa diaria De 1 o 2 años.
Los diferentes algoritmos en los que se puede dividir la ML –Machine Learning– serían: Las 3S: Soporte, Sistemático y Supervisados Supervisados, sin supervisión y reforzados Desarrollados, testeados e implantados.
El New York Times también se considera un repositorio Open Data ya que: Puedes acceder a algunas noticias y críticas de interés, gracias al pago con descuentos Toda la información está disponible en internet Cuenta con un archivo indexado y recuperable de artículos de noticias desde 1851.
El Reglamento General de Protección de Datos (RGPD), más conocido por su denominación inglesa General Data Protection Regulation (GDPR), es: La norma de más alto rango en la Unión Europea en materia de protección de datos personales de las personas físicas y que también regula el libre movimiento de dichos datos dentro de las fronteras de la Unión La competencia, la riqueza cultural, la pertenencia a la UE, fomentando un buen nivel de formación de la población joven, la inversión en infraestructura, servicios de telecomunicaciones, e integración en el comercio global La norma que profundiza en los desequilibrios de exclusión social y de todo tipo, en amplios estratos de la población, la colonización cultural, la deslocalización del empleo, en un nuevo entorno competitivo.
Alguna de las herramientas más utilizadas para el cálculo de valores estadísticos en una empresa y en los mercados en los que esta se desarrolla, actualmente son: Minitab, OGG y SAP IBM SPSS, SPLUS y Microsoft Excel OGG, Siebel y Microsoft Excel.
El empresario y político Joan Majó ve en la sociedad de la información un nuevo modelo social, ya que: Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones van más allá del ámbito puramente tecnoeconómico Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones solo aplicarán al ámbito tecnoeconómico En ningún caso implicará un cambio de modelo social.
Los sistemas de apoyo a la decisión –DSS– son: Sistemas informáticos que facilitan la toma de decisiones en una empresa, de tal manera que no podemos considerar el DSS como una propia aplicación Sistemas informáticos que facilitan la toma de decisiones en una empresa, de tal manera que no podemos considerar el DSS como un proceso Sistemas informáticos que facilitan la toma de decisiones en una empresa.
Algunas de las premisas del Big Data serían: Fotografías Archivos y documentos Audios.
Una organización de tipo medio puede generar: Menos de 50 millones de eventos Más de 65 millones de eventos al día Más de 200 millones de eventos.
Dentro de la regulación en materia de protección de datos en España tenemos la Ley Orgánica 15/1999, que dispone el: Profundizar en los desequilibrios de exclusión social y de todo tipo, en amplios estratos de la población, la colonización cultural, la deslocalización del empleo, y la pérdida de valor añadido propiamente nacional en un nuevo entorno competitivo Garantizar y proteger, en lo que concierne al tratamiento de los datos personales, las libertades públicas y los derechos fundamentales de las personas físicas, y especialmente de su honor e intimidad personal y familiar Facilitar la competencia, la riqueza cultural, la pertenencia a la UE, fomentar un buen nivel de formación de la población joven, la inversión en infraestructura, servicios de telecomunicaciones, e integración en el comercio global.
Para comenzar a trabajar con Scala: Un motor de ejecución de servlets y pseudocódigo Habría que descargarse un servidor web / aplicaciones para la presentación Usar el intérprete de Scala, que proporciona una Shell para escribir el código Scala.
Algunas de las operaciones que se pueden realizar gracias a los procesos de Data Mining o minería de datos son: Segmentación de BB DD, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos Detección de Desviaciones, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos Construcción de modelos predictivos, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos.
Cada año la prestigiosa consultora Gartner anuncia cuáles son las diez tecnologías estratégicas. En 2020 destacó: Proyectos de transformación digital, los CRM, tecnologías emergentes y las operaciones en materia de Ciberseguridad han dejado de ser claves en una empresa BlockChain, Edge Computing y Ciberseguridad ERP, y experiencia sensorial y modal.
Hay dos tipos de huella digital: Primaria o secundaria Activas o cuando el usuario directamente divulga la información, y pasivas o aquellas que son recopiladas sin que el usuario sea consciente Personal o impersonal.
El árbol de probabilidad o árbol de decisión en análisis predictivo es una herramienta de análisis que: No determina decisiones y eventos en escenarios fijos No permite nunca analizar las causas y sus efectos Estima que escenario es el más probable y cuál es el menos probable.
Según el profesor argentino Piscitelli en sus charlas TED, muchos Sistemas de Información y modelos de Gestión han fracasado en muchas organizaciones, por no tener en cuenta: Las necesidades informativas de las organizaciones y su cultura digital, son fijas e inmutables en el tiempo, es decir, las necesidades de una empresa son iguales ahora que el siglo pasado Todos los aspectos relacionados con sus no-clientes, en lugar saber lo que ya conocen sobre sus clientes Que lo único importante son los cuadros de mando integrales y palancas financieras  .
Dentro de la arquitectura de Datawarehouse tenemos dos esquemas de representación de relaciones de datos y su estructuración. Estos son: Esquema en Estrella (consiste en estructurar la información en procesos, vistas y métricas recordando a una estrella) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas) Esquema en Estrella (que es un tipo de almacén de datos el cual proporciona únicamente los últimos valores o los más recientes excluyendo el histórico) Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas) Esquema en Estrella (que es un proceso para extraer y filtrar datos de las operaciones y transacciones de la organización y sus sistemas, para transformarlos, integrarlos y almacenarlos) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas).
Resumiendo el concepto de MapReduce tiene que ver: Nuevo marco de programación, creado y desplegado con éxito por Google, que utiliza el método de dividir en muchos servidores básicos para descomponer problemas complejos de big data en unidades pequeñas de trabajo   Compuesto por una infraestructura de software junto con un modelo de desarrollo de aplicaciones simple, pero con técnicas potentes para desarrollar y comercializar aplicaciones de big data Potencial de proporcionar ideas que pueden transformar todos los sectores empresariales y negocios.
Las técnicas para el Data Mining se pueden clasificar en cuatro categorías, que son: Modelado predictivo, Segmentación de Bases de Datos, Análisis de Vínculos y Detección de desviación Recopilación, Implantación, Especificación y Explotación Técnicas de recogida, V Modeller, Segmentación de Bases de Datos, y Detección de desviación.
La programación funcional permite: No permite que una función pueda ser definida dentro de otra función Permite que una función se pase como entrada a otra función No permite que una función se devuelva como valor de retorno de otra función.
Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020, identifica las siguientes debilidades: Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información.
Dentro del Business Analytics, Clusterizar es: Lo mismo que clasificar, es decir, aprendizaje supervisado Un sistema para el control y la gestión Un proceso realizado mediante la aplicación de un algoritmo a un conjunto de elementos, de los cuales se conocen diversas características, de modo que son agrupados automáticamente en dos o más grupos, denominados clusters, que comparten aspectos similares entre ellos y distintos a los elementos que forman parte de otro u otros clúster.
El proceso analítico OLAP consiste en: La observación multidimensional de los hechos (compras, ventas, costes, gastos, ingresos,) que sean relevantes para una determinada área de negocio, departamento o ámbito de actividad, que no podrán ser almacenadas y gestionadas por gestores de bases de datos relacionales o multidimensionales Segmentación de BB DD, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos La observación multidimensional de los hechos (compras, ventas, costes, gastos, ingresos,) que sean relevantes para una determinada área de negocio, departamento o ámbito de actividad.
XML y JSON son solo: Fotografías Audios Archivos y documentos.
El Clasificador Bayesiano ingenuo se basa en: El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario un gran volumen de datos para su entrenamiento El teorema de Bayes, y se fundamenta en que los datos pertenecen a una clase específica, por lo que es necesario ningún dato para su entrenamiento.
Una de las características de la inteligencia básica es: Que cumple con la función de dar respuesta rápida a necesidades informativas puntuales en el presente Que es encargada de fijar, ante una circunstancia específica de una pregunta de un directivo o persona que está encargada de tomar las decisiones, la probable transformación de la situación y las opciones de intervención de los elementos involucrados en la misma para facilitar la predicción y las posteriores elecciones Que es encargada de satisfacer unas necesidades generales y estratégicas de la organización, conociendo todos los aspectos de cada uno de los objetivos fijados para proporcionar respuestas para las consultas de información concretas.
El análisis de tendencias es la dirección hacia la que se mueven unos valores en un espacio finito de tiempo, pudiendo ser alcista o bajista, lo que le permitirá a algunas empresas ver la evolución de los valores de mercado, para orientar su estrategia competitiva. Las medias más utilizadas para este análisis de tendencias pueden ser: Segmentación y gobernabilidad Centro de gravedad, y covarianza Centro de gravedad y gestión de los desvíos.
Penteo, consultora y analista de mercados tecnológicos, en un informe afirma que: El ERP ha dejado de ser un software importante en cuanto a compras por los departamentos de informática La migración a la nube se ha ralentizado, tal vez por la incertidumbre ante la explosión del Edge computing Los proyectos de transformación digital ya no se apoyan tanto en tecnologías tradicionales que se han renovado, como los CRM, junto con tecnologías emergentes y las operaciones en materia de Ciberseguridad han dejado de ser críticas.
Las fuentes de información por el tipo de material pueden ser: Digital o industrial Sociales, legales y económicas Primario, secundario o terciario.
Como parte del Big Data, existe la minería de datos que sería: Un sinónimo de la expresión vulgar “picar código” El proceso de la transformación de datos en información y conocimiento El proceso inverso de transformar el conocimiento, en los datos iniciales.
El árbol de decisión es: Una estructura donde las decisiones se toman utilizando condicionales y compuesto por los nodos de raíz y ramas únicamente Una estructura donde las decisiones se toman utilizando condicionales y compuesto por los nodos de raíz y hojas únicamente Una estructura donde las decisiones se toman utilizando condicionales.
Dentro de la clasificación de datos con WEKA y R, podemos distinguir dos tipos: Pasados y futuros Generales y específicos A posteriori y a priori.
Los sistemas electrónicos de gestión de datos dentro de la etapa de procesamiento serían: Aplicaciones informáticas destinadas a la indexación automática Gestores documentales para la gestión de elevadas cantidades de información textual Aplicaciones para identificar y extraer información en grandes volúmenes de datos.
Algunos repositorios Open Data de fácil acceso podrían ser: Semrush y Facebook Shop Portal de Datos Abiertos de la UE, APORTA, UNICEF y Google Dataset Search Todos aquellos que emitan empresas que supongan un coste.
Para entender la arquitectura del Datawarehouse dentro del BI, tenemos algunos de los siguientes términos: Data Warehousing, que es un tipo de almacén de datos el cual proporciona únicamente los últimos valores o los más recientes excluyendo el histórico Procesos ETL, que es una tecnología de integración de datos basado en tres pasos, extraer, transformar y cargar, la cual se usa tradicionalmente en la integración y diseño del Datawarehouse Datamart, que es un proceso para extraer y filtrar datos de las operaciones y transacciones de la organización y sus sistemas, para transformarlos, integrarlos y almacenarlos.
El Plan IDOC (Directrices para un Plan Nacional de Actuación 1983-1986 en materia de Documentación e Información Científica y Técnica) fue fundamental en la sociedad de la información, debido a algunas de las siguientes recomendaciones: Es secundario el desarrollo de una infraestructura de difusión de la información nacional en pos de otras fuentes de información No es importante el desarrollo de los recursos humanos necesarios para los servicios de información La formulación de políticas de información por parte de las administraciones públicas y sensibilizar a la sociedad del valor de la información.
R Language, dentro de las herramientas para el manejo de Big Data, es: Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU Uno de los más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos.
Data Mining o minería de datos es: Una herramienta típica que forma parte de la arquitectura de los sistemas de BI y de DSS, consistente en la búsqueda y obtención de conocimiento del comportamiento de negocio a partir de la información disponible en la organización y de las relaciones entre los datos Un proceso simple y que debe abordarse de forma individual por los expertos del negocio y los expertos en las diferentes técnicas aplicables, generalmente de tipo estadístico Una herramienta cuyo software no cubre todo el proceso, excluyendo la selección de los datos (muestreo) y la exploración de los mismos.
Dependiendo del público al que están orientados los datos, las fuentes pueden ser: Populares, académicas, y comerciales Digital o industrial Sociales, legales y económicas.
Dentro de los algoritmos para la ML –Machine Learning–, tenemos el denominado sin supervisión, que sería: El método de prueba y error La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación Aquel que se usa cuando no se conoce como serán los resultados, es decir, cuando existen variables en el conjunto de datos de las cuales no sabemos qué efecto tienen.
Dentro de la implantación de un proyecto de Big Data, tenemos la Consolidación de Datos, para disminuir el ruido en los datos en el escenario de Ruido en los Datos, como registros que se comportan de manera aleatoria sin seguir ningún patrón, para lo que habrá que realizar un plan de mitigación basado en: Cumplimentar manualmente los datos que faltan, usar alguna constante global, usar la media global para llenar ese atributo, usar un valor pronosticado con alta probabilidad e ignorar determinados valores Métodos de agrupamiento, Clustering, regresión e inspección humana Inconsistencia en los datos, integración y transformación de datos, normalización y estandarización.
Podemos definir Customer Analytics como: Una técnica donde es secundario conocer quienes consumen los productos de una empresa La técnica estadística para aplicar análisis e inteligencia a los clientes, identificando los principales tipos de clientes (segmentos) Una técnica contraría a la utilización de los CRM en una empresa.
Cuando se implementa un modelo de negocio de un ámbito de actividad, se denomina: Datamart como un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo sinónimo de base de datos corporativa contra la que las aplicaciones realizan procesos transaccionales Datamart como un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo insuficiente para proporcionar cualquier información de gestión que le sea solicitada, a cualquier nivel de detalle, de cualquier periodo histórico y de cualquier área de negocio de la compañía. Estos pueden ser dependientes e independientes Los independientes permiten una implementación más lenta y requieren mucho esfuerzo en la integración Datamart pudiendo ser dependientes (En este se mantiene toda la información de gestión de la compañía, detallada al máximo nivel requerido) e independientes (sin ningún tipo de integración entre sí, que se alimentan directamente desde los sistemas operacionales en su mayor parte).
Dentro de la combinación Big Data y GDPR, hay que tener en cuenta siempre la privacidad de las personas, por lo que es recomendable: En los códigos éticos no hay que tener en cuenta el uso de los datos personales Realizar auditorías, sin que sea importante que en los algoritmos se discriminen a determinados colectivos en base a un uso sesgado de sus datos, no siendo recomendable incorporar al equipo a un experto legal Actuar con transparencia y realizar auditorías internas y externas.
Dentro de los algoritmos para la ML –Machine Learning–, tenemos el supervisado, que sería: La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación Aquel que se usa cuando no se conoce como serán los resultados El método de prueba y error.
El código de Spark está construido en: CSS, HTML y JS SCALA, aunque compatible con otros lenguajes de programación APEX.
En 1992, Al Gore creó el NII o el proyecto National Information Infraestructure, para fomentar el desarrollo económico y por consiguiente el liderazgo mundial de EE. UU. como potencia, basado en los principios de: Fomentar las inversiones privadas en la NII, promover la competitividad, y generar la idea de servicio universal Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales, y generalizar la idea de servicio universal Fomentar el coste de los elementos materiales, planes de formación y la difusión de las TIC americanas.
La regresión lineal simple sería: Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables dependientes sobre Y Un modelo matemático donde tendremos una variable independiente Y, así como las variables dependientes X, siendo b la influencia de estas variables independientes sobre Y Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables independientes sobre Y.
Dentro de los algoritmos para la ML –Machine Learning–, tenemos el denominado reforzados, que sería: El método de prueba y error Aquel que se usa cuando no se conoce como serán los resultados, es decir, cuando existen variables en el conjunto de datos de las cuales no sabemos qué efecto tienen La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación.
En ocasiones confundimos el concepto de BI con Big Data, pero tenemos que tener en cuenta que las características de este último tienen relación con las 3V, que serían: Valor, Velocidad y Variedad Volumen, Velocidad y Variedad Volatilidad, Volumen y Variedad.
La política para la sociedad de la información de la UE está basada en: Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal Se debe garantizar el servicio universal, la financiación de la sociedad de la información corresponde al sector privado, y es necesario sensibilizar al gran público de manera que debe recibir la información adecuada.
La mediana es: La selección del dato mayor, entre todos los valores recogidos La suma de todos los datos dividida entre el número total de datos El valor que divide la distribución en dos partes iguales.
El Customer Analytics como técnica estadística se basa en el estudio de los siguientes parámetros de estudio: Vínculos, parámetros y valores, e indicadores Áreas de la empresa, parámetros y valores, probabilidad e inferencia Relaciones contractuales, sistemas y dependencias jerárquicas.
El proceso analítico OLAP posee herramientas de visualización que disponen de una interfaz gráfica de usuario para permitir una potente navegación y explotación del modelo de una forma muy intuitiva, con las funciones de: Drill-up/ Drill-down, o la posibilidad de rotación de los ejes del análisis (dimensiones), para visualizar la información desde otra perspectiva Pivot o la posibilidad de rotación de los ejes del análisis (dimensiones), para visualizar la información desde otra perspectiva Drill-Across, o la posibilidad de rotación de los ejes del análisis (dimensiones), para visualizar la información desde otra perspectiva.
La estadística descriptiva se basa en el estudio de variables de estudio, donde estas pueden ser: Cualitativas y cuantitativas Identificativas y especificativas Relacionales y cualitativas.
Los RRHH en la sociedad de la información en España, han tenido una serie de hitos, de los cuales destacamos los más importantes como: 1987 la Ley General de Telecomunicaciones, y en 1983-1985 Plan IDOC 2020 Plan Nacional 5G y en 2015-2020 la Estrategia Nacional de Ciberseguridad 2010 Plan Nacional 5G y en 2010-2015 la Estrategia Nacional de Ciberseguridad.
Los agentes libres dentro de la etapa de procesamiento serían: Son aplicaciones para identificar y extraer información en grandes volúmenes de datos Son los gestores documentales para la gestión de elevadas cantidades de información textual Son aplicaciones informáticas destinadas a la indexación automática.
En la fase de planificación lo más importante es: Definir los objetivos prioritarios que tiene la organización La competencia que tiene la empresa El tiempo disponible para implantar la estrategia.
En la estrategia Europa 2020, la UE fijó algunos de los siguientes objetivos: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales, generalizar la idea de servicio universal e inversión del 3 % del PIB de la UE en I+D e Innovación Empleo para el 75 % de las personas de 20 a 64 años, tasas de abandono escolar por debajo del 10 %, y en cuanto al clima y a la energía, reducir los gases de efecto invernadero incluso en un 30 % Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente, aumentar un 20 % la eficiencia energética y asegurar el servicio universal.
El inicio de la sociedad de la información data de los: Años 40 Años 60, debido a que decreció la información y un parón en el desarrollo social ocasionado por la aparición de las tecnologías de la información Años 60, debido al incremento de la información y a la necesidad del desarrollo social en base al uso de las tecnologías de la información.
La desviación media es: Diferencia de cada valor con respecto a la media de todos los valores, donde primero se calculará la mediana y después se calculará la media Diferencia de cada valor con respecto a la media de todos los valores Diferencia de cada valor con respecto a la mediana de todos los valores.
Los deciles son: Los nueve valores que resultan de la división de los datos en diez partes iguales, siendo cada una de ellas el 10 % del total de datos Los 2 valores que resultan de la división de los datos en dos partes iguales, siendo cada una de ellas el 50 % del total de datos Las partes que se consideren siempre y cuando estén en orden decreciente.
Una variedad dentro de la tipología de los datos serían los open data, algunas de cuyas características podrían ser: Debido a su complejidad, suelen ser de difícil acceso Accesibles, código accesible, y gratuitos Suelen tener algún coste, por lo que lo certifican empresas.
Los tipos principales de Clustering serían: Hard Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster) y Soft Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo) Hard Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo) y Soft Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster) Control Clustering (donde cada punto de datos puede pertenecer o no completamente a un clúster) y Gestion Clustering (no se asigna un punto de datos de forma taxativa a un grupo, sino que se busca asignar una probabilidad de que el dato pertenezca a uno u otro grupo).
El Big Data también se le denomina la tecnología de las 5 V compuesta por: Volumen, Velocidad, Variedad, Volatilidad y Valor Volumen, Velocidad, Variedad, Veracidad y Valor Volumen, Velocidad, Variedad, Volatilidad y Viabilidad.
Hadoop se divide en varias capas, donde por ejemplo la capa de aplicación o capa de acceso del usuario final sería aquella que: Proporciona un marco de programación para desarrollar software aplicando técnicas informáticas distribuidas para extraer y explotar grandes volúmenes de datos Se denomina JobTracker que proporciona un motor de ejecución de trabajos en tiempo de ejecución de código abierto Coordina todos los aspectos del entorno Hadoop, como programar y lanzar trabajos, equilibrando la carga entre diferentes recursos.
Los primeros componentes de la arquitectura de un DSS son: Los datos, donde gracias a al análisis de los datos podemos obtener el conocimiento que nos permita tomar las mejores decisiones, sin la necesidad de desarrollar una interfaz que permita a los usuarios del sistema acceder a esos datos y modelos Los datos, que podrán proceder de diferentes fuentes, salvo la web Los datos, donde gracias a al análisis de los datos podemos obtener el conocimiento que nos permita tomar las mejores decisiones.
La diferencia principal entre Machine Learning y Data Mining sería que: El ML conlleva un proceso de limpieza de los datos bajo la supervisión humana El DM es un proceso que incluye el entendimiento de los datos, su procesamiento y el modelado, mientras que el ML toma los datos procesados como valor de entrada y formula predicciones El ML es una subclasificación del análisis de datos, similar a la investigación experimental.
Las aplicaciones que forman parte de la minería de datos tienen que cumplir los siguientes objetivos: Ser solo invulnerables al paso del tiempo Únicamente ser seguras Ser seguras, invulnerables al paso del tiempo y además garantizar el acceso y la legibilidad de la información contenida en los soportes.
Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, el Office of Management and Budget de EE. UU. los define como: Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento Material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación Material registrado comúnmente aceptado por la comunidad científica como necesario para validar resultados de investigación.
Dentro de la fase de planificación, Know sería: El consumidor al que se destinará el producto del análisis resultante El modo de presentar el análisis Lo que ya es conocido.
Los cuartiles son tres valores (Q1, Q2 y Q3), que dividen a los datos en: Las partes que consideremos siempre y cuando estén en orden decreciente Dos partes iguales que representarán el 50 % y el 100 %, respectivamente Cuatro partes iguales que representarán el 25 %, el 50 % y el 75 %.
Lenguaje R es: Un lenguaje de programación que se usa para crear código estadístico Un lenguaje de programación que se usa para crear código estadístico, incompatible con plataformas Apple Un lenguaje de programación que se usa para crear código estadístico, con un licenciamiento de alto coste.
El Big Data como tecnología emergente engloba también algunas de las siguientes herramientas para su práctica: Microfocus Developer, Query Monitor, Spark y Storm Visual Studio, TOAD, Spark y Storm R Language, Hadoop, Spark, Hive y Weka.
El teorema CAP, especifica que no hay ningún sistema de computación distribuida que sea capaz de garantizar al mismo tiempo las siguientes condiciones: Consistencia, Elasticidad y escalabilidad Escalabilidad, Disponibilidad y ajuste Consistencia, Disponibilidad y tolerancia al particionado.
Algunos de los ejemplos típicos básicos de Scala podrían ser Double que tendrá un valor de: 32-bit de punto flotante de precisión simple IEEE754 64-bit de punto flotante de precisión simple IEEE754 Secuencia de caracteres.
Hadoop es una tecnología: Con un sistema de almacenamiento MapReduce Con un sistema de almacenamiento HDFS y enfoque de procesamiento MapReduce Con un enfoque HDFS.
Las tareas de esta etapa de análisis serían: Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen Recopilación e Identificación Evaluación, integración de datos obtenidos, e interpretación.
El Análisis de Vínculos, como una técnica más del Data Mining, se divide en tres enfoques: Descubrimiento de asociaciones, patrones secuenciales y secuencias de tiempo Descubrimiento de relaciones, cognitivo y secuencias de tiempo Descubrimiento cognitivo, de relaciones y experiencias.
Según el departamento de ciencias de la computación de la universidad danesa de Aalborg, los proyectos de análisis de tráfico web generan: Más de 200 millones de eventos Aproximadamente unos 100 millones de eventos diarios Alrededor de 50 millones de eventos.
Apache HBase también es una base de datos NoSQL con las siguientes características: Tecnología RDBMS Inspirada en BigTable, un tipo de gestor de BB DD creado por Google Compatible con el modelo de datos relacionales.
El dato sería: Un valor que puede ser cualitativo o cuantitativo que describe una acción o un aspecto sobre un tema La meta disciplina que se encarga del estudio de los datos a través de las matemáticas, los procesos y los sistemas Volumen de datos estructurados que poseen potencial para ser extraídos para obtener información y conocimiento.
Dentro de la implantación de un proyecto de Big Data, tenemos la Consolidación de Datos, para disminuir el ruido en los datos en el escenario de Falta de Valores como registros incompletos, para lo que habrá que realizar un plan de mitigación basado en: Inconsistencia en los datos, integración y transformación de datos, normalización y estandarización Cumplimentar manualmente los datos que faltan, usar alguna constante global, usar la media global para llenar ese atributo, usar un valor pronosticado con alta probabilidad e ignorar determinados valores Métodos de agrupamiento, análisis atípico, regresión e inspección humana.
Un petabyte equivale a: 1 000 000 de bytes 1 000 000 000 000 000 de bytes 1 000 000 000 000 de bytes.
A grandes rasgos, las fases en las que se puede dividir el proceso de la ciencia de datos podrían ser: Recepción, captura y presentación Captura, Análisis y Presentación Recepción, patrón y presentación.
El concepto de huella digital se refiere: Es el espacio que habría que reservar en un CPD para la instalación de una máquina física A todo contaminante asociado a la tecnología Blockchain Al conjunto de acciones o actividades únicas realizadas en Internet y que son rastreables.
NFS, SMB, POSIX y Object son: Lenguajes de programación orientado a objetos Tecnología de almacenamiento compartido Protocolos de comunicación.
Las tareas de la etapa de procesamiento consisten únicamente en: Recopilación, identificación, descripción y análisis documental de los datos Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen Recopilación e Identificación.
Decimos que una característica de la inteligencia es objetiva cuando: Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia   El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización No pretende transmitir a los encargados de la toma de decisiones lo que la información que les hubiese gustado recibir, tan solo pretende decir la verdad para que puedan actuar de la manera que consideren más adecuada.
Dentro de la tipología de los datos, estos se pueden clasificar en varios grupos: Según el tipo de dato, su estado y su procedencia Según el soporte donde estén contenidos Reales, verdaderos y falsos.
Hive, dentro de las herramientas para el manejo de Big Data, es: Una de las más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU.
A raíz del reglamento GDPR, se creó la figura del DPO o Data Privacy Officer (delegado de Protección de Datos), que tiene un perfil de: Tratamiento de los datos para poder proteger intereses vitales del titular de estos datos o de otra persona, no siendo un rol experto en seguridad de los datos Rol experto en seguridad de datos, gestión de las tecnologías de la información y Ciberseguridad, pero teniendo un papel simple y de poca responsabilidad Rol experto en seguridad de datos, gestión de las tecnologías de la información y Ciberseguridad.
El Power BI está formado por: Un conjunto de datos utilizados para mostrar las visualizaciones Paneles que se crean desde Power BI Desktop y son conjuntos de elementos de un informe que se visualiza Un conjunto de datos utilizados para mostrar las visualizaciones, pudiendo ser únicamente sencillos.
El empresario y político Joan Majó identifica alguna de las características de este modelo de sociedad que serían: Cambio de modelo social, el coste de los materiales, y desigualdades sociales Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, avances en el ámbito tecnoeconómico y el coste de los elementos materiales El coste de los elementos materiales, el crecimiento de la riqueza global, la incorporación de nuevos conocimientos y la introducción masiva de la tecnología en los procesos de producción.
La etapa de análisis consiste en: Inspección y conservación de los datos que han sido reunidos Estudio y conservación de los datos reunidos Extraer con precisión y rapidez la información.
Dave Rogers, directivo de BCG –Boston Consulting Group–, enumera los cinco dominios para liderar la transformación digital. Estos son: Datos, innovación, competencia, valor y clientes Proyectos de transformación digital, CRM, tecnologías emergentes, operaciones en materia de ciberseguridad y clientes ERP, experiencia sensorial, datos, innovación y clientes.
En los años 90 España se integra en la UE, comenzando a participar en las políticas europeas sobre las TIC, creándose: Ley de Ciencia, y la Ley 13/86 de Fomento y Coordinación de la Investigación Científica y Técnica Plan Nacional de Investigación Científica y Desarrollo Tecnológico y la Ley General de Telecomunicaciones Ley General de Telecomunicaciones, Comisión interministerial de la Sociedad de la Información y la Creación del Ministerio de Ciencia y Tecnología.
Algunas de las características de los indicadores y políticas de la información serían: El coste de los elementos materiales para su obtención La gestión de cambios, el coste de los elementos materiales para su obtención y las desigualdades de sus parámetros El número de indicadores básicos no debe ser excesivo, incluir indicadores precisos y su definición, fáciles de interpretar y que tengan una metodología transparente.
El BI tiene que hacer frente al problema del carácter multinivel y relacional de la información, siendo principalmente algunos de ellos: Relaciones personales y organizacionales, flujos y redes de comunicación y las redes de transporte Problemas con la competencia de la empresa en un determinado país Problemas con los KPIS y SLAS de las empresas.
Weka, dentro de las herramientas para el manejo de Big Data, es: Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones Uno de los más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos.
Según el informe de Domo, empresa especializada en Big Data y análisis en la nube, deja constancia del siguiente volumen de datos que se dan actualmente: Cerca de 2,5 quintillones se producen cada día Apenas 1 quintillón al día Más de 5 quintillones se producen a la semana.
El reglamento GDPR define varias bases legales para que una organización pueda hacer el tratamiento de datos. Algunas de estas serían: No es necesario tratar unos datos determinados para poder llevar a cabo un contrato donde el usuario es parte o va a ser parte Se requiere el tratamiento de los datos para una tarea de interés público o cuando el controlador de los datos es una autoridad pública No hay que tratar los datos para poder proteger intereses vitales del titular de estos datos o de otra persona.
La varianza es: Media de las desviaciones al cubo de cada valor respecto a la media de todos los datos Diferencia de cada valor con respecto a la media de todos los valores, donde primero se calculará la mediana y después se calculará la media Media de las desviaciones al cuadrado de cada valor respecto a la media de todos los datos.
Como contraposición al Libro Blanco de Delors, en EE. UU. durante la administración Clinton se diseñó una política de información federal basada en: La tecnología, la revolución de la información y la innovación a partir de la tecnología El coste de los elementos materiales, planes de formación y la difusión de las TIC americanas La Industria de las TIC, la gestión de cambios, el coste de los elementos materiales, y las desigualdades de sus parámetros.
Lo más importante de la fase de procesamiento sería: Hacer una correcta minería de datos, apoyándose únicamente en la experiencia del departamento técnico Cumplir los tiempos de ejecución Hacer una buena minería de datos, apoyándose en algoritmos, bases de datos y estadística.
El ciclo de inteligencia comienza: En el proceso de planificación estratégica En el proceso de implantación estratégica En el proceso de testeo estratégica.
Para aplicar técnicas de clustering tenemos que tener en cuenta que: Los datos no los agrupamos en clases Es una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados Es una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados.
Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020 identifica las siguientes amenazas: Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información.
Los parámetros estadísticos son una herramienta de síntesis. Pueden ser: De determinación, centralización y dispersión De centralización o de tendencia central, de posición y de dispersión De posición, de localización y de determinación.
Decimos que una característica de la inteligencia es instrumental cuando: No aporta nada por sí sola Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia   El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización.
Los sistemas de aseguramiento de la calidad que las empresas utilizan para certificar los requisitos de calidad de sus productos están basados en: ISO 8042 e ISO 9000 CMMI v1 1 ITIL y ETOM.
Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020 identifica las siguientes fortalezas: Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo.
Decimos que una característica de la inteligencia tiene calidad cuando: El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia  .
El Big Data es: Un valor que puede ser cualitativo o cuantitativo que describe una acción o un aspecto sobre un tema Un volumen de datos, estructurados o no, que poseen potencial para ser extraídos y así obtener información y conocimiento La meta disciplina que se encarga del estudio de los datos a través de las matemáticas, los procesos y los sistemas.
Sun Tzu es: Sistema de almacenamiento de ficheros Metodología para comprender los escenarios de conflicto incluyendo la situación meteorológica Una variante de la metodología ITIL.
La ciencia de datos sería: Volumen de datos estructurados que poseen potencial para ser extraídos para obtener información y conocimiento Un valor que puede ser cualitativo que describe una acción La meta disciplina que se encarga del estudio de los datos a través de las matemáticas, los procesos y los sistemas.
La fase de planificación también se denomina por el analista: La V Modeller Las 7 Vs Modelo en V.
Los tipos de DSS, según el detalle de la información que almacenan y su forma de clasificarlos, pueden ser: Sistemas para el control y la gestión y los Sistemas para la implementación Sistemas para el control y la gestión y los Sistemas para la investigación Sistemas para el control y la gestión y los Sistemas para la producción.
La segmentación de la Base de Datos, como una técnica más del Data Mining, consiste en: El establecimiento de relaciones entre registros individuales o grupos de estos Poner el foco en predecir la salida de un evento y está basado en un comportamiento similar al aprendizaje humano mediante la observación de las características más importantes de una tarea La aplicación del clustering, que es un tipo de aprendizaje no supervisado y que produce una segmentación en grupos dadas unas características o relaciones comunes.
Dentro de la fase de planificación, What sería: El modo de presentar el análisis El consumidor al que se destinará el producto del análisis resultante La pregunta analítica.
Antes de profundizar en la arquitectura del Datawarehouse, vamos a enumerar alguna regla básica de la evolución de la tecnología: Ley de Butter, que establece que la capacidad de almacenamiento por centímetro cuadrado se duplica cada 13 meses Ley de Moore, que establece que las capacidades de comunicación duplican la velocidad cada 9 meses Ley de Krider, que establece que la capacidad de almacenamiento por centímetro cuadrado se duplica cada 13 meses.
Apache Pig es una plataforma de flujo de datos para realizar análisis de macrodatos en la que, para comenzar a utilizarla: Previamente es imprescindible tener un emulador unix, para poder ejecutar los diferentes comandos Es imprescindible tener conocimientos avanzados en programación en lenguajes como Java o Python Es tan fácil como hacer una instalación sencilla, con un flujo de trabajo basado en Pig Commands, MapReduce Code y Run on Hadoop Cluster.
Data Mining sería: El conjunto de técnicas para el descubrimiento (de manera automatizada y eficiente) de algo que se desconoce y que potencialmente será útil Una estructura para la implementación de un Data Warehousing, que facilita todas sus operaciones El proceso de la transformación de datos en información y conocimiento.
El entorno de trabajo de Power BI que nos permitirá conectar con los datos y modelarlos se llama: Power Query, que nos va a servir para conectar a los orígenes de datos, y únicamente crear las consultas Power Query, que nos va a servir para conectar a los orígenes de datos, crear las consultas y transformar la estructura importada a las necesidades del informe que vamos a crear posteriormente Power Query, que nos va a servir para conectar a los orígenes de datos, y únicamente transformar la estructura importada a las necesidades del informe que vamos a crear posteriormente.
Los niveles y clasificación de la inteligencia son: Política, operacional y táctica Emocional, operacional y táctica Operacional, táctica, y estratégica.
Decimos que una característica de la inteligencia es oportuna cuando: Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización.
Una de las características de la inteligencia estimativa es: Que es la encargada de fijar, ante una circunstancia específica de una pregunta de un directivo o persona que está encargada de tomar las decisiones, la probable transformación de la situación y las opciones de intervención de los elementos involucrados en la misma para facilitar la predicción y las posteriores elecciones Que cumple con la función de dar respuesta rápida a necesidades informativas puntuales en el presente Que es la encargada de satisfacer unas necesidades generales y estratégicas de la organización, conociendo todos los aspectos de cada uno de los objetivos fijados para proporcionar respuestas para las consultas de información concretas.
Algunos de los tipos de variables que se utilizan en lenguaje R podrían ser: Character, siendo letras o símbolos Integer, siendo números imaginarios, funciones, etc Character, siendo números enteros.
WEKA es una herramienta de estudio estadístico: En modalidad de software libre para data Mining desarrollado en Java Es una de las herramientas más utilizadas únicamente para el Machine Learning - ML En modalidad de software de alto coste.
La brecha digital ha sido definida por: Según el Departamento de Comercio de Estados Unidos, “algunas personas disponen de los ordenadores más potentes, el mejor servicio telefónico y el mejor acceso a internet, así como la riqueza de contenidos y una educación para el aprendizaje a lo largo de su vida. En cambio, hay otro grupo que no tiene acceso. La diferencia entre estos dos grupos es la brecha digital” Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, que han afectado a los ámbitos tecnoeconómico y el coste de los elementos materiales Un cambio de modelo social, cambios en el coste de los materiales, y desigualdades sociales.
Una de las características de la inteligencia actual es: Que es la encargada de satisfacer unas necesidades generales y estratégicas de la organización, conociendo todos los aspectos de cada uno de los objetivos fijados para proporcionar respuestas para las consultas de información concretas Que cumple con la función de dar respuesta rápida a necesidades informativas puntuales en el presente Que es la encargada de fijar, ante una circunstancia específica de una pregunta de un directivo o persona que está encargada de tomar las decisiones, la probable transformación de la situación y las opciones de intervención de los elementos involucrados en la misma para facilitar la predicción y las posteriores elecciones.
El profesor de la Universidad de Harvard Michael Porter tiene claro que: La inteligencia de negocios es la única herramienta para responder a las necesidades La inteligencia de negocios es una herramienta, aunque no la única, para responder a las necesidades La inteligencia de negocios en ningún caso puede ser una herramienta para responder a las necesidades.
Definimos Datawarehouse como: Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo sinónimo de base de datos corporativa contra la que las aplicaciones realizan procesos transaccionales Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo insuficiente para proporcionar cualquier información de gestión que le sea solicitada, a cualquier nivel de detalle, de cualquier periodo histórico y de cualquier área de negocio de la compañía.
Mercados y competidores globales es sinónimo de: Empresas que operan solo a nivel internacional En cualquier lugar la empresa puede tener un competidor, por lo que condiciona su estrategia Solo tenemos competencia en nuestro país.
La etapa de procesamiento consiste únicamente en: Inspección y conservación de los datos que han sido reunidos Estudio, y conservación de los datos reunidos Estudio técnico, recopilación, inspección y conservación de los datos.
Para el preprocesamiento o transformación de datos, utilizando incluso filtros, podemos utilizar diferentes herramientas como: WHOM WEKA WIKI.
En 1986 se aprobó la Ley de la Ciencia para el Plan Nacional de Investigación Científica y Desarrollo Tecnológico, que establecía algunos de los siguientes objetivos: Dejaba fuera un Plan Nacional de Investigación Científica y Desarrollo Tecnológico Progresar en el desarrollo y la innovación tecnológica, dejando de lado el progreso y la difusión de la cultura Desarrollo de los servicios públicos, progresar en el desarrollo y la innovación tecnológica.
Algunas de las ventajas de Scala serían: Stack de SAP Código vulnerable Stack de Spark para desarrollar aplicaciones de Big Data, con código robusto de alta productividad.
Dentro de la asociación y colaboración que existe entre Big Data y BI, definiremos este último como: Aquellas herramientas de alto coste desarrolladas por Oracle, Microsoft y SAP El conjunto de herramientas, estrategias, aplicaciones, tecnologías, y arquitecturas enfocadas a recolectar información sobre la empresa Sinónimo de tecnología CRM y ERP.
Dentro de la programación, las funciones serían: Los bloques de código ejecutable, que permiten su ensamblado Están soportadas por la totalidad de los lenguajes de programación y no permiten la división de programas Comentarios a las líneas de código.
Dentro de la gestión del valor del cliente podemos aplicar el principio de Pareto, que consiste en: Que el 20 % de mejores clientes de una empresa generan un 80 % de los beneficios Que el 20 % de peores clientes de una empresa generan el 80 % de las pérdidas Que el 20 % de peores clientes de una empresa generan el 80 % de los beneficios.
Otro concepto asociado a la estadística descriptiva, son las distribuciones de frecuencia para resumir datos estadísticos obtenidos en una muestra, apoyándose en herramientas informáticas y digitales. Estas frecuencias se pueden dividir en: Absoluta y relativa Relativa y relacional Absoluta y diferencial.
Los percentiles son: Los dos valores que resultan de la división de los datos en dos partes iguales, siendo cada una de ellas el 50 % del total de datos Los 99 valores que resultan de la división de los datos en 100 partes iguales, siendo cada una de ellas el 1 %, 2 % Las partes que se consideren siempre y cuando estén en orden decreciente.
La estadística descriptiva se basa en técnicas matemáticas y de representación gráfica para describir y analizar un volumen de datos, siendo sus conceptos básicos: Segmento, conjunto y población Población, individuo y muestra Muestra, subconjunto y población.
Los rangos es la diferencia entre: El mayor y el menor valor que toman los datos La media mayor y menor que toman los datos La mediana mayor y menor que toman los datos.
Dentro de las tendencias actuales en BI, lo que indica el fabricante de software de BI Tableau es: Las herramientas de inteligencia artificial son cada vez más importantes en su aplicación al BI, pero las organizaciones ya no están dispuestas a aceptar modelos de caja negra, sino que exigen que los resultados de la inteligencia artificial sean capaces de explicar y justificar la motivación de sus conclusiones El tránsito de los datos a la nube se detiene Las herramientas de inteligencia artificial son cada vez menos importantes en su aplicación al BI, pero las organizaciones ya no están dispuestas a aceptar modelos de caja negra, sino que exigen que los resultados de la inteligencia artificial sean capaces de explicar y justificar la motivación de sus conclusiones.
Al Gore, en el cargo de vicepresidente de EE. UU., presentó el proyecto GII –Global Information Infraestructure– basado en principios como: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal Fomentar el coste de los elementos materiales, planes de formación y la difusión de las TIC americanas fomentando los cambios rápidos de la tecnología y de los mercados.
La red de colección captará la información de: Las fuentes internas y externas como por ejemplo un CRM Solo las fuentes internas Solo las fuentes externas.
Para saber en qué nivel de inteligencia de negocio se encuentra una empresa, existe el modelo BIMM (Business Intelligence Maturity Model) desarrollado por la consultora Gartner, que identifica una serie de niveles para ver la madurez de la estrategia de BI de la entidad, siendo algunos de ellos: Departamento de sistemas y tecnologías de la información, estrategia del negocio, solución integrada, y transformación a BI Existencia de la figura de un sponsor, hay definidos un BSC o Balance Scorecard, y modelo empresarial avanzado BI no existe, oportunidad de BI, estándares de proceso de BI, modelo empresarial avanzado, y transformación a BI.
Dentro de la fase de planificación, Who sería: El límite temporal El consumidor al que se destinará el producto del análisis resultante El modo de presentar el análisis.
El proceso de Data Mining dentro de su metodología tiene las siguientes fases: Análisis, Diseño, Especificaciones, Desarrollo, Testing, Implantación y Explotación Desarrollo, Pruebas e Implantación Definición del problema, Entendimiento de los datos, preparación de los datos, modelado, evaluación, y Desarrollo.
La moda es un parámetro calculable tanto en variables cualitativas como cuantitativas, siendo el valor: Con menor frecuencia absoluta Con la misma frecuencia Con mayor frecuencia absoluta.
Power BI es: Una herramienta creada por Microsoft que facilita el tratamiento y visualización de la información Una herramienta creada por Microsoft que facilita el tratamiento y visualización de la información, pero que no permite la creación de consultas ni modelos tabulares Una herramienta creada por Oracle, que facilita el tratamiento y visualización de la información.
Las estructuras de datos inmutables tienen como beneficio: La reducción de errores, y facilitar la escritura de aplicaciones de subprocesos múltiples Modificación de datos en su ubicación, como C, C++, Java y Python La corrupción de datos en aplicaciones multiproceso.
C como lenguaje imperativo trata: No permite que una función pueda ser definida dentro de otra función Permite que se pase una función como parámetro de entrada a otra función Permite que una función pueda ser definida dentro de otra función.
Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, la Organización para la Cooperación y el Desarrollo Económicos los define como: Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento Aquel material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación No serían datos de investigación ni los análisis preliminares, borradores de la elaboración de artículos, planes de investigaciones futuras, revisiones por pares ni comunicaciones entre colegas.
Hadoop como software de código abierto está basado en: Patrones y creado sobre la BB DD de MapReduce de Google Incompatibilidades conocidas con las APIs de MapReduce La proyección de las Redes Sociales.
HDFS es: Un lenguaje de programación orientado a objetos Tecnología de almacenamiento de datos Protocolo de comunicación.
El código de Hadoop está construido en: JAVA, aunque compatible con otros lenguajes de programación CSS, HTML y JS APEX.
Algunos de los elementos principales dentro del ecosistema Hadoop serían: Herramientas para el despliegue de aplicaciones multientorno, alta de recursos y creación de tablas Almacenamiento de datos distribuido, herramientas de BI y distribución del tiempo de ejecución Testeo automático de pruebas de integración, validación y métricas de código.
Algunas de las sanciones que se pueden imputar a una empresa en el caso de incumplimiento de la GDPR pueden ser: Multa de hasta 10 millones de euros o la cantidad que resulte de calcular el 2% de la facturación global de la compañía si es alta Multa de hasta 10 millones de euros o la cantidad que resulte de calcular el 20% de la facturación global de la compañía si es alta Multa de hasta 20 millones de euros o el 10% de la facturación global en caso de infringir aquellos aspectos más graves.
Desde un contexto temporal, teniendo en cuenta el instante de uso de la inteligencia, esta se divide en: Recíproca, actual y estimativa Básica, actual y estimativa Real, básica y estimativa.
Según la importancia del dato, el conocimiento es: Información Un dato o conjunto de estos La capacidad de resolver problemas, innovar y aprender.
Zapier funciona en base a Zaps, que sería por lo tanto una tarea específica que deseamos realizar, donde cada ZAP: Debe poseer, al menos, una acción, aunque Zapier no brinda la posibilidad de crear Zaps de múltiples pasos. Utilizando la lógica de disparadores y acciones podemos lograr automatizar las tareas que realizamos de forma cotidiana, aunque de este modo incrementaremos los tiempos y los recursos Debe poseer más de una acción, pero Zapier también brinda la posibilidad de crear Zaps de múltiples pasos, es decir, que a partir de un disparador ocurran múltiples acciones de automatización. Utilizando la lógica de disparadores y acciones podemos lograr automatizar las tareas que realizamos de forma cotidiana y de ese modo ahorrar tiempo y recursos Debe poseer, al menos, una acción, pero Zapier también brinda la posibilidad de crear Zaps de múltiples pasos, es decir, que a partir de un disparador ocurran múltiples acciones de automatización. Utilizando la lógica de disparadores y acciones podemos lograr automatizar las tareas que realizamos de forma cotidiana y de ese modo ahorrar tiempo y recursos.
Casi todas las herramientas que se encuentran en la web cuentan con una API que facilita el intercambio de información con otras herramientas, entre las que incluimos a Zapier, que es: Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes, creada por Steve Jobs, Bill Gates y Wade Foster Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes, creada en 2021.
Las tecnologías de apoyo dentro de la fase de análisis serían: Groupware, como por ejemplo Slack, y sistemas de apoyo a la toma de decisiones Herramientas para la presentación ordenada de la información Groupware para potenciar el trabajo individual.
Inmon definió en 2005 el Datawarehouse, en relación al proceso de toma de decisiones, como el proceso donde: Los datos se estructuran por temas generales, no pudiendo ser nunca proveedores, productos o clientes, y no tienen una información válida para tomar una decisión. La orientación a temas facilita a los usuarios determinar sólo cómo se desarrollan sus negocios Los datos se estructuran por temas específicos, un Datawarehouse proporciona una visión más completa de la organización, la integración está estrechamente relacionada con la orientación a temas y el tiempo es una dimensión importante que deben soportar Se tiene una orientación al producto, no teniendo una visión completa de la organización, sus líneas de negocio y la estrategia.
Una vez que empezamos a programar en Scala tenemos que tener en cuenta que: Es un sistema de programación incompatible con los editores de texto actuales Incompatible con el IDE de Eclipse, por lo que habrá que buscar soluciones de alto coste en el mercado dedicados Compatible con cualquier editor de texto, y se puede usar el IDE basado en el navegador proporcionado por Typesafe.
Algunos de los objetivos clave del libro blanco elaborado por Jacques Delors serían: La difusión de las TICS europeas, estimular el desarrollo de sistemas telemáticos, y la modificación del marco reglamentario de las telecomunicaciones La Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y las desigualdades de sus parámetros El coste de los elementos materiales, planes de formación y la difusión de las TIC mundiales.
Algunos de los fundamentos de Scala serían: Lenguaje de programación híbrido, admitiendo programación funcional y orientada a objetos Lenguaje que no admite conceptos como clase, objeto y rasgo Lenguaje basado en máquinas virtuales que no son Java.
Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, Borgman en 2008 los definió como: Material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación Material registrado comúnmente aceptado por la comunidad científica como necesario para validar resultados de investigación Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento.
Los componentes de Power BI son: Desktop, pro, y Mobile Desktop, pro, y Mobile como SAAS Pro, Mobile y Desktop como aplicación no opensource para escritorios Windows.
Apache Kafka es una plataforma de mensajería distribuida, desarrollada por: Facebook y lanzado como proyecto abierto desde la compañía IBM LinkedIn y lanzado como proyecto abierto desde la Fundación Apache Google y lanzado como proyecto abierto desde la compañía Oracle.
Dentro de la fase de planificación, What for sería: El modo de presentar el análisis El objetivo del destinatario del análisis El consumidor al que se destinará el producto del análisis resultante.
Una de las diferencias principales entre XML y Power Query es: XML es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En Power Query no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas y añadir las tildes Power Query es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En XML, no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas y añadir las tildes XML es un lenguaje en el cual usar tildes puede generar problemas, por lo que, habitualmente, los desarrolladores no las utilizan, aunque pongan los nombres de los campos en español. En Power Query no tenemos ese tipo de problemas, así que, si queremos, podremos cambiar los nombres de las columnas, pero no añadir las tildes.
La tecnología innovadora que creó Google, llamada GFS o Google File System es un potente: Gestión únicamente de ficheros VSAM Protocolo de comunicación entre máquinas basadas en IPS de gestión Sistema de archivos distribuido destinado a contener enormes cantidades de datos.
Las características de la inteligencia desde un enfoque óptimo serán: Instrumental, objetiva, oportuna, calidad, y humilde Reprogramable, calidad, humilde, subjetiva y oportuna Instrumental, procesal, objetivo, oportuna, y humilde.
Las fuentes de información según su tipo de formato pueden ser: Libros, revistas científicas y generalistas, periódicos, vídeo y audio, documentos gubernamentales, literatura gris y por último también los web sites Digital o industrial Sociales, legales y económicas.
Apache Hive es: Una herramienta que suelen utilizar los grupos de calidad del dato en las empresas para la gestión de pedidos, desarrollado por Google Una herramienta visual al estilo Sql Developer para la formalización de consultas y exportación a Excel Una infraestructura de almacén de datos basada en Apache Hadoop, basado en SQL conocido como HQL.
Dentro de la fase de planificación, When sería: Límite temporal del análisis realizado El consumidor al que se destinará el producto del análisis resultante El modo de presentar el análisis.
Algunos de los ejemplos típicos básicos de Scala podrían ser Float que tendrá un valor de: 32-bit de punto flotante de precisión simple IEEE754 Secuencia de caracteres 64-bit de punto flotante de precisión simple IEEE754.
Algunas de las ventajas del uso del BI podrían ser: Retener clientes que consideran irse a la competencia, conocimiento mejor del cliente y su comportamiento, y obtener mayores beneficios de las ventas actuales La fuga de clientes innecesarios, definición de los BSC o Balance Scorecard, y consecución de un modelo empresarial avanzado La creación de un departamento de sistemas y tecnologías de la información, elaboración de la estrategia del negocio, implementa solución integrada, y transformación de datos.
Algunas de las características de la FP –Functional Programming– son: Aumento del número de líneas de código y por lo tanto disminución de errores Especializada para equipos mononucleo Optimización de líneas de código para la resolución de problemas, escritura de aplicaciones concurrentes o multiproceso.
La inteligencia operacional se refiere a: La inteligencia relacionada con los medios que se aplican para alcanzar los objetivos La estrategia que se utiliza para el desarrollo o ejecución de distintas acciones La aplicable para la toma de decisiones que tienen que ver con los objetivos estratégicos de la compañía.
La evaluación mostrará los obstáculos más importantes del proceso como: Solo la urgencia impuesta por la alta dirección para obtener el análisis Únicamente la incapacidad del analista Algunas podrían ser la incapacidad del analista, o el desconocimiento de la calidad de la información.
La inteligencia estratégica se refiere a: La estrategia que se utiliza para el desarrollo o ejecución de distintas acciones La aplicable para la toma de decisiones que tienen que ver con los objetivos estratégicos de la compañía La inteligencia relacionada con los medios que se aplican para alcanzar los objetivos.
Decimos que una característica de la inteligencia es humilde cuando: Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia   El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización.
La red de colección tiene como objetivo principal: Captar información primaria independiente de su veracidad Captar información primaria, para cualificar la veracidad Captar información secundaria.
Las fases de un proceso de toma de decisiones de un DSS serían: Inteligencia, ensayo, selección e implementación Inteligencia, diseño, selección y producción Inteligencia, diseño, selección e implementación.
Los sistemas de información para la dirección –EIS–se caracterizan por: Disponer de una interfaz de usuario perfectamente ajustada a la estrategia de negocio y al estilo de dirección de la compañía y van dirigidos a todos los empleados Disponer de una interfaz de usuario perfectamente ajustada a la estrategia de negocio y al estilo de dirección de la compañía, estando dirigidos a todos los empleados que no tengan una labor decisoria en el negocio Disponer de una interfaz de usuario perfectamente ajustada a la estrategia de negocio y al estilo de dirección de la compañía.
El sistema de reporting dentro de los almacenes de datos que se crean en una organización, deben diseñarse en base a dos estrategias: Estrategia de generación de información (personas y medios) y la estrategia de despliegue de resultados (fondos y formas) que responderá por ejemplo a la pregunta de la descripción del objetivo de cada informe Estrategia de generación de información (personas y medios) y la estrategia de despliegue de resultados (fondos y formas) Estrategia de generación de información (fondos y formas) y la estrategia de despliegue de resultados (personas y medios).
Dentro de la fase de planificación, How sería: El objetivo o decisión a tomar que el proceso de análisis debe asegurar El consumidor al que se destinará el producto del análisis resultante El modo de presentar el análisis.
LUCA pertenece a la empresa: Orange BBVA Telefónica.
¿Qué son las empresas Data Driven? Únicamente empresas startups Empresas con una organización muy jerarquizada, con toma de decisiones por parte del CEO Compañías cuya toma de decisiones se efectúa sobre un conjunto de evidencias en forma de datos.
Para trabajar con Power BI identificaremos los siguientes roles: Diseñador de conjuntos de datos, diseñador de informes, administrador Power BI y el gestor de la colaboración Desarrollador, Testers e Implantadores de la solución Diseñador de conjuntos de datos, diseñador de informes, administrador Power BI y el gestor de la colaboración que supervisa las tareas y controla la gestión de recursos.
MapReduce dentro del procesamiento distribuido está compuesto por pasos principales: Mapear y reducir   Simplificar e implantar Testear y mapear.
Dentro de la conexión con archivos de datos y su transformación, tenemos a Google Analytics, que es: Un servicio gratuito de Google que muestra un gran conjunto de datos de una página web que nos permiten monitorizar quién la visita, desde dónde llegan a nuestra página, cuánto tiempo dura cada sesión, etc. Además, es posible integrar Analytics con otras herramientas de Google como AdWords y AdSense Un servicio gratuito de Google que muestra un gran conjunto de datos de una página web que nos permiten monitorizar quién la visita, desde dónde llegan a nuestra página, cuánto tiempo dura cada sesión, etc. El problema es que actualmente no es posible integrar Analytics con otras herramientas de Google como AdWords y AdSense Un servicio gratuito de IBM que muestra un gran conjunto de datos de una página web que nos permiten monitorizar quién la visita, desde dónde llegan a nuestra página, cuánto tiempo dura cada sesión, etc. Además, es posible integrar Analytics con otras herramientas de Google como AdWords y AdSense.
El lenguaje DAX (Data Analysis Expressions) fue diseñado para crear objetos y consultar modelos tabulares basados en tres conceptos fundamentales: Las funciones, el contexto y la sintaxis, pudiendo ser esta última de inteligencia de tiempo o lógicas La sintaxis, las funciones y el contexto La sintaxis, el contexto y las funciones como por ejemplo el operador igual u otros operadores matemáticos.
Según la prestigiosa consultora, Gartner Group, el BI consiste en: Almacenar información para un futuro indeterminado La habilidad de los usuarios finales para acceder y analizar variedades cuantitativas de información y tomar las decisiones adecuadas Generar un departamento de reporting dentro de la organización.
La inteligencia táctica se refiere a: La inteligencia relacionada con los medios que se aplican para alcanzar los objetivos La estrategia que se utiliza para el desarrollo o ejecución de distintas acciones La aplicable para la toma de decisiones que tienen que ver con los objetivos estratégicos de la compañía.
Las empresas recolectan alrededor de: Un 20 % de datos no estructurados Un 80 % de datos no estructurados Un 90 % de datos estructurados.
Dentro de la fase de planificación, Why sería: El objetivo o decisión a tomar que el proceso de análisis debe asegurar El consumidor al que se destinará el producto del análisis resultante El modo de presentar el análisis.
Una de las diferencias principales entre el método de Clustering K y el jerárquico serían: En la agrupación K, dado que comenzamos con la elección aleatoria de agrupaciones, los resultados producidos al ejecutar el algoritmo varias veces nunca difieren, mientras que los resultados no son reproducibles en la agrupación jerárquica La agrupación jerárquica no puede manejar bien los grandes datos, pero la agrupación K sí La agrupación K no requiere conocimiento previo de K, es decir, del número de grupos en los que se desea dividir el conjunto de elementos  .
RPA (Robotic Process Automation) tiene dos funciones principales desde el punto de vista de los datos: Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados, pero no ayuda a la recopilación de datos Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados, pero sin ninguna trazabilidad para identificar los fallos y mejorar el rendimiento de los Bots.
Algunos de los proyectos liderados desde IT pueden se transversales, y otros proyectos pueden ser más verticales, aplicados a áreas o departamentos concretos para alcanzar objetivos como: Conocer mejor a los clientes potenciales y a los actuales, qué factores conforman la experiencia de cliente, etc Pasar por alto que puntos de contacto o interacciones son clave con cada cliente, tanto para evitar perderlo, como para fidelizarlo No sería necesario conocer los segmentos de mercado que están siendo incorrectamente atendidos o, incluso, qué segmentos de mercado nunca habían sido atendidos por desconocidos.
Los triggers también se denominan: Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update y pueden estar anclado a varias tablas Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update, siendo una operación muy compleja su creación con el código AFTER TRIGGER.
Cuando trabajamos con índices debemos modificarlos, crearlos o eliminarlos utilizando los comandos: Type, createIndex y exists Collection, db, y key CreateIndex, createIndexes y dropIndexes.
La gestión de la calidad incluye todos los procesos necesarios para asegurar que el proyecto cubrirá las necesidades para las cuales ha sido concebido, gracias a las tareas de: Planificación, garantía y control de calidad Análisis, explotación y finalmente cierre de calidad Realización, planificación y mitigación de calidad.
Las tablas estáticas se dividen en: Tablas operativas y del sistema Tablas operativas y físicas Tablas logísticas y del sistema.
Asociado a la gestión de riesgos, algunos de los aspectos que suelen incrementar la probabilidad de existencia de riesgos en nuestros proyectos podrían ser: Gestión del alcance como carencias en la planificación de la comunicación, no consultar con aquellos individuos que sean clave en el proyecto por su posición Gestión del alcance como errores al estimar el tiempo, disponibilidad de los recursos insuficiente, etc Gestión del alcance como una mala definición del alcance; una definición incompleta de los requisitos de calidad y, por tanto, una incorrecta comprensión de las necesidades de los usuarios y del cliente; un control del alcance inadecuado.
Crear o insertar un nuevo documento en una collection de una BB DD con Mongo Shell es: Muy simple con el método NumberLong(), que posee 32 bits Muy simple con el método insertOne Muy simple con el método show dbs.
La cardinalidad de asignación: Es la entidad la que tiene cardinalidad de asignación Es una obligación que deben cumplir los datos incluidos en una BB DD y hace referencia al número de instancias de una entidad No determina el tipo de relación que se establece entre las tablas.
Los Sharding Clusters es: Tener copias exactas de nuestros datos repartidos en distintos servidores, lo que nos servirá de respaldo de la información y como mecanismo de seguridad para mantener la integridad de los datos y que siempre estén accesibles para conseguir un sistema de alta disponibilidad Dividir los datos en varios servidores, por lo que se puede usar el término particionado de datos o fragmentación y es un gran recurso para sacar el máximo provecho a los servidores Un grupo de servidores en el cual uno de ellos será llamado primario (primary) y este servidor primario realizará acciones de escritura sobre los otros que llamaremos secundarios (secondary), que a su vez pueden ser múltiples.
Dentro de las consultas, los operadores de truncamiento o máscaras: Normalmente son símbolos como *, $, cuya presencia puede sustituir a un carácter o a un conjunto de caracteres, situados a la izquierda, dentro o a la derecha del término en cuestión Permiten reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta Son de Tablas operativas y físicas.
En la visualización de información en aplicaciones de bases de datos, si se desea exportar a un procesador de textos, hay dos opciones: Texto plano (rft) y texto enriquecido (txt) Texto plano (txt) y texto enriquecido (rtf) Texto plano (rtf) y texto enriquecido (txt).
En la manipulación de datos tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De 1 a muchos: cuando dos o más elementos de una entidad se pueden relacionar con dos o más elementos de otra entidad De 1 a muchos: es cuando un elemento de una entidad se puede relacionar con varios elementos de otra entidad De 1 a muchos: cuando un elemento de una entidad solamente se puede relacionar con otro elemento de otra entidad.
Los data warehouse se pueden diseñar con distintos esquemas. El Esquema de Estrella sería aquel: Que se trata en un modelo no relacional Donde la tabla de hechos está rodeada de entidades llamadas dimensiones El más complicado, donde la tabla de hechos está rodeada de entidades llamadas dimensiones.
Los tipos de índices más comunes serían: Índices únicos, son aquellos que están compuestos por más de un atributo Índices únicos, son aquellos donde su valor no podrá estar duplicado en la collection Índices únicos, son aquellos que pueden estar más de una vez en una collection y se usan para identificar grupos de datos dentro de la collection.
La gestión del alcance incluye todos los procesos implicados en la definición y control de lo que está o no está incluido en el proyecto. Algunos de los factores identificados como más comunes, y que provocan cambios en el alcance de un proyecto que suelen resultar problemáticos son los siguientes: Información proporcionada por el usuario, Requisitos y/o especificaciones completas, Requisitos y/o especificaciones fijadas, apoyo de la dirección, y sistemas afianzados Expectativa realista, Objetivos claros, Duración realista y sistemas afianzados Requisitos y/o especificaciones cambiantes, Falta de apoyo de la dirección, Problemas de tecnología, y la falta de recursos.
Una de las herramientas más utilizadas en el análisis estratégico es la denominada cinco fuerzas de Porter. Según Michael Porter, toda compañía se desenvuelve en un mercado que se puede definir y analizar a partir de cinco aspectos concretos: Amenaza de nuevos competidores, presión de los proveedores, presión de los clientes, amenaza de productos sustitutivos y rivalidad competitiva Déficits, Ajustes, Fomento, Amenaza de nuevos competidores y Opciones Debilidades, Acciones, Amenaza de productos sustitutivos, Fortalezas y Diversificación.
El lenguaje SQL permite: Definir, manipular y consultar la información contenida en las bases de datos Solo la manipulación de datos Exportar a texto plano (rft) y texto enriquecido (txt).
El método explain proporciona la información sobre la consulta y se le pueden pasar una serie de parámetros para configurar el nivel de explicación, como: AllPlansExecution, que devuelve las estadísticas de todos los posibles planes contemplados por el planificador de consultas de MongoDB QueryPlanner, que devuelve las estadísticas de todos los posibles planes contemplados por el planificador de consultas de MongoDB ExecutionStats, que devuelve las estadísticas de todos los posibles planes contemplados por el planificador de consultas de MongoDB.
Los data warehouse se pueden diseñar con distintos esquemas. La Tabla de Hechos sería aquella: Que tiene la información irrelevante, se consigue que la programación de las consultas sea más compleja y lenta Que vemos como una tabla cruzada entre varias entidades donde su llave primaria queda conformada por la combinación de las llaves primarias de las dimensiones Que se trata en un modelo no relacional.
La gestión de proyectos: Es la aplicación de conocimientos, herramientas, métodos y técnicas para planificar, controlar y realizar el seguimiento de un proyecto, teniendo como objeto conseguir ejecutarlo después del plazo, coste y calidad requeridos Es la aplicación de conocimientos, herramientas, métodos y técnicas para planificar, controlar y realizar el seguimiento de un proyecto, teniendo como objeto conseguir ejecutarlo antes del plazo, independientemente del coste y calidad requeridos Es la aplicación de conocimientos, herramientas, métodos y técnicas para planificar, controlar y realizar el seguimiento de un proyecto, teniendo como objeto conseguir ejecutarlo dentro del plazo, coste y calidad requeridos.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Insert, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo Insert, que borra registros de una tabla Insert, que agrega registros a una tabla.
En el lenguaje SQL y específicamente en Sql Server, disponemos de mecanismos suficientes para cumplir con los principios ACID, mediante el uso de las siguientes acciones: BEGIN TRANSACTION, que especifica que va a empezar una transacción BEGIN TRANSACTION, que le indica a una base de datos que la transacción fue completada con éxito BEGIN TRANSACTION, para comprobar si esa variable de entorno ha tomado cualquier valor diferente a cero, que especifica que va a empezar una transacción.
Dentro de la transformación digital, por un lado, están las empresas tradicionales, que se han adaptado o se encuentran en proceso de adaptación a la nueva realidad VUCA y, por otro lado, están las organizaciones que han nacido nuevas ya en este entorno y que, por tanto, son nativas digitales, pudiéndose dividir en dos grupos: El Primer Grupo (el lastre de unos procesos antiguos y una cultura empresarial muchas veces arcaica ralentiza este proceso de cambio) y el Segundo Grupo (tiene otros problemas, como puede ser la falta inicial de recursos financieros y la necesidad de ganarse la confianza de los primeros clientes) Ambos grupos no están interesados en implantar los paradigmas del Big Data y de otras disciplinas anexas como puede ser la IA o el internet de las cosas Que en ambos casos, no son importantes los datos ya que las empresas no aspiran a alcanzar el objetivo de ser data driven.
Las bases de datos relacionales son todas aquellas: Que no poseen el tipo habitual de estructura de tablas y relaciones, así como una gran escalabilidad y rendimiento, dependiendo del tipo de dato En las cuales los datos se acceden a través de relaciones previamente establecidas, estando compuestas por vistas y cada vista posee campos y registros En las cuales los datos se acceden a través de relaciones previamente establecidas, estando compuestas por tablas y cada tabla posee campos y registros.
Las bases de datos SQL o bases de datos relacionales: No tienen limitaciones como las BB DD no relacionales Nos permitirán manejar grandes cantidades de datos a una gran velocidad, los que ofrece muchas posibilidades para los desarrolladores Están diseñadas para realizar transacciones fiables, pero como se fundamentan sobre un esquema rígido, esto provoca una serie de restricciones que limita su utilización en muchas aplicaciones.
Los índices compuestos en MongoDB: Se usan cuando hay más de un atributo en la collection Se suelen dar en collections muy grandes, siendo un proceso muy lento y tampoco aseguran que las búsquedas sean más rápidas No tienen nada que ver con los atributos y tampoco MongoDB los gestiona.
El CDO es la figura responsable de interpretar las necesidades de datos de toda la organización y algunas de sus responsabilidades serían: Analizar la realidad de la organización desde la perspectiva de los datos, y diseñar y gestionar nuevos productos basados en los datos Ser un freno para que los departamentos y otras estructuras internas de la empresa superen sus discrepancias y temores para alcanzar una desintegración de las diversas islas de información disjuntas que en toda organización surgen Analizar la realidad de la organización desde la perspectiva de los empleados, y establecer la estrategia de negocio y tecnológica al respecto de los sistemas y RRHH.
MongoDB proporciona la posibilidad de convertir una collection normal, en una de tipo capped, para lo cual se hace uso del siguiente comando: ConvertToCapped DeleteMany DeleteOne.
Los procedimientos almacenados son: Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, y un procedimiento almacenado, a su vez no puede ejecutar otro procedimiento almacenado Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, pero no aceptan parámetros de entrada Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide.
Dentro de los riesgos en un proyecto de Big Data, tenemos las siguientes etapas dentro del proceso de análisis de riesgos: Evaluación de los objetivos del proyecto, Análisis de los riesgos del proyecto, Comunicar los riesgos, Categorizar por importancia e Implantar un plan de seguimiento Evaluación de los objetivos del proyecto, Análisis de los riesgos del proyecto, Analizar los riesgos, Categorizar por importancia y Establecer plan de seguimiento Definición de los objetivos del proyecto, Identificar los riesgos del proyecto, Analizar los riesgos, Categorizar por importancia y Establecer plan de seguimiento.
MongoDB registra las operaciones administrativas y las almacena en una collection de tipo capped en la base de datos de administración, llamada: Uptime System profile SetProfilling.
La dificultad de gestionar el cambio generado por un proyecto dependerá del impacto y la dimensión que el proyecto tenga en la organización, clasificando las dimensiones del cambio en tres niveles: Gestión del alcance, estimación del tiempo y disponibilidad de los recursos Gestión del alcance, carencias en la planificación de la comunicación, y probabilidad Alcance reducido, moderado y gran alcance.
Dentro del marco general de la gestión de proyectos tecnológicos, la gestión adecuada de todos los elementos que intervienen en un proyecto es clave para el éxito de estos, donde influyen múltiples factores como: Únicamente los RRHH y económicos de los que se va disponer Alcance, tiempo, costes, calidad, recursos humanos, comunicación, riesgos, compras, etc Alcance, tiempo, costes, calidad, recursos humanos, comunicación, riesgos, compras, etc., donde surgirán problemas y el jefe de proyecto los podrá evitar todos.
Las consultas cubiertas son aquellas que: Pueden ser satisfechas por completo utilizando un índice, sin necesidad de examinar ningún otro documento, pero el uso no mejorará el rendimiento de las consultas Pueden ser satisfechas por completo utilizando un índice, sin necesidad de examinar ningún otro documento, pero el uso de estas consultas no es recomendable Pueden ser satisfechas por completo utilizando un índice, sin necesidad de examinar ningún otro documento.
¿Quién popularizó el término NoSQL en 2009? Bill Gates Chris Bosch Eric Evans.
Otra herramienta del análisis estratégico es la conocida como matriz de Ansoff, matriz útil para determinar oportunidades de crecimiento en cada una de las unidades de negocio que componen una empresa, estableciendo cuáles son las posibles combinaciones que abordar en el futuro de la empresa. De este modo, las alternativas que una empresa puede abordar para diseñar su futuro estratégico son: Debilidades, Acciones, Fortalezas y Diversificación Penetración, Diferenciación, Desarrollo de mercados y Diversificación Déficits, Ajustes, Fomento y Opciones.
Trello es: Una aplicación online que no proporciona ningún tipo de asistente Una aplicación online, accesible desde la web www trello com Una aplicación online en la que podemos registrarnos tras pagar con tarjeta de crédito.
Una transacción es: Un conjunto de órdenes que se deben ejecutar de forma monolítica, es decir, formando una unidad indivisible, lo que quiere decir que el proceso contenido en la transacción no puede ser detenido, ni procesado de manera parcial Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, y un procedimiento almacenado, a su vez no puede ejecutar otro procedimiento almacenado Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, pero no aceptan parámetros de entrada.
El modelado de los datos es parte fundamental: Para el desarrollo de cualquier sistema de información, programa, aplicación u otra estructura Para la implantación de cualquier sistema de información, programa, aplicación u otra estructura Del diseño de cualquier sistema de información, programa, aplicación u otra estructura en la que debamos almacenar información.
Los Datawarehouse son: Un almacén de datos, bases de datos orientadas a analizar la información, sin respetar el principio de separación de los datos Un almacén de datos, bases de datos orientadas a analizar la información Un almacén de datos, bases de datos orientadas a las transacciones.
Dentro del funcionamiento diario de Scrum, el guion que se ejecuta en cada una de estas reuniones es muy sencillo, ya que cada miembro del equipo tendrá, aproximadamente, un minuto de tiempo que expresar: En las reuniones de Scrum no tienen que darse cambios de perspectiva Se trata de imponer indicaciones y objetivos de arriba hacia abajo De modo análogo, cada profesional compartirá con los demás qué es lo que prevé hacer al día siguiente para, de nuevo, contribuir al éxito global del equipo de proyecto.
El método que permite pasar un parámetro para especificar los campos que tendremos en el resultado sería: QueryPlanner() Find() Explain().
Los sistemas relacionales presentan los siguientes elementos: Tablas, consultas, formularios, informes, macros y módulos Vistas, planes, formularios, informes, macros y módulos Sinónimos, paquetes, formularios, informes, macros y módulos.
Dentro del funcionamiento de Scrum, y para poder realizar estimaciones realistas, el equipo deberá responder a cuestiones cómo: No se propone clasificar los objetivos según complejidad ¿Hay algún mecanismo o indicador que me permita saber cuándo he alcanzado el objetivo? O, por lo contrario, ¿el cliente podría discutir o negar que dicho objetivo se haya alcanzado? Se recomienda hacer estimaciones en jornadas o en horas/hombre.
Las herramientas ETL realizan tres funciones: Extracción, transformación y carga Volátil, información y escritura Almacén, orientadas y transacciones.
Dentro de las consultas, AND es un operador: De tablas operativas y físicas Que permite reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta Excluyente que permite recuperar aquellos documentos que no tengan los términos indicados.
Dentro de la gestión del tiempo, podemos distinguir las siguientes tipologías de actividades: Actividades flexibles, semiflexibles y de duración fija como aquellas donde involucrar más recursos ayuda a recortar los tiempos, pero con un límite y de forma no proporcional Actividades flexibles, semiflexibles y de duración fija como aquellas que cuantos más recursos se involucren, más se reduce el tiempo Actividades flexibles, semiflexibles y de duración fija.
Mongo Shell se instala por defecto en la instalación de MongoDB, donde podremos ejecutar la Shell desde la consola del sistema operativo Windows, teniendo en cuenta que: Ejecutamos el comando quit y abrimos el símbolo de sistema o command prompt Para obtener una lista de comandos básicos podemos ejecutar el comando help Ejecutamos el comando: "mongo exe" para salir de la consola.
Las etapas que se abordan en el proceso de gestión del tiempo son: Definición, consolidación, estimación de la duración de las actividades del proyecto, desarrollo de la planificación y plan de riesgos Gastos generales, costes estructurales, comunicaciones, y gestión del espacio físico Definición, ordenación, estimación de la duración de las actividades del proyecto, desarrollo de la planificación y control de la planificación.
La diferencia fundamental entre SQL y NoSQL es: Una base de datos no relacional como MySQL utiliza un esquema, una definición formal de cómo se dispondrán los datos insertados en la base de datos En una base de datos NoSQL la información se almacena en campos de datos estructurados en columnas definidas En una base de datos relacional o SQL la información se almacena en campos de datos estructurados en columnas definidas.
El término NoSQL de bases de datos no relacionales hace referencia a: Not Only Non SQL None SQL.
Asociada a la gestión de compras, entre los criterios que deberíamos aplicar a la hora de evaluar un conjunto de ofertas de distintos proveedores para determinar cuál es la más adecuada, serían: No será necesario demostrar una solvencia financiera y técnica del proveedor, para garantizar la correcta ejecución del proyecto en caso de ser adjudicatario No serán necesarias otras garantías, avales, certificaciones, etc El proveedor muestra una comprensión clara del objetivo del proyecto, que el alcance haya sido establecido de forma coherente respecto al proyecto y sea compatible con el presupuesto asignado, y por último que la metodología y la organización de la parte que asume el proyecto en el proyecto sea adecuada.
Los motivos que han llevado a la gestión basada en datos, donde la principal consecuencia de la transformación digital en los negocios ha sido la explosión de los datos, son: Las empresas no se han lanzado a recopilarlos para su posterior procesamiento Para las empresas, la explotación y análisis de los datos no forma parte de su ventaja competitiva El impacto del Multicanal, la Globalización y la Digitalización de los procesos.
Los filtros en Access pueden ser: Es igual a…, No es igual a…, Menor que…, Mayor que… y Entre… Access no tiene filtros Tablas operativas y físicas.
Un director de proyecto puede tener tres tipos de autoridad que son: Autoridad conferida, otorgada, y técnica, donde el responsable de proyectos nunca se identificará con el líder y, por tanto, no habrá un reconocimiento de su influencia Autoridad conferida, otorgada, y técnica, donde el responsable de proyectos no tendrá experiencias, cualidades y competencias por encima de la media Autoridad conferida, otorgada, y técnica donde el responsable de proyectos contará con la formación y cualificaciones idóneas para ejercer ese rol.
En el modelo relacional, como ya sabemos, se organiza la información de la base de datos utilizando un conjunto de tablas, donde: En el modelo relacional tanto los datos como las relaciones se guardan usando columnas En el modelo relacional las tablas nunca tienen nombres únicos El esquema está formado por una serie de columnas con nombres únicos (las columnas se denominan también campos o atributos).
Para una correcta gestión de costes se deben realizar las siguientes actividades: Planificación de recursos, estimación de costes, presupuestación de los costes y control de los costes Gestión de sistemas, gestión de materiales, y control de los presupuestos Gestión de recursos, gestión de materiales, y control de los costes.
Cuando creamos un usuario en MySQL, le podemos asignar permisos parciales y privilegios, pero además especificar límites en cuanto a uso de recursos como: Limitar las conexiones por hora, simultáneas, búsquedas por hora, etc Datos: CREATE, ALTER, INDEX, DROP, SHOW VIEW Datos: GRANT, SUPER, RELOAD, PROCESS.
La estandarización ANSI son siglas que traducidas al español significan: Instituto Nacional Estadounidense de estándares SGDBDR ISO.
La unidad básica de datos de MongoDB es: Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima menos flexibilidad) Un documento (document) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad) Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad).
En Mongo no se puede hacer una búsqueda basada en una comparación con null. En este caso habrá que hacer uso del operador: $exists para comparar la existencia de un campo que sea null $not para comparar la existencia de un campo que sea null $regex para comparar la existencia de un campo que sea null.
Cuando un equipo de IT se dispone a abordar el encargo de desarrollar un aplicativo para explotar los datos de su empresa o de uno de sus clientes, es importante que tenga claro que el aspecto que más va a influir en el éxito del proyecto es realizar un diseño adecuado de la plataforma que albergará los datos y facilitará su explotación posterior. Para ello tiene que tener en cuenta una serie de recomendaciones a la hora de elegir la plataforma de ejecución: La plataforma debe potenciar la productividad, mediante la adecuada disposición de plantillas Los datos, siempre que sea posible, deberían poder ser explotados offline, demorando su generación y su disponibilidad El departamento de IT será necesario para el mantenimiento correctivo y evolutivo de la plataforma, y su operación.
Dentro del modelado de datos de MongoDB, Sharding: Permite proveer un escalado horizontal, cuando se tiene gran cantidad de datos para procesar Para disminuir el tiempo de procesamiento, porque siempre se realizará todo en una sola operación. También disminuye la cantidad de operaciones o peticiones al servidor Soporta las transacciones múltiples a través de replica-sets y sharded clusters.
En la búsqueda de cuellos de botella y problemas de rendimiento, la división de los parámetros locks timeAcquiringMicros con locks acquireWaitCount nos mostrará: Un promedio del tiempo de espera La cantidad de conexiones en el momento El tiempo total de bloqueo, y si su valor es alto en función del uptime, quiere decir que la base de datos ha estado en un bloqueo por un tiempo significativo.
En Mongo, para hacer una búsqueda más completa y que todos los elementos del array coincidan, usaremos el: El operador $not El operador $all El operador $regex.
Son muchas las ventajas y beneficios potenciales de poner en marcha DevOps en una organización, pero podemos destacar que: Desde un punto de vista comercial, DevOps consigue eficiencia en un objetivo muy común en marketing que es el time to market DevOps desacelera los ciclos de puesta en producción Al mantener un proceso constante de prueba y error de versiones sucesivas, es más complicado validar el software con los usuarios y también ampliar el impacto de los errores al fomentar su descubrimiento temprano.
En la estimación de costes debemos tener en cuenta una serie de ideas y variables como: Pasar por alto los gastos generales, y costes estructurales como las comunicaciones, el espacio físico, etc No tener en cuenta las horas extras, se abonen o no, o de lo que el convenio laboral regule, no tienen ningún impacto psicológico, económico, etc., ni en el trabajador ni en la empresa Tener controlado los gastos anexos a los recursos humanos como puedan ser las dietas, viajes, etc.
Dentro del funcionamiento de Scrum, los problemas comunes que siempre surgen entre personas (fricciones, envidias, egoísmos, etc.), tarde o temprano acabarán aflorando, por lo que se tendrán que adoptar algunas de estas medidas: El scrum máster no tiene la responsabilidad de tomar las conclusiones de la retrospectiva y le corresponde solo al CEO implantarlas lo antes y mejor posible Que el equipo sea volátil y se haya configurado exclusivamente para dicho proyecto y una vez finalizado no vuelvan a coincidir profesionalmente No es necesario que la organización crea en Scrum.
SSMS (Sql Server Management Studio) es: Un entorno integrado que facilita la administración de cualquier SQL Server, en la nube Un entorno integrado que facilita la administración de cualquier SQL Server, on premise Un entorno integrado que facilita la administración de cualquier SQL Server, tanto on premise como en la nube.
Dentro de las consultas, el álgebra relacional permite hacer operaciones sobre las tablas, las cuales son: Selección: Consiste en escoger determinadas columnas ignorando el resto Join: Consiste en escoger un subconjunto de filas de esa tabla y descartar el resto Selección: Consiste en escoger un subconjunto de filas de esa tabla y descartar el resto.
Algunas de las características de los Datawarehouse es que: Son un almacén de datos, bases de datos orientadas a las transacciones Están orientados a temas, por lo que todos los datos tienen que estar relacionados con el tema que se quiere analizar Volátil, dado que la información es de escritura.
La instalación por defecto de MySQL genera un usuario: Httpusr Root Admin.
MongoDB ofrece la posibilidad de replicación, es decir: Una manera de mantener copias exactas de los datos en distintos servidores Una manera de mantener copias exactas de los datos en distintos servidores, aunque puede suponer que los datos no estén a salvo Una manera de mantener copias exactas de los datos en distintos servidores, aunque mientras está la replicación las aplicaciones tienen que estar paradas.
Dentro de la gestión de la comunicación hay que incluir un informe de seguimiento que tendrá, como mínimo, los siguientes apartados: Realizaciones del periodo, planificación para el periodo siguiente, riesgos y cambios en el proyecto por el plan de mitigación El análisis de la comunicación, la explotación del conocimiento, los informes de la dirección y finalmente el cierre comercial Realizaciones del periodo, planificación para el periodo siguiente, problemas y cambios en el proyecto.
Dentro de la validación de esquemas tenemos el validation Level, que acepta dos valores, que son: ValidationAction y moderated Strict y validationAction Strict y moderated.
MongoDB: No tiene la libertad para ejecutarse en cualquier ámbito Está desarrollada por MongoDB, Inc desde el año 2007, bajo la licencia AGPL y es opensource Crece horizontalmente en base a sus características nativas.
MongoDB ofrece la posibilidad de limitar la cantidad de resultados que devuelve una consulta, usando el método: Limit QueryPlanner ExecutionStats.
Dentro de la codificación en MySQL tenemos: UTF8_spanish2_ci, que es la alfabetización tradicional del español UTF8_spanish_ci, que es la alfabetización tradicional del español UTF6_spanish2_ci, que es la alfabetización tradicional del español.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Delete, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo Delete, que agrega registros a una tabla Delete, que borra registros de una tabla.
La Expresión exacta o frase: Se hace a través de las comillas (“”) y puede ser muy útil Permite reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta Es de Tablas operativas y físicas.
Vinculado a los data warehouse están los data marts, que son: Bases de datos departamentales, que toman su contenido desde el data warehouse y que además crean data marts corporativos Bases de datos departamentales, que toman su contenido desde el data warehouse Bases de datos departamentales, que toman su contenido desde el data warehouse, pero no van a evitar que todos los usuarios y todas las consultas sean realizadas sobre el data warehouse.
El sistema de Alta Disponibilidad de MongoDB se llama: Replica Sets Clustering Backups.
La arquitectura básica de MapReduce es de tipo maestro / esclavo, por lo que se compone de dos elementos, que son: El servidor maestro y los servidores esclavos, uno por cada clúster donde se realizan todas las operaciones en paralelo El servidor maestro y los servidores esclavos, dos por cada clúster donde se realizan todas las operaciones en paralelo El servidor maestro y los servidores esclavos, tres por cada clúster donde se realizan todas las operaciones en paralelo.
El uso de Explain es donde se encuentran las estadísticas de la ejecución y dispondrán de ciertos parámetros que se podrán tener en cuenta a la hora de la optimización, tales como: NReturned, executionTimeMillisEstimate y docsExamined ExecutionStats, nReturned y docsExaminated QueryPlanner, nReturned, y docsExaminated.
El paquete más popular que incluye por defecto MySQL es: Fedora XAMPP, que además de la BB DD, incluye el servidor Apache, así como el lenguaje de programación PHP al que se le agregó posteriormente también la disponibilidad del lenguaje Perl FreeBSD.
En la complejidad y variedad de los gestores de bases de datos existen distintas formas, modelos o tipos que varían dependiendo del sistema, del entorno o las distintas funcionalidades que puedan ofrecer, pudiendo ser: Orientadas a un esquema, orientadas a una definición, orientadas a los datos y orientadas a objetos Bases de datos orientadas a la información, a campos de datos estructurados, a columnas definidas y multivalor Bases de datos orientadas a documentos, orientadas a Clave / Valor, orientadas a grafos, multivalor, datos tabulares, arrays, y orientadas a objetos.
Un SGBD cuenta con tres niveles de abstracción: Paquetes, informes, y módulos Planes, informes, y módulos Físico, conceptual y visión.
MongoDB, para hacer uso de MapReduce, proporciona la función: Db collection MapReduce() Db function MapReduce() Db query MapReduce().
En la manipulación de datos tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De 1 a 1: es cuando un elemento de una entidad se puede relacionar con varios elementos de otra entidad De 1 a 1: cuando dos o más elementos de una entidad se pueden relacionar con dos o más elementos de otra entidad De 1 a 1: cuando un elemento de una entidad solamente se puede relacionar con otro elemento de otra entidad.
Para la eliminación de elementos, MongoDB proporciona los métodos: DeleteOne y $not DeleteMany y $regex DeleteOne y deleteMany.
Dentro de la consola Mongo Shell Help tenemos diferentes comandos como: Para ver un listado de las BB DD existentes, podemos usar el comando show collections Show dbs, muestra un listado de las tablas disponibles Para obtener la lista de comandos básicos aplicables sobre las bases de datos, debemos hacer uso de la función “db help()”.
Asociado a la gestión de riesgo, tenemos las medidas preventivas y medidas que pueden utilizarse en un plan de contingencia, donde algunas de ellas podrían ser: Aumentar la estimación de las tareas colaterales, mantener reuniones regulares con el cliente, y ubicar al equipo de proyecto en la misma localización física La gestión del alcance, estimación del tiempo, disponibilidad de los recursos, máquinas y despedir a los especialistas formados La gestión del alcance, carencias en la planificación de la comunicación, probabilidad, eventos y descartar la implementación de los resultados del proyecto en fases sucesivas.
Las principales causas de un bajo rendimiento pueden ser un diseño pobre o la mala implementación de los índices. Para hacer un estudio de esta situación ejecutaremos el comando: (Secondary) Db runCommand ServerStatus.
Las dos bases de datos más populares en lo que es el paradigma NoSql y que presentan las ventajas comunes de superar el modelo relacional, aunque entre ellas también presentan diferencias, son: MongoDb y Cassandra MySQL y MariaDB Oracle y Siebel.
Dentro de la gestión de riesgos, tenemos un método sencillo para clasificarlos, utilizando una matriz donde distingamos entre la probabilidad de la ocurrencia de un riesgo (alta o baja) y el impacto que tendría dicho riesgo en caso de hacerse cierto (alta o baja), para de este modo tener: Probabilidad relativa e impacto alto, probabilidad relativa e impacto bajos, probabilidad suprema e impacto bajo y probabilidad extrema e impacto altos Riesgos asumibles y bloqueantes Probabilidad baja e impacto alto, probabilidad baja e impacto bajos, probabilidad alta e impacto bajo y probabilidad baja e impacto altos.
¿Cuál es el operador que se utiliza para eliminar un elemento de un array?: El operador $pull El operador $regex El operador $not.
Asociado al ciclo de vida de los proyectos, se elaborarán una serie de best practices que se irán alimentando según la experiencia, donde algunas de ellas podrían ser: Una primera fase de diseño del entregable final, partiendo de las especificaciones que a través de entrevistas y otros métodos se ha identificado que es lo que desea y necesita el usuario final No hará falta realizar las pruebas de la aplicación o sistema de información desarrollado Se procede a la construcción del entregable final, sin la necesidad de la validación del prototipo.
MongoDB BSON nos ofrece un mayor tipo de datos que JSON, teniendo soporte nativo para: Tratar todos los números como punto flotantes y para tipos enteros muy grandes existe NumberLong(), que posee 32 bits Show dbs, muestra un listado de las tablas disponibles Devolver las fechas, ya sea como un objeto de tipo Date o un String Date() nos devuelve la fecha actual como un String.
Para la gestión del riesgo y su cuantificación, alguna de las herramientas que se podrán utilizar serán: Los árboles de decisión, con una planificación agresiva y conservadora Diagramas de Gantt y Microsoft Project Con un simple Excel.
En la manipulación de datos, tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De 1 a 0 o muchos: cuando un elemento de una entidad solamente se puede relacionar con otro elemento de otra entidad De 1 a 0 o muchos: es cuando un elemento de una tabla se relaciona con ninguno o muchos elementos de otra De 1 a 0 o muchos: es cuando muchos elementos de una tabla se relacionan con ninguno o muchos elementos de otra.
Las bases de datos documentales: Son aquellas que tienen como característica común que la información se almacena en tablas interrelacionadas de manera organizada Empezaron almacenando textos, gráficos etc. Actualmente han evolucionado y son bases totalmente multimedia, donde se encuentran textos, sonidos, imágenes, dibujos o tablas integrados Por ejemplo serían Oracle y Siebel.
Dentro de la gestión de usuarios, tenemos al usuario root, que: Solo se le otorgarán privilegios de select Solo tiene acceso de lectura Puede crear, eliminar a cualquier usuario y modificar cualquier privilegio.
Los modelos basados en registros: Permiten organizar los datos en el nivel conceptual y en el físico, de forma que se diseña la organización de los datos desde una perspectiva lógica Permiten organizar los datos solo en el nivel conceptual, de forma que se diseña la organización de los datos desde una perspectiva lógica Permiten organizar los datos en el nivel visión y en el físico, de forma que se diseña la organización de los datos desde una perspectiva lógica.
Dentro de la gestión de riesgo, un modelo útil de plantilla podrían ser: Gestión del alcance, estimación del tiempo, disponibilidad de los recursos, y máquinas Gestión del alcance, carencias en la planificación de la comunicación, probabilidad, y eventos Estimación de horas perdidas, estimación de horas del riesgo, horas anteriores al riesgo, medidas preventivas y plan de contingencia.
Cuando tenemos un esquema creado y necesitamos añadir nuevas validaciones, utilizamos el método: Db runCommand() Strict ValidationAction.
La gestión de compras incluye todos los procesos necesarios para adquirir productos y servicios externos a la empresa, que sean necesarios para que el proyecto se pueda abordar en condiciones gracias a: Planificación de las compras, planificación de la petición, solicitud de compra, selección de proveedor, administración y cierre del contrato Realización, planificación, mitigación de los contratos y cierre contractual Análisis, explotación y finalmente el cierre contractual.
Los aspectos más destacados para que una empresa en su modelo apueste por Devops serían: El uso de DevOps también incrementa la insatisfacción de las personas, dado que produce agotamiento de los profesionales y DevOps desacelera los ciclos de puesta en producción DevOps y la computación en la nube actualmente son incompatibles DevOps y la computación en la nube son un tándem perfecto y aquellas empresas que conjugan ambos aspectos son todavía más eficientes.
La diferencia principal entre una base de datos y un archivo sería: Que en un archivo se organizan de acuerdo con un formato concreto, mientras que una base de datos los datos se estructuran no por el formato de varios registros, sino teniendo en cuenta un modelo de datos Que en una base de datos se organizan de acuerdo con un formato concreto, mientras que en un archivo se estructuran no por el formato de varios registros, sino teniendo en cuenta un modelo de datos Ninguna, puesto que el concepto y su función es lo mismo.
Los sistemas de información no deben ser una isla aislada en la empresa ya que su fin es ser un medio más para la competitividad empresarial, por lo que todo profesional relacionado con los sistemas debe: Comprender cómo es la cadena de valor del negocio y mantener un nivel de interlocución adecuado con todos los clientes externos Analizar y comprender a la perfección el entorno en el cual se desenvuelve su compañía Desarrollar una visión individualizada con un enfoque funcional, segmentado de acuerdo con la organización de la empresa.
Los procesos de gestión de los recursos humanos cubren todos los aspectos necesarios para conseguir una productividad máxima de todos los recursos involucrados en el proyecto: patrocinadores, clientes, consultores externos, equipo de proyectos, etc., dentro de los procesos de: Planificación organizativa, contratación de recursos y desarrollo del equipo Realización, planificación y mitigación de los equipos Análisis, explotación y finalmente cierre de los equipos.
Dentro de la gestión del tiempo para ordenar y visualizar adecuadamente las actividades podemos recurrir a una representación gráfica donde queden reflejadas principalmente: La tarea sucesora y tarea predecesora El Diagrama de Gantt, Dependencias y Recursos La tarea sucesora y tarea predecesora o aquella tarea que no puede comenzar o finalizar hasta que otra tarea comience o finalice.
Para saber cómo funciona Scrum, en primer lugar hay que tener en cuenta: Que Scrum necesita de un responsable de producto, o product owner. Quien ocupe este puesto será el responsable de marcar la visión y de que el diseño del producto que se quiere alcanzar una vez finalizado el proyecto cumpla con lo requerido Que necesitamos un equipo de proyecto con las competencias necesarias para desarrollar el trabajo y, por tanto, cualificado para seguir la hoja de ruta marcada por el propietario del producto Que hay que completar el equipo con el Scrum Master, siendo un miembro más del equipo y, por tanto, suele tener su propia carga de trabajo, pero al mismo tiempo, ayudará a otro líder a gestionar el proceso Scrum y conseguir que los resultados se alcancen.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Update, que agrega registros a una tabla Update, que borra registros de una tabla Update, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo.
El operador LIKE: Es cuando el valor de búsqueda siempre serán resultados nulos Es un operador de semejanza, que permite seleccionar valores en aquellas filas coincidentes con el valor dado Es lo mismo que el operador NOT LIKE.
Los índices en MongoDB: Son una manera de tomar un atajo para buscar alguna información, buscando en una lista ordenada para llegar a la información deseada, lo cual permite que la búsqueda sea rápida En collections muy grandes es un proceso muy lento No tienen nada que ver con los atributos, y tampoco van a hacer que las consultas sean más rápidas y eficientes.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Select, que permite buscar información dentro de la BB DD Select, que agrega registros a una tabla Select, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo.
Algunas de las tareas de mantenimiento de tablas que se pueden ejecutar con MySQL serían: Tabla de suma de comprobación, desfragmentar la tabla, vaciar la caché de la tabla, optimizar la tabla, etc El valor de búsqueda, resultados nulos, tabla de suma de comprobación, y desfragmentar la tabla NOT LIKE, tabla de suma de comprobación, y desfragmentar la tabla.
Dentro de las tareas en Trello se pueden recoger diversos ítems de información como: La Actividad, que recoge de forma cronológica e identificando a su autor, los eventos que han tenido lugar alrededor de una tarjeta El Checklist, que recoge de forma cronológica e identificando a su autor, los eventos que han tenido lugar alrededor de una tarjeta La Descripción, que es una característica muy interesante porque permite que aquellas tarjetas que reflejen tareas muy complejas puedan mostrar estados intermedios.
Para Puppet, empresa experta en la implantación de soluciones DevOps, los pasos básicos que hay que dar para asumir con éxito DevOps son: No hay que buscar el autoservicio, ya que hay procesos de aprovisionamiento que no conviene que estén automatizados sin necesidad de intervención humana, ni para el despliegue, ni tan siquiera para la contratación y aprobación económica Establecer herramientas de soporte que sean comunes a la organización, por ejemplo, utilizar un software de versionado que facilite controlar los cambios en el código fuente Procesos inmaduros de automatización del despliegue de la infraestructura con Devops.
Cuando creamos un usuario en MySQL, le podemos asignar permisos parciales, del tipo: Datos: GRANT, SUPER, RELOAD, PROCESS Datos: SELECT, INSERT, UPDATE, DELETE, FILE Datos: CREATE, ALTER, INDEX, DROP, SHOW VIEW.
Dentro de la gestión del cambio tenemos el origen de los problemas, que serán: Los motores de cambio en las organizaciones, y el grado elevado de incertidumbre Ignorancia, ingenuidad, o negligencia Participación y dependencia de grupos de personas muy heterogéneos.
El análisis DAFO nos permite determinar para cada proyecto de Big Data su análisis. En concreto, analiza: Déficits, Ajustes, Fomento y Opciones Debilidades, Acciones, Fortalezas y Oportunidades Debilidades, Amenazas, Fortalezas y Oportunidades.
En la manipulación de datos, tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De muchos a muchos: es cuando un elemento de una tabla se relaciona con ninguno o muchos elementos de otra De muchos a muchos: cuando un elemento de una entidad solamente se puede relacionar con otro elemento de otra entidad De muchos a muchos: es cuando dos o más elementos de una entidad se pueden relacionar con dos o más elementos de otra entidad.
Dentro de la gestión del tiempo, una de las consideraciones a tener en cuenta en la planificación, es la importancia de balancear los recursos disponibles para atender a varios proyectos al mismo tiempo, mediante estrategias de: Tiempo compartido y dedicación concentrada para que los recursos se repartan entre todos los proyectos en curso dentro de nuestro plan de operaciones y de ese modo finalizar todos ellos de forma simultánea en el tiempo Tiempo compartido y dedicación concentrada Tiempo dedicado y dedicación selectiva.
Los filtros en Access: Resultan muy útiles cuando se trabaja con tablas en las que se ha introducido mucha información, porque permiten visualizar de forma rápida los registros más interesantes Access no tiene filtros Tablas operativas y físicas.
El modelo de capas es un punto de partida, pero una plataforma de Big Data está en constante evolución para responder a los nuevos retos del negocio. Como enfoque para este crecimiento a largo plazo, se entiende el ciclo de madurez de un proyecto Big Data distribuido a lo largo de las siguientes etapas: En primer lugar, habría que definir la integración total entre la plataforma de Big Data y las capacidades de inteligencia artificial, de forma que muchos procesos analíticos sean completamente automatizados por dicha inteligencia artificial En primer lugar habría que potenciar las capacidades analíticas de la plataforma, dotando de inteligencia de forma incremental a las herramientas de explotación de datos En primer lugar, abordaremos el diseño y creación de la plataforma de datos con un enfoque ágil, que sea rápidamente funcional y que aporte valor a todos los segmentos de usuarios.
Dentro de la gestión del tiempo, una de las consideraciones a tener en cuenta en la planificación es: Muy recomendable, sobre todo en proyectos complejos, la utilización de un software de gestión de proyectos (tal vez el más conocido es Microsoft Project al cual le han surgido nuevos competidores como Trello o Asana) Innecesario el control de todos los cambios que se puedan producir en la planificación, la medición y seguimiento del proyecto, así como elaborar planificaciones adicionales Innecesario, sobre todo en proyectos complejos, la utilización de un software de gestión de proyectos.
Dentro de las bases de datos, NoSQL puede ser muy variada y clasificarse por diferentes criterios, como los datos documentales, los orientados a grafos, multivalor, donde algunos de los distintos tipos de BB DD y su clasificación serían las: De esquema, definición, datos y objetos Documentales, clave – valor, orientador a grafos, multivalor, NoSQL orientadas a objetos y tabulares De información, a campos de datos estructurados, a columnas definidas y multivalor.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Drop, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc Drop, que es el comando SQL que permite eliminar un objeto de la base de datos Drop, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc.
En la manipulación de datos, tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De muchos a 0 o muchos: cuando un elemento de una entidad solamente se puede relacionar con otro elemento de otra entidad De muchos a 0 o muchos: es cuando muchos elementos de una tabla se relacionan con ninguno o muchos elementos de otra De muchos a 0 o muchos: es cuando un elemento de una tabla se relaciona con ninguno o muchos elementos de otra.
MySQL es: Una solución de licenciamiento caro e incompatible con otros productos del mercado y que no soluciona los problemas de concurrencia Una respuesta abierta y libre a la problemática común de cómo gestionar los datos en sistemas informáticos, superando las limitaciones tradicionales que imponían el uso de los ficheros planos como herramienta de almacenamiento Una herramienta exclusiva para usuarios avanzados del lenguaje SQL.
La definición del alcance se puede representar gráficamente en varios formatos como: Pareto, Pentagrama y Formato de árbol ABC, Pentagrama y Formato de árbol Formato de Árbol, tabular y Diagrama de Gantt.
El perfil del jefe de proyecto es un perfil complejo, que debe contar con: Habilidades y competencias que le permitan ser solvente únicamente en la variable técnica Habilidades y competencias que le permitan ser solvente únicamente en la variable social Habilidades y competencias que le permitan ser solvente en las tres variables: técnicas, de gestión y de relación humana.
Asociado a la plataforma de datos y dentro de la estrategia de datos a la que darán soporte los distintos proyectos en cartera, para que sea adecuada debemos contemplar: Que el objetivo debe ser que los datos internos y externos a la organización, estén al servicio de la planificación y ejecución estratégica de la empresa Que la gestión financiera, si son proyectos estratégicos se puede pasar por alto su retorno de la inversión (ROI) Que los datos deben ser entendidos como una visión exclusivamente informática.
Dentro de las consultas, los operadores de truncamiento pueden ser de varios tipos: De resultados, de términos y de consulta De tablas de operativas y físicas De sufijo, de prefijo y de infijo.
Boehm determinó que los principales tipos de riesgos en los sistemas de información en un proyecto de Big Data y las respectivas fuentes donde se originan dichos riesgos son: Mantener un nivel de interlocución adecuado con todos los clientes externos Los recursos: planificación y/o presupuestos no realistas El segmentado de acuerdo con la organización de la empresa.
Dentro del perfil de la base de datos, el valor por defecto de la variable slowms sería: 10 milisegundos Realmente no existe un valor por defecto 100 milisegundos.
Los data warehouse se pueden diseñar con distintos esquemas, siendo estos: Esquema de estrella y la tabla de hechos Esquema de estrella y la tabla de hechos Departamentales y corporativos Departamentales y consultas.
Dentro de la plataforma de datos y de su evolución tenemos el modelo simplificado con tres etapas, donde: En la primera etapa, tendremos por objetivo captar todos los datos provenientes de los clientes En la primera etapa, comenzaremos a validar distintos modelos de conocimiento del cliente que expliquen sus patrones de compra En la primera etapa, es donde estaremos preparados tras obtener esos datos y generar el conocimiento adecuado, poder recomendar de forma eficaz, sin que el cliente perciba que lo vigilamos ni lo presionamos para la compra, porque en ese caso, el efecto de la recomendación será más perjudicial que beneficioso para los objetivos de la compañía.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Create es el comando SQL que permite eliminar un objeto de la bases de datos Create, que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc Create, que permite crear objetos de datos, como pueden ser nuevas bases de datos, tablas o vistas entre otros.
MySQL nos permite activar las estadísticas: Supondrá un incremento de velocidad entre el servidor web y el servidor MySQL Aunque puede causar tráfico pesado entre el servidor web y el servidor MySQL Pero no suele ser información interesante.
Los SIE -sistemas de información empresarial- deben abordarse desde un enfoque estratégico, al objeto de añadir valor al negocio y no centrarse exclusivamente en la reducción de costes, basándose en ideas como: Siempre hay una versión final de los sistemas, por lo que no es necesario que la plataforma esté en constante evolución No es necesario entender el feedback del cliente La fuente de innovación se centra en el negocio y no en la tecnología.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Truncate, que permite crear objetos de datos, como pueden ser nuevas bases de datos, tablas o vistas entre otros Truncate, que es el comando SQL que permite eliminar un objeto de la base de datos Truncate, que es el comando SQL que borra todo el contenido en una tabla, pero sin eliminar dicha tabla.
Algunas de las características que presenta MySQL, como SGDBR o sistema de gestión de base de datos relacional, serían: Multi usuario, Multi hilo, y Entorno Integrado Multi usuario, Multi hilo y tiene una versión comunitaria llamada Oracle Community Edition Multi usuario, Multi hilo, y no tiene versiones de pago.
Para la instalación de MongoDB tenemos que tener en cuenta: Que solo soporta la arquitectura de 32bits Que solo soporta la arquitectura de 64bits Que soporta tanto la arquitectura de 32 como de 64bits.
Hay herramientas más específicas para el área de tecnologías y sistemas, con matrices muy interesantes para la evaluación de los sistemas de información empresariales, donde: La primera clasifica cada sistema en 4 posibles categorías: sistemas para renovar, sistemas para mantener, sistemas para retirar y sistemas para reconsiderar La primera clasifica cada sistema en 4 posibles categorías: sistemas para Debilidades, sistemas para Acciones, sistemas para productos sustitutivos, y sistemas para Diversificación La primera clasifica cada sistema en 4 posibles categorías: sistemas para Déficits, sistemas para Ajustes, sistemas para Fomento, y sistemas para Amenazas.
Las transacciones tienen que cumplir los principios ACID, que son: Atomicidad, consistencia, aislamiento y durabilidad Aceleración, coherencia, almacenamiento y dedicación Atomicidad, coherencia, almacenamiento y durabilidad.
La gestión del alcance incluye: Inicio, Planificación, Pruebas, Definición, Verificación, Implantación y Control de cambios Inicio, Planificación, Pruebas, Validación, Verificación, Implantación y Control de cambios Inicio, Planificación, Definición, Verificación y Control de cambios.
Dentro de las consultas, NOT es un operador: Que permite reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta De tablas operativas y físicas Excluyente que permite recuperar aquellos documentos que no tengan los términos indicados.
Microsoft ofrece una versión gratuita de Sql Server denominada: Express Premise Cloud.
Cuando utilizamos SQL en Sql Server podemos aplicar funciones, que son muy frecuentes en los sistemas gestores de bases de datos, al objeto de reducir las líneas de código escritas. Los tres tipos de funciones serían: Escalares, tabla y agregadas Scalar, Begin y End Returns, Begin y end.
La gestión de la comunicación incluye todos los procesos necesarios para asegurar la generación, recogida, diseminación, almacenamiento y puesta a disposición de toda la información del proyecto de forma adecuada y en el momento justo, incluyendo: La planificación de la comunicación, la distribución de la información, los informes de seguimiento y finalmente el cierre administrativo El análisis de la comunicación, la explotación del conocimiento, los informes a la dirección y finalmente el cierre comercial La planificación de la comunicación, la distribución del conocimiento, los informes a la dirección y finalmente el cierre comercial.
SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Alter, que es el comando SQL que permite eliminar un objeto de la BB DD Alter, que es un comando SQL que borra todo el contenido en una tabla, pero sin eliminar dicha tabla Alter, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc.
Sql Server está disponible para plataformas: Windows, Linux y para el entorno libre Docker Solo Unix / Linux Solo Windows.
Los operadores de proximidad o NEAR: Son de Tablas operativas y físicas Permiten buscar términos que estén próximos, y por tanto en el mismo contexto Permiten reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta.
Algunas de las tendencias que cambian la forma en que las personas acceden y utilizan los datos, impulsan la necesidad de soluciones de almacenamiento de datos, modernas y construidas para la nube, siendo un ejemplo la de sustituir la planificación previa exhaustiva por la iteración rápida, que consistiría en: Que las consultas no ralenticen otras cargas de trabajo en el mismo momento en que surgen, donde los análisis basados en eventos requieren datos constantes Que la nube facilite la transferencia de datos de las aplicaciones al almacén de datos también en la nube de la organización, donde su escalabilidad y elasticidad pueden soportar mejor las fluctuaciones de los usuarios y las cargas de trabajo Que los avances en el almacenamiento y análisis de datos en la nube han hecho que la iteración rápida sea más práctica, a la vez que se preserva la precisión de los datos.
Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las bases de datos de grafos que son: Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave Las que trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados.
El concepto que nos propone Bill Inmon sobre el data warehouse es que son integradores, debido a: Que la información ni se borra ni se reemplaza, solo crece por lo que es de naturaleza histórica Que la información cubre un periodo de tiempo específico Que integran distintos sistemas para generar una vista panorámica sobre los datos de una empresa u organización.
La tecnología y la arquitectura de almacenamiento de datos han evolucionado para hacer frente a las demandas de la economía, basada en los datos con innovaciones como el procesamiento vectorial, que: Implica la división de una sola operación de computación para ejecutarla simultáneamente a través de un gran número de procesos informáticos separados Ofrece un rendimiento más rápido frente a las antiguas soluciones de almacenamiento de datos construidas hace décadas pensadas para una tecnología de hardware más antigua y lenta Ofrece acceso a un almacenamiento finito y de alto costo, una mejor escalabilidad, la subcontratación de la gestión y la seguridad del almacén de datos al proveedor de la nube y la posibilidad de pagar sólo por el almacenamiento.
El BI es: Un producto Un sistema Un término general que combina arquitecturas, aplicaciones y bases de datos.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Estrella, cuyas desventajas serían: Gran complejidad en las consultas, debido a que los datos están normalizados Los procesos para la integridad de los datos son muy difíciles de aplicar, debido a la redundancia de los datos Su rendimiento suele ser bajo, debido a los joins que se deben realizar en sus consultas.
Algunos de los factores clave en la estrategia de implantación de un CRM serían: No será necesario contar con perfiles complementarios alrededor de la estrategia de CRM (Estadísticos, marketing, tecnología, consultores, etc) Capacidad ejecutiva. No es necesario que la dirección ejecutiva se involucre y apoye el proyecto Capacidad ejecutiva. El primer paso es que la dirección ejecutiva se involucre y apoye el proyecto.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Estrella, cuyas ventajas serían: Las consultas son sencillas y no requieren operaciones de tipo join Muchas herramientas están optimizadas para el trabajo con este tipo de esquemas Ahorra espacio de almacenamiento.
Asociado a las tecnologías semánticas tenemos las Marcas HTML, que: Tienen como misión facilitar el desarrollo de dichos agentes, capaces de identificar y extraer información de la misma web Es un sistema de publicación de la web, donde mediante el lenguaje de marcas, podemos transmitir información textual y gráfica a las personas Es un programa capaz de extraer la información de las tablas de coste y horario de todas las webs de servicios públicos y privados de transporte.
Dentro del uso de Microsoft Excel, las fórmulas: No es posible introducir referencias a celdas de otras hojas en una fórmula No pueden escribirse directamente en las celdas, aunque resulta más sencillo hacerlo en la barra de fórmulas Pueden escribirse directamente en las celdas, aunque resulta más sencillo hacerlo en la barra de fórmulas.
La innovación es alguna de las áreas donde el almacén de datos en la nube puede mejorar significativamente las operaciones de una empresa, y consistiría: En que todos los datos de una empresa se almacenan en una multitud de BB DD dispares, por lo que el almacenamiento en la nube tendrá que velar por optimizar su extracción, almacenaje y análisis En la supervisión del comportamiento de los clientes en tiempo real puede ayudar a las organizaciones a adaptar los productos, servicios y ofertas especiales a las necesidades de cada uno de los consumidores individuales En que las organizaciones también pueden utilizar el streaming de datos para vigilar las señales de alerta temprana sobre problemas en el servicio de atención al cliente o deficiencias de los productos.
Algunas de las ventajas del uso de OLAP serían: El habilitar la comparación de cualquier tipo de variable a través del tiempo, fuertes inversiones en el área de sistemas y la formación de los equipos, y aumento del CAPEX / OPEX El incremento en la productividad para los usuarios finales, Control sobre los datos corporativos, Reducción del tráfico generado por queries a diferencia de lo que ocurre en los data warehouse y el Aumento en la rentabilidad La ayuda para ver los datos de una manera flexible en distintas dimensiones, reducción de los equipos de sistemas, aumento del número de programadores en las áreas de Desarrollo y reciclado del personal de sistemas.
La mayoría de las organizaciones que inician su estrategia de intercambio y compartición de datos siguen un roadmap similar, donde por ejemplo el Servicio de Datos se referiría a: Cuando la empresa aprovecha los conjuntos de datos internos para ofrecer también a los clientes servicios de enriquecimiento, modelización y el análisis de datos La colaboración interna, perspectiva de negocios, análisis de clientes, analítica avanzada, servicio de datos e intercambio de datos Cuando se disponen de datos más completos gracias a la mejora en la colaboración y se impulsa una mejor comprensión del negocio, ya que el intercambio de datos se convierte en la norma.
La mayoría de las organizaciones que inician su estrategia de intercambio y compartición de datos siguen un roadmap similar, donde por ejemplo el Análisis de Clientes se referiría a: La colaboración interna, perspectiva de negocios, análisis de clientes, analítica avanzada, servicio de datos e intercambio de datos Cuando la compañía realiza su tarea de análisis de cara al cliente, para mejorar el valor de un producto o servicio Cuando se disponen de datos más completos gracias a la mejora en la colaboración y se impulsa una mejor comprensión del negocio, ya que el intercambio de datos se convierte en la norma.
El CRM contemporáneo es un nuevo modelo de gestión basado en: El siguiente orden: conocer a los clientes, objetivos, alineamiento y ejecución La gestión y el diseño en los sistemas El diseño, desarrollo, pruebas e implantación.
El CRM no consiste simplemente en comprar un software, como una base de datos, para grabar información sobre nuestros clientes. El CRM pretende que: Toda la empresa funcione, se alinee y oriente alrededor del concepto clave que es el de cliente Toda la empresa funcione, se alinee y oriente alrededor del concepto clave que son los sistemas Se implante una estrategia desfocalizada en el cliente.
Las innovaciones tecnológicas pueden mejorar el almacenamiento de datos y la analítica en lo que respecta a la disponibilidad, la simplicidad, el coste y el rendimiento, donde algunas de las tecnologías claves, han sido el almacenamiento en columna, cuyas características son: La mejora considerable de la eficiencia y el rendimiento del almacenamiento, la recuperación y el análisis de los datos, lo que permite a los usuarios del sistema un acceso más rápido a los resultados El almacenamiento en columna, y NoSQL Las propiedades como recursos ilimitados, punto de integración natural, y estrategia centrada en los datos.
Las diversas opciones de almacenamiento de datos en la nube se agrupan generalmente en: Las últimas tecnologías y arquitecturas, aumento de coste inicial, configuración de hardware y software y aumento de la infraestructura necesaria La división de una sola operación de computación para ejecutarla simultáneamente, gran número de procesos informáticos separados, multihilos, y multinstancia El software tradicional de almacenamiento de datos desplegado en la infraestructura de la nube, almacén de datos tradicional alojado y gestionado en la nube por un tercero, en forma de servicio gestionado, y almacén de datos SaaS.
Dentro de la tecnología OLAP tenemos la Inteligencia Temporal que se referiría a: Que todo tipo de estudios estadísticos están ligados a los sistemas OLAP como promedios, medias móviles etc La ayuda para ver los datos de una manera flexible en distintas dimensiones, por ejemplo: ventas por región, ventas por representantes de ventas, ventas por categorías de productos, etc Habilitar la comparación de cualquier tipo de variable a través del tiempo; por ejemplo, el mes actual versus el mes anterior.
Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las Multidimensionales que son: Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave Trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila.
El principal problema de las bases de datos de grafos está en la carencia de mecanismos estándares que permiten realizar ciertas tareas como: La falta de potencia Consultas complejas en la base de datos de grafo. Estas bases de datos no tienen un lenguaje estándar de consulta Disponen de un mecanismo que nos permite describir cuales son las relaciones permitidas y las relaciones prohibidas entre dos tipos de nodos.
Los sistemas de televenta y telemarketing ayudan en el proceso de automatización de diversas tareas rutinarias de un call center, buscando un incremento de la eficiencia basado en el mejor aprovechamiento de cada llamada que se recibe y que se emite, gracias a la aplicación de: Puestos de trabajo y BackOffice Argumentarios, Argumentarios inteligentes, upselling y Cross selling Visión global, clientes y Argumentarios.
Las innovaciones tecnológicas pueden mejorar el almacenamiento de datos y la analítica en lo que respecta a la disponibilidad, la simplicidad, el coste y el rendimiento, donde algunas de las tecnologías claves, ha sido la tecnología NoSQL, cuyas características son: Un enfoque de bases de datos alternativo al SQL que describe una tecnología que permite el almacenamiento y análisis de nuevas formas de datos, como los datos generados por máquinas y por medios sociales, para enriquecer y ampliar los datos analíticos de una organización La mejora considerable de la eficiencia y el rendimiento del almacenamiento, la recuperación y el análisis de los datos, lo que permite a los usuarios del sistema un acceso más rápido a los resultados Que a diferencia de las unidades de disco duro (HDD), las SSD almacenan datos en chips de memoria flash, que aceleran el almacenamiento, la recuperación y el análisis de los datos.
Se podría decir que OLAP y data mining son herramientas: Incompatibles una de la otra Complementarias una de la otra, aunque OLAP se ofrece al usuario de una manera distinta a la que ya conocemos de data mining Complementarias una de la otra, aunque OLAP resume datos y realiza pronósticos.
El data warehouse está conformado por tres elementos fundamentales. El Load Manager es: El encargado de conectar los datos con el usuario final, haciendo uso de herramientas especializadas, al estilo de herramientas de data mining El encargado de la carga de los datos provenientes de otras fuentes tales como ERP, sistemas, aplicaciones, etc La parte de data warehouse que se encarga de gestionar la enorme cantidad de datos.
La experiencia de cliente es alguna de las áreas en las que el almacén de datos en la nube puede mejorar significativamente las operaciones de una empresa y consistiría: En la supervisión del comportamiento de los clientes en tiempo real, que puede ayudar a las organizaciones a adaptar los productos, servicios y ofertas especiales a las necesidades de cada uno de los consumidores individuales En supervisar el negocio y analizar los acontecimientos para identificar dónde puede una organización reducir los costes, aumentar los márgenes, agilizar los procesos y responder a las fuerzas del mercado con mayor rapidez En que las organizaciones también pueden utilizar el streaming de datos para vigilar las señales de alerta temprana sobre problemas en el servicio de atención al cliente o deficiencias de los productos.
Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan: Bases de datos relacionales, bases de datos de grafos, Multidimensionales y Limite Técnico Ontología de inteligencia, bases de datos de valor y bases de datos de extracción de información Bases de datos de referencia, bases de datos de valor y bases de datos de fórmulas.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Estrella, que tiene las siguientes características: Rendimiento óptimo en las consultas ya que no hay necesidad de realizar joins y es una estructura simple de entender Nivel bajo de redundancia de datos Mayor integridad en los datos.
Decimos que una característica de la inteligencia es humilde cuando: Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización.
La tecnología OLAP presenta las siguientes características: Vistas complementarias, resumen de datos y realización de pronósticos Vista multidimensional de los datos, Inteligencia temporal y soporte de cálculos complejos Vista incremental, rentabilidad y control.
Para aplicar una fórmula siempre será necesario definir una serie de operadores, siendo estos aquellos signos o símbolos que permiten relacionar varias celdas o rangos produciendo un resultado. En Excel, estos operadores se pueden clasificar en categorías, donde por ejemplo los operadores de referencia serían aquellos: Solo aplicables a datos numéricos Que combinan varias referencias de celda en una sola Aplicables a datos numéricos y de texto.
Dentro del BI tenemos varios conceptos que serían: Transformación y carga (ETL), sistemas de procesamiento de transacciones en línea (OLTP) y almacenes de datos (data warehouse) Transformación y carga (OLTP), sistemas de procesamiento de transacciones en línea (ETL) y almacenes de datos (data warehouse) Transformación y carga (Datamart), sistemas de procesamiento de transacciones en línea (ETL) y almacenes de datos (data warehouse).
Algunas de las tendencias que cambian la forma en que las personas acceden y utilizan los datos, impulsan la necesidad de soluciones de almacenamiento de datos, modernas y construidas para la nube. Una de ellas sería por ejemplo, la de integrar el análisis, que consistiría en: Las consultas no ralenticen otras cargas de trabajo en el mismo momento en que surgen, donde los análisis basados en eventos requieren datos constantes Que los avances en el almacenamiento y análisis de datos en la nube han hecho que la iteración rápida sea más práctica, a la vez que se preserva la precisión de los datos Que la nube facilite la transferencia de datos de las aplicaciones al almacén de datos también en la nube de la organización, donde su escalabilidad y elasticidad pueden soportar mejor las fluctuaciones de los usuarios y las cargas de trabajo.
Podemos clasificar los datamarts en tres tipos: Semejantes a los de otros productos como Oracle y Siebel Dependientes, independientes e híbridos Informacionales, interrelacionados y organizados.
El concepto que nos propone Bill Inmon sobre el data warehouse es: Que se trata de informacionales, interrelacionados y organizados Que es una colección de datos, no volátil, variante en el tiempo, integrada y orientada a algún asunto útil para la mejora de la toma de decisiones Una serie de bases de datos como por ejemplo Oracle y Siebel.
La tecnología y la arquitectura de almacenamiento de datos han evolucionado para hacer frente a las demandas de la economía, basada en los datos con innovaciones como las unidades de estado sólido – SSD, que: Ofrecen acceso a un almacenamiento finito y de alto costo, una mejor escalabilidad, la subcontratación de la gestión y la seguridad del almacén de datos al proveedor de la nube y la posibilidad de pagar sólo por el almacenamiento A diferencia de las unidades de disco duro (HDD), las SSD flash, lo que acelera el almacenamiento, la recuperación y el análisis de los mismos Implica la división de una sola operación de computación para ejecutarla simultáneamente a través de un gran número de procesos informáticos separados.
Dentro de la evolución de Data Warehouse, el almacenamiento de datos en la nube es: La división de una sola operación de computación para ejecutarla en serie a través de un gran número de procesos informáticos agrupados Una forma rentable para que las empresas aprovechen las últimas tecnologías y arquitecturas sin el enorme coste inicial de comprar, instalar y configurar el hardware, el software y la infraestructura necesarios Una forma costosa para que las empresas aprovechen las últimas tecnologías y arquitecturas con un enorme coste inicial de comprar, instalar y configurar el hardware, el software y la infraestructura necesarios.
El data warehouse está conformado por tres elementos fundamentales: Marketing, Sales y Strategic Marts Operational Systems, Integration Layer y Data Marts El load manager, Warehouse Manager, y el Data Access Manager.
Las soluciones de automatización de fuerza de ventas deben: Exclusivamente ser un proceso para la reducción de puestos de trabajo en los BackOffice Ordenar y aportar datos de marketing y de los rivales a la fuerza de ventas y coordinar las tareas del equipo de trabajo en el área de ventas Tener únicamente una visión global de todos y cada uno de los clientes.
La mayoría de las organizaciones que inician su estrategia de intercambio y compartición de datos siguen un roadmap similar, donde por ejemplo la Analítica Avanzada se referiría a: Cuando a medida que los clientes solicitan más datos, la compañía desarrolla servicios analíticos personalizados, para proporcionar a los clientes mayor valor de sus datos Cuando se disponen de datos más completos gracias a la mejora en la colaboración y se impulsa una mejor comprensión del negocio, ya que el intercambio de datos se convierte en la norma La colaboración interna, perspectiva de negocios, análisis de clientes, analítica avanzada, servicio de datos e intercambio de datos.
Un cubo OLAP se puede ver como: Iteraciones sobre transacciones Una instantánea de los datos únicamente en el pasado Una instantánea de los datos en un periodo específico de tiempo, que puede ser al final de cierto día, semana, mes del año.
La IA: Actualmente es igual que el BI, es decir, solo cubre las necesidades de grandes corporaciones, no siendo soluciones válidas para pequeñas y medianas empresas Ya se encuentra completamente fusionada a nivel de aplicaciones con el BI Se ha utilizado en las aplicaciones comerciales desde los años ochenta, y se utiliza ampliamente para la solución de problemas complejos.
La mayoría de las organizaciones que inician su estrategia de intercambio y compartición de datos siguen un roadmap similar, donde por ejemplo el Intercambio de datos se referiría a: La colaboración interna, perspectiva de negocios, análisis de clientes, analítica avanzada, servicio de datos e intercambio de datos Cuando la empresa busca formas de mejorar sus productos basados en datos mediante la obtención de datos externos y ofrecer sus productos y servicios basados en datos a un público más amplio, por lo general, a través de un mercado de datos o intercambio de datos Cuando se disponen de datos más completos gracias a la mejora en la colaboración y se impulsa una mejor comprensión del negocio, ya que el intercambio de datos se convierte en la norma.
Una empresa que pretenda abordar la puesta en marcha de un sistema CRM de forma independiente o contando con alguno de los principales fabricantes del mercado debe contemplar los siguientes pasos para incrementar las posibilidades de éxito: Creación de un comité, capacidad ejecutiva, la dirección ejecutiva, gestión de proyectos Análisis del proyecto comercial, diseño y puesta en marcha del CRM, paquetes informáticos, involucrar a los distintos usuarios potenciales del sistema, implementación de la nueva tecnología, y Automatización del CRM Perfiles complementarios, estrategia, marketing, tecnología, consultores, etc.
La tecnología y la arquitectura de almacenamiento de datos, han evolucionado para hacer frente a las demandas de la economía basada en los datos con innovaciones como el procesamiento paralelo masivo, que: Implica la división de una sola operación de computación para ejecutarla simultáneamente a través de un gran número de procesos informáticos separados Ofrece acceso a un almacenamiento finito y de alto costo, una mejor escalabilidad, la subcontratación de la gestión y la seguridad del almacén de datos al proveedor de la nube Ofrece un rendimiento más lento frente a las antiguas soluciones de almacenamiento de datos construidas hace décadas pensadas para una tecnología de hardware más antigua y flexible.
Los beneficios de la implementación de un CRM serían: Incremento de las ventas, basado en que hemos podido asignar más recursos a los clientes más rentables y que hemos sido capaces de desarrollar procesos de cross selling y up selling Descenso del margen de cada venta y de los márgenes comerciales generales debido al incremento del trabajo por parte del área comercial Ratios de éxito comercial más bajos, porque con la información recopilada de los clientes se ha incrementado el trabajo del personal y es complicada la adecuación de las variables del marketing a cada uno de los segmentos.
El concepto que nos propone Bill Inmon sobre el data warehouse es que son variantes en el tiempo, debido a: Que la información no se borra ni se reemplaza, solo crece por lo que es de naturaleza histórica Que la información cubre un periodo de tiempo específico Que integran distintos sistemas para generar una vista panorámica sobre los datos de una empresa u organización.
En los sistemas de información usados en aplicaciones de inteligencia nos solemos encontrar los siguientes sistemas de persistencia: Bases de datos relacionales, bases de datos de grafos y bases de datos multidimensionales Bases de datos tradicionales, bases de datos de almacenamiento y bases de datos de nodos Bases de datos tradicionales, bases de datos de almacenamiento y bases de datos de valores únicos.
Existen diferentes enfoques de la nube a la hora de albergar datos, que difieren significativamente en cómo ofrecen sus capacidades de almacenamiento, como IaaS –Infraestructura como Servicio–: Que requiere que el cliente instale el software tradicional de almacenamiento de datos en los servidores proporcionadas por el proveedor de la nube Donde el proveedor del almacén de datos proporciona el hardware y el software como un servicio en la nube y es él quien gestiona el despliegue de hardware, la instalación del software y la configuración del mismo Donde la tarea de comprar, desplegar y configurar el centro de procesamiento de datos, con todo lo que ello implica, como la adquisición del hardware para soportar el almacén de datos, se transfiere del cliente al proveedor.
Dentro de los tipos de los datamarts, los independientes serían: Los que no están relacionados con el almacén de datos principal y se usan comúnmente en departamento pequeños de la empresa Los que nos permitirán almacenar nuestros datos de forma centralizada Los que usan varios tipos de fuentes para sus datos, tales como el data warehouse de la empresa y los suyos propios.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Medida, que consistiría en: Un conjunto de datos asociados, compuestos por medidas y dimensiones Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos Una colección de información sobre un evento que se puede medir.
El data warehouse está conformado por tres elementos fundamentales. El Warehouse Manager es: El encargado de la carga de los datos provenientes de otras fuentes tales como ERP, sistemas, aplicaciones, etc El encargado de conectar los datos con el usuario final, haciendo uso de herramientas especializadas, por ejemplo, herramientas de data mining La parte de data warehouse que se encarga de gestionar la enorme cantidad de datos.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes: Carga, datos y fuentes Dimensión, medida y tabla de hechos Cantidad, datos y tabla de Hechos.
Dentro de los tipos de datamarts, los dependientes serían: Los que usan varios tipos de fuentes para sus datos, tales como el data warehouse de la empresa y los suyos propios Los que nos permitirán almacenar nuestros datos de forma centralizada Los que no están relacionados con el almacén de datos principal y se usan comúnmente en departamento pequeños de la empresa.
Algunas de las fortalezas del uso de OLAP serían: La ayuda para ver los datos de una manera flexible en distintas dimensiones, reducción de los equipos de sistemas, aumento del número de programadores en las áreas de Desarrollo y reciclado del personal de sistemas El habilitar la comparación de cualquier tipo de variable a través del tiempo, sistemas más robustos y personal más cualificado Que es una herramienta de visualización muy poderosa, excelente para el análisis temporal, rápido, interactivo y con un alto nivel de respuesta, y de mucha utilidad para identificar clústeres y anomalías.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Galaxia, cuyas ventajas serían: Promueve la reutilización de datos, ya que las dimensiones se pueden compartir con las distintas tablas de hechos Las consultas son rápidas Las consultas son sencillas y no requieren operaciones de tipo join.
El BI aprovecha los componentes ya desarrollados e instalados de las tecnologías de la información para ayudar a las empresas a: Reutilizar sus inversiones informáticas impactando en su ROI Reutilizar su logística impactando en su ROE Reutilizar sus RRHH impactando en su ROE.
El data warehouse está conformado por tres elementos fundamentales. El Data Access Manager es: La parte de data warehouse que se encarga de gestionar la enorme cantidad de datos El encargado de conectar los datos con el usuario final, haciendo uso de herramientas especializadas, al estilo de herramientas de data mining El encargado de la carga de los datos provenientes de otras fuentes tales como ERPs, sistemas, aplicaciones, etc.
Dentro de las bases de datos departamentales, tenemos HCM (Human Capital Management), que son: Sistemas con una clara orientación a la gestión, incluyendo procesos como la administración de las nóminas, la contabilidad de costes y otras políticas y procedimientos vinculados al personal Sistemas de gestión del capital humano Soluciones software que, además de incorporar las capacidades y funciones más comúnmente disponibles en los HCM, aportan una funcionalidad completa para la gestión salarial y las compensaciones o la llevanza del control horario.
Las fórmulas en Excel se pueden entender como: Cualquier expresión introducida fuera de una celda Un conjunto de datos relacionados mediante operadores y precedidos de un signo igual, que dan como resultado otro valor Cualquier expresión introducida dentro de una celda, y que no tenga los siguientes elementos: Comience por un signo igual, Valores constantes, celdas o rangos con los que pueda operar y Operadores que conecten los valores.
MapReduce dentro del procesamiento distribuido está compuesto por pasos principales: Testear y mapear Simplificar e implantar Mapear y reducir.
En las tendencias actuales, surgen los desarrollos de una base de datos semántica con almacenamiento distribuido entre una red de ordenadores, junto con sistemas de extracción de información y un conjunto de ontologías de aplicación en el ámbito del negocio concreto de la empresa que la utilice. Todo ello basado en la integración de la novedosa tecnología semántica para el procesado de datos en inteligencia. Este tipo de productos integra tres tecnologías clave bajo un mismo entorno, cada una de las cuales resuelve un problema esencial en los sistemas de inteligencia de negocio, que son: Bases de datos de referencia, Sistemas de valor y Sistemas de extracción de información Bases de datos de referencia, Sistemas de valor y Construcción de fórmulas Bases de datos semánticas, datos y las reglas lógicas y por último los Sistemas de extracción de información.
La tecnología y la arquitectura de almacenamiento de datos han evolucionado para hacer frente a las demandas de la economía basada en los datos con innovaciones como la nube, que: Implica la división de una sola operación de computación para ejecutarla simultáneamente a través de un gran número de procesos informáticos separados Ofrece un rendimiento más lento, frente a las antiguas soluciones de almacenamiento de datos construidas hace décadas pensadas para una tecnología de hardware más antigua e inflexible Ofrece acceso a un almacenamiento casi infinito y de bajo costo, una mejor escalabilidad, la subcontratación de la gestión y la seguridad del almacén de datos al proveedor de la nube, y la posibilidad de pagar sólo por el almacenamiento y los recursos informáticos realmente utilizados.
OLAP es: Un paradigma de diseño que no parte de la información conjunta de múltiples sistemas Un paradigma de diseño que busca patrones ocultos en los datos Un paradigma de diseño que nos provee de métodos para la extracción de información útil de un almacén de datos.
Existen diferentes enfoques de la nube a la hora de albergar datos, que difieren significativamente en cómo ofrecen sus capacidades de almacenamiento. Son los siguientes: IaaS, RaaS, y PaaS IaaS, TaaS, y PaaS IaaS, PaaS, y SaaS.
La tecnología y la arquitectura de almacenamiento de datos han evolucionado para hacer frente a las demandas de la economía basada en los datos con las siguientes innovaciones: La nube, procesamiento paralelo masivo, almacenamiento columnar, procesamiento vectorial y unidades de estado sólido – SSD La nube, procesamiento paralelo masivo, disaster recovery, alta disponibilidad, procesamiento vectorial y unidades de estado sólido – SSD La producción de la información, servidores web, servidores aplicaciones, downsizing y sizing.
Para implantar una solución CRM, es vital la tecnología que facilitará: Exclusivamente un sistema de ventas con una función únicamente interna Descartar la información para entender mejor a nuestros clientes Contar con una base de datos en la que albergar toda la información relativa a cada cliente.
Dentro de las bases de datos departamentales, tenemos HRIS -Human Resources Information Systems-, que son: Soluciones software que, además de incorporar las capacidades y funciones más comúnmente disponibles en los HCM, aportan una funcionalidad completa para la gestión salarial y las compensaciones o la llevanza del control horario Sistemas con una clara orientación a la gestión, incluyendo procesos como la administración de las nóminas, la contabilidad de costes y otras políticas y procedimientos vinculados al personal Sistemas de gestión del capital humano.
Dentro de los tipos de los datamarts, los híbridos serían: Los que no están relacionados con el almacén de datos principal y se usan comúnmente en departamento pequeños de la empresa Los que nos permitirán almacenar nuestros datos de forma centralizada Los que usan varios tipos de fuentes para sus datos, tales como el data warehouse de la empresa y los suyos propios.
Algunas de las tendencias que cambian la forma en que las personas acceden y utilizan los datos e impulsan la necesidad de soluciones de almacenamiento de datos modernas y construidas para la nube, siendo una de ellas la de aprovechar la elasticidad para permitir el análisis que permite: Que los avances en el almacenamiento y análisis de datos en la nube han hecho que la iteración rápida sea más práctica, a la vez que se preserva la precisión de los datos Que las consultas no ralenticen otras cargas de trabajo en el mismo momento en que surgen, donde los análisis basados en eventos requieren datos constantes Que la nube facilite la transferencia de datos de las aplicaciones al almacén de datos también en la nube de la organización, donde su escalabilidad y elasticidad pueden soportar mejor las fluctuaciones de los usuarios y las cargas de trabajo.
Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las bases de datos relacionales que son: Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados Las que trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila.
Según el profesor argentino Piscitelli en sus charlas TED, muchos Sistemas de Información y modelos de Gestión han fracasado en muchas organizaciones, por no tener en cuenta: Todos los aspectos relacionados con sus no-clientes, en lugar saber lo que ya conocen sobre sus clientes Las necesidades informativas de las organizaciones y su cultura digital, son fijas e inmutables en el tiempo, es decir, las necesidades de una empresa son iguales ahora que el siglo pasado Que lo único importante son los cuadros de mando integrales y palancas financieras.
Asociado al uso de Microsoft Excel es frecuente que con el uso de las fórmulas se puedan dar los siguientes errores: Campos Conceptos Fórmulas.
La tecnología y la arquitectura de almacenamiento de datos han evolucionado para hacer frente a las demandas de la economía, basada en los datos con innovaciones como el almacenamiento columnar, que: Ofrece acceso a un almacenamiento finito y de alto costo, una mejor escalabilidad, la subcontratación de la gestión y la seguridad del almacén de datos al proveedor de la nube y la posibilidad de pagar sólo por el almacenamiento y los recursos informáticos realmente utilizados Producen que un usuario puede consultar un solo elemento de datos, sin tener que leer todo lo demás en cada registro Implica la división de una sola operación de computación para ejecutarla simultáneamente a través de un gran número de procesos informáticos separados.
En los sistemas de información usados en aplicaciones de inteligencia nos solemos encontrar los siguientes sistemas de persistencia, donde las bases de datos relacionales son: Una solución tecnológicamente inmadura Una solución en vías de implantar en los sistemas de información actuales Una solución tecnológicamente madura y altamente implantada en los sistemas de información actuales.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Copo de Nieve - Snowflake, que tiene las siguientes características: Tiene un muy buen rendimiento en las consultas ya que no hay necesidad de realizar joins y es una estructura simple de entender Nivel bajo de redundancia de datos y Mayor integridad en los datos Su implementación suele demorarse, debido a la necesidad de la desnormalización.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Tabla de Hechos, que consistiría en: Un conjunto de datos asociados, y está compuesta por medidas y dimensiones Una colección de información sobre un evento que se puede medir Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos.
RPA (Robotic Process Automation) tiene dos funciones principales desde el punto de vista de los datos: Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados, pero sin ninguna trazabilidad para identificar los fallos y mejorar el rendimiento de los Bots Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados, pero no ayuda a la recopilación de datos Ayuda a crear metadatos y habilita el acceso a los datos de los sistemas heredados.
Las empresas que buscan implementar un sistema de BI deben asegurarse: De que solo de que se dispone del presupuesto necesario De investigar a fondo sus necesidades Solo de que se dispone de los recursos humanos necesarios para su implantación.
La disponibilidad de los Datawarehouse es un factor que hay que tener en cuenta respecto al de las actualizaciones de los programas informáticos. Diferentes proveedores adoptan diferentes enfoques durante la actualización como por ejemplo, Básico, en el que: El proveedor proporciona actualizaciones transparentes sin involucrar a los usuarios, ni someterlos a ningún tiempo de inactividad El proveedor gestiona las actualizaciones e informa a los usuarios de las próximas actualizaciones, para que puedan planificar el tiempo de inactividad, persiguiendo que afecta lo menos posible a la actividad laboral Los clientes administran las actualizaciones y el tiempo de inactividad relacionado. Por ejemplo, decidiendo en qué horario es menos perjudicial para los usuarios llevar a cabo la actualización.
La web semántica, diseñada por Tim Berners Lee y su grupo de trabajo en la W3C: Trata de facilitar el borrado de datos e información de Internet Trata de facilitar la extracción de datos e información de Internet Trata de facilitar la inserción de datos e información de Internet.
Algunas de las desventajas de los DataMart serían: Que si lo comparamos con un data warehouse, implementar un DataMart es mucho más económico Responden más rápidamente y las operaciones sobre lo datos, tales como su limpieza, carga, transformación e integración son mucho más rápidas, ya que se trabaja con un menor volumen de datos La integración de los datos puede ser un problema a futuro.
La disponibilidad de los Datawarehouse es un factor que hay que tener en cuenta respecto al de las actualizaciones de los programas informáticos. Diferentes proveedores adoptan diferentes enfoques durante la actualización como por ejemplo, Óptimo, donde: El proveedor gestiona las actualizaciones e informa a los usuarios de las próximas actualizaciones, para que puedan planificar el tiempo de inactividad, persiguiendo que afecta lo menos posible a la actividad laboral Los clientes administran las actualizaciones y el tiempo de inactividad relacionado. Por ejemplo, decidiendo en qué horario es menos perjudicial para los usuarios llevar a cabo la actualización El proveedor proporciona actualizaciones transparentes sin involucrar a los usuarios, ni someterlos a ningún tiempo de inactividad.
Existen diferentes enfoques de la nube a la hora de albergar datos, que difieren significativamente en cómo ofrecen sus capacidades de almacenamiento, como SaaS –Plataforma como Servicio–: Donde la tarea de comprar, desplegar y configurar el centro de procesamiento de datos, con todo lo que ello implica, como la adquisición del hardware para soportar el almacén de datos, se transfiere del cliente al proveedor Que requiere que el cliente instale el software tradicional de almacenamiento de datos en los servidores proporcionadas por el proveedor de la nube Donde el proveedor del almacén de datos proporciona el hardware y el software como un servicio en la nube y es él quien gestiona el despliegue de hardware, la instalación del software y la configuración del mismo.
Dentro de la evaluación de la seguridad de los datos en la nube, las siguientes serían una serie de premisas que hay que cumplir: Las ofertas básicas de almacenamiento de datos en la nube proporcionan solo algunas capacidades de seguridad, dejando cosas como la encriptación, el control de acceso y el monitoreo de seguridad en manos del cliente Si la empresa cliente no cumple con sus responsabilidades, no influirá en la acción de haber trasladado los datos a la nube Las ofertas de data warehouse en la nube que están más orientadas a la modalidad SaaS incorporan menos características de seguridad y proporcionan encriptación.
Dentro de las bases de datos departamentales, tenemos HRMS -Human Resources Management Systems-, que son: Sistemas con una clara orientación a la gestión, incluyendo procesos como la administración de las nóminas, la contabilidad de costes y otras políticas y procedimientos vinculados al personal Soluciones software que, además de incorporar las capacidades y funciones más comúnmente disponibles en los HCM, aportan una funcionalidad completa para la gestión salarial y las compensaciones o la llevanza del control horario Sistemas de gestión del capital humano.
Los percentiles son: Los 99 valores que resultan de la división de los datos en 100 partes iguales, siendo cada una de ellas el 1 %, 2 % Las partes que se consideren siempre y cuando estén en orden decreciente Los dos valores que resultan de la división de los datos en dos partes iguales, siendo cada una de ellas el 50 % del total de datos.
Dentro de la tecnología OLAP tenemos el Soporte de Cálculos Complejos que se referiría a: Que todo tipo de estudios estadísticos están ligados a los sistemas OLAP como promedios, medias móviles etc Habilitar la comparación de cualquier tipo de variable a través del tiempo; por ejemplo, el mes actual versus el mes anterior La ayuda para ver los datos de una manera flexible en distintas dimensiones, por ejemplo: ventas por región, ventas por representantes de ventas, ventas por categorías de productos, etc.
El modelado de los datos es parte fundamental: Del diseño de cualquier sistema de información, programa, aplicación u otra estructura en la que debamos almacenar información Para la implantación de cualquier sistema de información, programa, aplicación u otra estructura Para el desarrollo de cualquier sistema de información, programa, aplicación u otra estructura.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Copo de Nieve – Snowflake, cuyas ventajas serían: Las consultas son sencillas y no requieren operaciones de tipo join Muchas herramientas están optimizadas para el trabajo con este tipo de esquemas Las consultas son rápidas.
El concepto que nos propone Bill Inmon sobre el data warehouse es que no son volátiles, debido a: Que integran distintos sistemas para generar una vista panorámica sobre los datos de una empresa u organización Que la información no se borra ni se reemplaza, solo crece por lo que es de naturaleza histórica Que la información cubre un periodo de tiempo específico.
Para entender los esquemas de Datawarehouse, primero hay que estudiar tres conceptos muy importantes. Uno de ellos es la Dimensión, que consistiría en: Una colección de información sobre un evento que se puede medir Una propiedad con la que se puede realizar cálculos, promedios, mínimos, máximos Un conjunto de datos asociados, y está compuesta por medidas y dimensiones.
Dentro de la automatización de actividades de marketing y ventas tenemos la Ley de Pareto, que sería: Cuando un 30 % de nuestros clientes son los que generan un 70 % de nuestro beneficio Cuando hacemos una división entre clientes y no rentables, basado en la experiencia Cuando un 20 % de nuestros clientes son los que generan un 80 % de nuestro beneficio.
Las innovaciones tecnológicas pueden mejorar el almacenamiento de datos y la analítica en lo que respecta a la disponibilidad, la simplicidad, el coste y el rendimiento, donde algunas de las tecnologías claves, ha sido la nube cuyas características serían: Las unidades de estado sólido – SSD Las propiedades serían recursos ilimitados, punto de integración natural, y estrategia centrada en los datos El almacenamiento en columna, y NoSQL.
Para aplicar una fórmula siempre será necesario definir una serie de operadores, siendo estos aquellos signos o símbolos que permiten relacionar varias celdas o rangos produciendo un resultado. En Excel, estos operadores se pueden clasificar en las siguientes categorías: Operadores de iteraciones, y operadores de transacciones Operadores matemáticos (solo aplicables a datos numéricos), Operadores lógicos (aplicables a datos numéricos y de texto), Operadores de texto (como el operador concatenar que une varias cadenas de texto) y Operadores de referencia (se combinan varias referencias de celda en una sola) Operadores de instantánea y operadores de datos.
La base de datos o repositorio más utilizado en los departamentos de comercial y de marketing son los denominados: DataWarehouse CRM DataMart.
Las herramientas analíticas también están penetrando en el mercado para funciones muy especializadas, lo que ayudará a algunas empresas a optar por el análisis en lugar de la implementación completa, teniendo el ejemplo de la española CARTO: Orientada a simplificar el análisis de cuestiones sanitarias Orientada a simplificar el análisis de cuestiones inmobiliarias u otras orientadas a la analítica de campañas de publicidad online Orientada a simplificar el análisis de cuestiones deportivas.
Dentro de los esquemas de Datawarehouse tenemos distintos tipos. Uno de ellos sería el Esquema de Copo de Nieve – Snowflake, cuyas desventajas serían: Son muy limitados los tipos de análisis que este esquema permite en comparación con otros más complejos y normalizados Las inserciones de datos pueden generar anomalías debido a la redundancia de los datos Gran complejidad en las consultas, debido a que los datos están normalizados.
Algunas de las ventajas de los Datamarts serían: Cuando se agregan múltiples dimensiones, su escalabilidad se vuelve un problema Responden más rápidamente y las operaciones sobre lo datos, tales como su limpieza, carga, transformación e integración son mucho más rápidas, ya que se trabaja con un menor volumen de datos La integración de los datos puede ser un problema a futuro.
Denunciar Test