CMO
|
|
Título del Test:
![]() CMO Descripción: TEMA COMPLETO |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Para comenzar a trabajar con Scala: Usar el intérprete de Scala, que proporciona una Shell para escribir el código Scala. Habría que descargarse un servidor web / aplicaciones para la presentación. Un motor de ejecución de servlets y pseudocódigo. La estadística descriptiva se basa en el estudio de variables de estudio, donde estas pueden ser: Cualitativas y cuantitativas. Identificativas y especificativas. Relacionales y cualitativas. El árbol de decisión es: Una estructura donde las decisiones se toman utilizando condicionales. Una estructura donde las decisiones se toman utilizando condicionales y compuesto por los nodos de raíz y ramas únicamente. Una estructura donde las decisiones se toman utilizando condicionales y compuesto por los nodos de raíz y hojas únicamente. Hive, dentro de las herramientas para el manejo de Big Data, es: Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones. Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU. Una de las más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos. La diferencia principal entre Machine Learning y Data Mining sería que: El ML conlleva un proceso de limpieza de los datos bajo la supervisión humana. El DM es un proceso que incluye el entendimiento de los datos, su procesamiento y el modelado, mientras que el ML toma los datos procesados como valor de entrada y formula predicciones. El ML es una subclasificación del análisis de datos, similar a la investigación experimental. Actualmente, la ciencia de los datos es una herramienta fundamental para algunas de las áreas más importantes de las empresas, tales como: Marketing, Comercial y Defensa. Marketing, Publicidad y RRHH. Pruebas de Aplicaciones, Marketing, Logística e Implantación de aplicaciones. Dentro de la combinación Big Data y GDPR, hay que tener en cuenta siempre la privacidad de las personas, por lo que es recomendable: En los códigos éticos no hay que tener en cuenta el uso de los datos personales. Realizar auditorías, sin que sea importante que en los algoritmos se discriminen a determinados colectivos en base a un uso sesgado de sus datos, no siendo recomendable incorporar al equipo a un experto legal. Actuar con transparencia y realizar auditorías internas y externas. Algunas de las operaciones que se pueden realizar gracias a los procesos de Data Mining o minería de datos son: Segmentación de BB DD, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos. Detección de Desviaciones, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos. Construcción de modelos predictivos, donde en base a observaciones previas, se construye un modelo sobre un cierto concepto que utilizamos después para predecir el futuro comportamiento de nuevos elementos. El profesor de la Universidad de Harvard Michael Porter tiene claro que: La inteligencia de negocios es la única herramienta para responder a las necesidades. a inteligencia de negocios en ningún caso puede ser una herramienta para responder a las necesidades. La inteligencia de negocios es una herramienta, aunque no la única, para responder a las necesidades. La brecha digital ha sido definida por: Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, que han afectado a los ámbitos tecnoeconómico y el coste de los elementos materiales. Según el Departamento de Comercio de Estados Unidos, “algunas personas disponen de los ordenadores más potentes, el mejor servicio telefónico y el mejor acceso a internet, así como la riqueza de contenidos y una educación para el aprendizaje a lo largo de su vida. En cambio, hay otro grupo que no tiene acceso. La diferencia entre estos dos grupos es la brecha digital”. Un cambio de modelo social, cambios en el coste de los materiales, y desigualdades sociales. En los años 90 España se integra en la UE, comenzando a participar en las políticas europeas sobre las TIC, creándose: Plan Nacional de Investigación Científica y Desarrollo Tecnológico y la Ley General de Telecomunicaciones. Ley de Ciencia, y la Ley 13/86 de Fomento y Coordinación de la Investigación Científica y Técnica. Ley General de Telecomunicaciones, Comisión interministerial de la Sociedad de la Información y la Creación del Ministerio de Ciencia y Tecnología. Dentro del funcionamiento de Scrum, los problemas comunes que siempre surgen entre personas (fricciones, envidias, egoísmos, etc.), tarde o temprano acabarán aflorando, por lo que se tendrán que adoptar algunas de estas medidas: El scrum máster no tiene la responsabilidad de tomar las conclusiones de la retrospectiva y le corresponde solo al CEO implantarlas lo antes y mejor posible. No es necesario que la organización crea en Scrum. Que el equipo sea volátil y se haya configurado exclusivamente para dicho proyecto y una vez finalizado no vuelvan a coincidir profesionalmente. Dentro de la gestión de riesgo, un modelo útil de plantilla podrían ser: Estimación de horas perdidas, estimación de horas del riesgo, horas anteriores al riesgo, medidas preventivas y plan de contingencia. Gestión del alcance, estimación del tiempo, disponibilidad de los recursos, y máquinas. Gestión del alcance, carencias en la planificación de la comunicación, probabilidad, y eventos. Boehm determinó que los principales tipos de riesgos en los sistemas de información en un proyecto de Big Data y las respectivas fuentes donde se originan dichos riesgos son: Mantener un nivel de interlocución adecuado con todos los clientes externos. Los recursos: planificación y/o presupuestos no realistas. El segmentado de acuerdo con la organización de la empresa. En la estimación de costes debemos tener en cuenta una serie de ideas y variables como: Tener controlado los gastos anexos a los recursos humanos como puedan ser las dietas, viajes, etc. Pasar por alto los gastos generales, y costes estructurales como las comunicaciones, el espacio físico, etc. No tener en cuenta las horas extras, se abonen o no, o de lo que el convenio laboral regule, no tienen ningún impacto psicológico, económico, etc., ni en el trabajador ni en la empresa. Son muchas las ventajas y beneficios potenciales de poner en marcha DevOps en una organización, pero podemos destacar que: Al mantener un proceso constante de prueba y error de versiones sucesivas, es más complicado validar el software con los usuarios y también ampliar el impacto de los errores al fomentar su descubrimiento temprano. DevOps desacelera los ciclos de puesta en producción. Desde un punto de vista comercial, DevOps consigue eficiencia en un objetivo muy común en marketing que es el time to market. MongoDB: No tiene la libertad para ejecutarse en cualquier ámbito. Crece horizontalmente en base a sus características nativas. Está desarrollada por MongoDB, Inc desde el año 2007, bajo la licencia AGPL y es opensource. ¿Cuál es el operador que se utiliza para eliminar un elemento de un array?: El operador $regex. El operador $pull. El operador $not. El uso de Explain es donde se encuentran las estadísticas de la ejecución y dispondrán de ciertos parámetros que se podrán tener en cuenta a la hora de la optimización, tales como: QueryPlanner, nReturned, y docsExaminated. NReturned, executionTimeMillisEstimate y docsExamined. ExecutionStats, nReturned y docsExaminated. MongoDB ofrece la posibilidad de limitar la cantidad de resultados que devuelve una consulta, usando el método: QueryPlanner. Limit. ExecutionStats. Los índices compuestos en MongoDB: Se suelen dar en collections muy grandes, siendo un proceso muy lento y tampoco aseguran que las búsquedas sean más rápidas. No tienen nada que ver con los atributos y tampoco MongoDB los gestiona. Se usan cuando hay más de un atributo en la collection. Un SGBD cuenta con tres niveles de abstracción: Paquetes, informes, y módulos. Físico, conceptual y visión. Planes, informes, y módulos. Algunas de las características que presenta MySQL, como SGDBR o sistema de gestión de base de datos relacional, serían: Multi usuario, Multi hilo y tiene una versión comunitaria llamada Oracle Community Edition. Multi usuario, Multi hilo, y Entorno Integrado. Multi usuario, Multi hilo, y no tiene versiones de pago. Los data warehouse se pueden diseñar con distintos esquemas, siendo estos: Departamentales y corporativos. Esquema de estrella y la tabla de hechos. Departamentales y consultas. La estandarización ANSI son siglas que traducidas al español significan: SGDBDR. ISO. Instituto Nacional Estadounidense de estándares. MySQL nos permite activar las estadísticas: Aunque puede causar tráfico pesado entre el servidor web y el servidor MySQL. Supondrá un incremento de velocidad entre el servidor web y el servidor MySQL. Pero no suele ser información interesante. Cuando utilizamos SQL en Sql Server podemos aplicar funciones, que son muy frecuentes en los sistemas gestores de bases de datos, al objeto de reducir las líneas de código escritas. Los tres tipos de funciones serían: Returns, Begin y end. Escalares, tabla y agregadas. Scalar, Begin y End. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Update, que agrega registros a una tabla. Update, que borra registros de una tabla. Update, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo. Algunas de las fortalezas del uso de OLAP serían: El habilitar la comparación de cualquier tipo de variable a través del tiempo, sistemas más robustos y personal más cualificado. La ayuda para ver los datos de una manera flexible en distintas dimensiones, reducción de los equipos de sistemas, aumento del número de programadores en las áreas de Desarrollo y reciclado del personal de sistemas. Que es una herramienta de visualización muy poderosa, excelente para el análisis temporal, rápido, interactivo y con un alto nivel de respuesta, y de mucha utilidad para identificar clústeres y anomalías. Se podría decir que OLAP y data mining son herramientas: Complementarias una de la otra, aunque OLAP se ofrece al usuario de una manera distinta a la que ya conocemos de data mining. Incompatibles una de la otra. Complementarias una de la otra, aunque OLAP resume datos y realiza pronósticos. Podemos clasificar los datamarts en tres tipos: Informacionales, interrelacionados y organizados. Semejantes a los de otros productos como Oracle y Siebel. Dependientes, independientes e híbridos. Dentro de la tecnología OLAP tenemos el Soporte de Cálculos Complejos que se referiría a: Que todo tipo de estudios estadísticos están ligados a los sistemas OLAP como promedios, medias móviles etc. Habilitar la comparación de cualquier tipo de variable a través del tiempo; por ejemplo, el mes actual versus el mes anterior. La ayuda para ver los datos de una manera flexible en distintas dimensiones, por ejemplo: ventas por región, ventas por representantes de ventas, ventas por categorías de productos, etc. Para implantar una solución CRM, es vital la tecnología que facilitará: Contar con una base de datos en la que albergar toda la información relativa a cada cliente. Descartar la información para entender mejor a nuestros clientes. Exclusivamente un sistema de ventas con una función únicamente interna. Los sistemas de televenta y telemarketing ayudan en el proceso de automatización de diversas tareas rutinarias de un call center, buscando un incremento de la eficiencia basado en el mejor aprovechamiento de cada llamada que se recibe y que se emite, gracias a la aplicación de: Visión global, clientes y Argumentarios. Puestos de trabajo y BackOffice. Argumentarios, Argumentarios inteligentes, upselling y Cross selling. Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las Multidimensionales que son: Trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila. Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados. Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave. Algunos de los ejemplos típicos básicos de Scala podrían ser String que tendrá un valor de: Secuencia de caracteres. Verdadero o falso. 32-bit de punto flotante de precisión simple IEEE754. Hadoop como software de código abierto está basado en: Patrones y creado sobre la BB DD de MapReduce de Google. La proyección de las Redes Sociales. Incompatibilidades conocidas con las APIs de MapReduce. Apache HBase también es una base de datos NoSQL con las siguientes características: Tecnología RDBMS. Inspirada en BigTable, un tipo de gestor de BB DD creado por Google. Compatible con el modelo de datos relacionales. El New York Times también se considera un repositorio Open Data ya que: Cuenta con un archivo indexado y recuperable de artículos de noticias desde 1851. Toda la información está disponible en internet. Puedes acceder a algunas noticias y críticas de interés, gracias al pago con descuentos. Dentro de la programación, las funciones serían: Los bloques de código ejecutable, que permiten su ensamblado. Están soportadas por la totalidad de los lenguajes de programación y no permiten la división de programas. Comentarios a las líneas de código. Según el informe de Domo, empresa especializada en Big Data y análisis en la nube, deja constancia del siguiente volumen de datos que se dan actualmente: Cerca de 2,5 quintillones se producen cada día. Apenas 1 quintillón al día. Más de 5 quintillones se producen a la semana. Dentro de la asociación y colaboración que existe entre Big Data y BI, definiremos este último como: Aquellas herramientas de alto coste desarrolladas por Oracle, Microsoft y SAP. Sinónimo de tecnología CRM y ERP. El conjunto de herramientas, estrategias, aplicaciones, tecnologías, y arquitecturas enfocadas a recolectar información sobre la empresa. Los percentiles son: Las partes que se consideren siempre y cuando estén en orden decreciente. Los 99 valores que resultan de la división de los datos en 100 partes iguales, siendo cada una de ellas el 1 %, 2 %. Los dos valores que resultan de la división de los datos en dos partes iguales, siendo cada una de ellas el 50 % del total de datos. Dentro de la clasificación de datos con WEKA y R, podemos distinguir dos tipos: Generales y específicos. A posteriori y a priori. Pasados y futuros. Algunos de los tipos de variables que se utilizan en lenguaje R podrían ser: Character, siendo letras o símbolos. Integer, siendo números imaginarios, funciones, etc. Character, siendo números enteros. El reglamento GDPR define varias bases legales para que una organización pueda hacer el tratamiento de datos. Algunas de estas serían: No es necesario tratar unos datos determinados para poder llevar a cabo un contrato donde el usuario es parte o va a ser parte. No hay que tratar los datos para poder proteger intereses vitales del titular de estos datos o de otra persona. Se requiere el tratamiento de los datos para una tarea de interés público o cuando el controlador de los datos es una autoridad pública. Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020 identifica las siguientes amenazas: Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información. Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo. Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global. Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020 identifica las siguientes fortalezas: Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo. Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global. Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información. En ocasiones confundimos el concepto de BI con Big Data, pero tenemos que tener en cuenta que las características de este último tienen relación con las 3V, que serían: Volatilidad, Volumen y Variedad. Volumen, Velocidad y Variedad. Valor, Velocidad y Variedad. Penteo, consultora y analista de mercados tecnológicos, en un informe afirma que: Los proyectos de transformación digital ya no se apoyan tanto en tecnologías tradicionales que se han renovado, como los CRM, junto con tecnologías emergentes y las operaciones en materia de Ciberseguridad han dejado de ser críticas. El ERP ha dejado de ser un software importante en cuanto a compras por los departamentos de informática. La migración a la nube se ha ralentizado, tal vez por la incertidumbre ante la explosión del Edge computing. Para saber cómo funciona Scrum, en primer lugar hay que tener en cuenta: Que necesitamos un equipo de proyecto con las competencias necesarias para desarrollar el trabajo y, por tanto, cualificado para seguir la hoja de ruta marcada por el propietario del producto. Que hay que completar el equipo con el Scrum Master, siendo un miembro más del equipo y, por tanto, suele tener su propia carga de trabajo, pero al mismo tiempo, ayudará a otro líder a gestionar el proceso Scrum y conseguir que los resultados se alcancen. Que Scrum necesita de un responsable de producto, o product owner. Quien ocupe este puesto será el responsable de marcar la visión y de que el diseño del producto que se quiere alcanzar una vez finalizado el proyecto cumpla con lo requerido. La gestión de la calidad incluye todos los procesos necesarios para asegurar que el proyecto cubrirá las necesidades para las cuales ha sido concebido, gracias a las tareas de: Planificación, garantía y control de calidad. Análisis, explotación y finalmente cierre de calidad. Realización, planificación y mitigación de calidad. Dentro de la gestión de riesgos, tenemos un método sencillo para clasificarlos, utilizando una matriz donde distingamos entre la probabilidad de la ocurrencia de un riesgo (alta o baja) y el impacto que tendría dicho riesgo en caso de hacerse cierto (alta o baja), para de este modo tener: Probabilidad baja e impacto alto, probabilidad baja e impacto bajos, probabilidad alta e impacto bajo y probabilidad baja e impacto altos. Probabilidad relativa e impacto alto, probabilidad relativa e impacto bajos, probabilidad suprema e impacto bajo y probabilidad extrema e impacto altos. Riesgos asumibles y bloqueantes. El modelo de capas es un punto de partida, pero una plataforma de Big Data está en constante evolución para responder a los nuevos retos del negocio. Como enfoque para este crecimiento a largo plazo, se entiende el ciclo de madurez de un proyecto Big Data distribuido a lo largo de las siguientes etapas: En primer lugar, habría que definir la integración total entre la plataforma de Big Data y las capacidades de inteligencia artificial, de forma que muchos procesos analíticos sean completamente automatizados por dicha inteligencia artificial. En primer lugar, abordaremos el diseño y creación de la plataforma de datos con un enfoque ágil, que sea rápidamente funcional y que aporte valor a todos los segmentos de usuarios. En primer lugar habría que potenciar las capacidades analíticas de la plataforma, dotando de inteligencia de forma incremental a las herramientas de explotación de datos. Asociado a la gestión de riesgo, tenemos las medidas preventivas y medidas que pueden utilizarse en un plan de contingencia, donde algunas de ellas podrían ser: Asociado a la gestión de riesgo, tenemos las medidas preventivas y medidas que pueden utilizarse en un plan de contingencia, donde algunas de ellas podrían ser:. La gestión del alcance, estimación del tiempo, disponibilidad de los recursos, máquinas y despedir a los especialistas formados. Aumentar la estimación de las tareas colaterales, mantener reuniones regulares con el cliente, y ubicar al equipo de proyecto en la misma localización física. MongoDB proporciona la posibilidad de convertir una collection normal, en una de tipo capped, para lo cual se hace uso del siguiente comando: DeleteOne. DeleteMany. ConvertToCapped. El modelado de los datos es parte fundamental: Para la implantación de cualquier sistema de información, programa, aplicación u otra estructura. Del diseño de cualquier sistema de información, programa, aplicación u otra estructura en la que debamos almacenar información. Para el desarrollo de cualquier sistema de información, programa, aplicación u otra estructura. En la búsqueda de cuellos de botella y problemas de rendimiento, la división de los parámetros locks timeAcquiringMicros con locks acquireWaitCount nos mostrará: Un promedio del tiempo de espera. El tiempo total de bloqueo, y si su valor es alto en función del uptime, quiere decir que la base de datos ha estado en un bloqueo por un tiempo significativo. La cantidad de conexiones en el momento. Cuando tenemos un esquema creado y necesitamos añadir nuevas validaciones, utilizamos el método: Strict. Db runCommand(). ValidationAction. Dentro de las bases de datos, NoSQL puede ser muy variada y clasificarse por diferentes criterios, como los datos documentales, los orientados a grafos, multivalor, donde algunos de los distintos tipos de BB DD y su clasificación serían las: De información, a campos de datos estructurados, a columnas definidas y multivalor. Documentales, clave – valor, orientador a grafos, multivalor, NoSQL orientadas a objetos y tabulares. De esquema, definición, datos y objetos. El lenguaje SQL permite: Solo la manipulación de datos. Definir, manipular y consultar la información contenida en las bases de datos. Exportar a texto plano (rft) y texto enriquecido (txt). MySQL es: Una solución de licenciamiento caro e incompatible con otros productos del mercado y que no soluciona los problemas de concurrencia. Una respuesta abierta y libre a la problemática común de cómo gestionar los datos en sistemas informáticos, superando las limitaciones tradicionales que imponían el uso de los ficheros planos como herramienta de almacenamiento. Una herramienta exclusiva para usuarios avanzados del lenguaje SQL. El operador LIKE: Es un operador de semejanza, que permite seleccionar valores en aquellas filas coincidentes con el valor dado. Es lo mismo que el operador NOT LIKE. Es cuando el valor de búsqueda siempre serán resultados nulos. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Drop, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc. Drop, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc. Drop, que es el comando SQL que permite eliminar un objeto de la base de datos. Microsoft ofrece una versión gratuita de Sql Server denominada: Premise. Cloud. Express. Dentro de las consultas, el álgebra relacional permite hacer operaciones sobre las tablas, las cuales son: Selección: Consiste en escoger determinadas columnas ignorando el resto. Selección: Consiste en escoger un subconjunto de filas de esa tabla y descartar el resto. Join: Consiste en escoger un subconjunto de filas de esa tabla y descartar el resto. Los modelos basados en registros: Permiten organizar los datos solo en el nivel conceptual, de forma que se diseña la organización de los datos desde una perspectiva lógica. Permiten organizar los datos en el nivel visión y en el físico, de forma que se diseña la organización de los datos desde una perspectiva lógica. Permiten organizar los datos en el nivel conceptual y en el físico, de forma que se diseña la organización de los datos desde una perspectiva lógica. El BI aprovecha los componentes ya desarrollados e instalados de las tecnologías de la información para ayudar a las empresas a: Reutilizar sus RRHH impactando en su ROE. Reutilizar su logística impactando en su ROE. Reutilizar sus inversiones informáticas impactando en su ROI. Los beneficios de la implementación de un CRM serían:Los beneficios de la implementación de un CRM serían: Ratios de éxito comercial más bajos, porque con la información recopilada de los clientes se ha incrementado el trabajo del personal y es complicada la adecuación de las variables del marketing a cada uno de los segmentos. Descenso del margen de cada venta y de los márgenes comerciales generales debido al incremento del trabajo por parte del área comercial. Incremento de las ventas, basado en que hemos podido asignar más recursos a los clientes más rentables y que hemos sido capaces de desarrollar procesos de cross selling y up selling. Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las bases de datos relacionales que son: Las que trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila. Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados. Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave. Para aplicar una fórmula siempre será necesario definir una serie de operadores, siendo estos aquellos signos o símbolos que permiten relacionar varias celdas o rangos produciendo un resultado. En Excel, estos operadores se pueden clasificar en las siguientes categorías: Operadores de instantánea y operadores de datos. Operadores matemáticos (solo aplicables a datos numéricos), Operadores lógicos (aplicables a datos numéricos y de texto), Operadores de texto (como el operador concatenar que une varias cadenas de texto) y Operadores de referencia (se combinan varias referencias de celda en una sola). Operadores de iteraciones, y operadores de transacciones. Algunas de las ventajas del uso de OLAP serían: El incremento en la productividad para los usuarios finales, Control sobre los datos corporativos, Reducción del tráfico generado por queries a diferencia de lo que ocurre en los data warehouse y el Aumento en la rentabilidad. El habilitar la comparación de cualquier tipo de variable a través del tiempo, fuertes inversiones en el área de sistemas y la formación de los equipos, y aumento del CAPEX / OPEX. La ayuda para ver los datos de una manera flexible en distintas dimensiones, reducción de los equipos de sistemas, aumento del número de programadores en las áreas de Desarrollo y reciclado del personal de sistemas. Las siglas CRM significan: Customer Relationship Management. Customer Relationship Major. Client Relationship Management. En los sistemas de información usados en aplicaciones de inteligencia nos solemos encontrar los siguientes sistemas de persistencia, donde las bases de datos relacionales son: Una solución en vías de implantar en los sistemas de información actuales. Una solución tecnológicamente madura y altamente implantada en los sistemas de información actuales. Una solución tecnológicamente inmadura. Dentro de las bases de datos departamentales, tenemos HRMS -Human Resources Management Systems-, que son: Soluciones software que, además de incorporar las capacidades y funciones más comúnmente disponibles en los HCM, aportan una funcionalidad completa para la gestión salarial y las compensaciones o la llevanza del control horario. Sistemas de gestión del capital humano. Sistemas con una clara orientación a la gestión, incluyendo procesos como la administración de las nóminas, la contabilidad de costes y otras políticas y procedimientos vinculados al personal. El ciclo de inteligencia comienza: En el proceso de testeo estratégica. En el proceso de implantación estratégica. En el proceso de planificación estratégica. Algunos de los elementos principales dentro del ecosistema Hadoop serían: Almacenamiento de datos distribuido, herramientas de BI y distribución del tiempo de ejecución. Herramientas para el despliegue de aplicaciones multientorno, alta de recursos y creación de tablas. Testeo automático de pruebas de integración, validación y métricas de código. Una de las características de la inteligencia básica es: Que es encargada de fijar, ante una circunstancia específica de una pregunta de un directivo o persona que está encargada de tomar las decisiones, la probable transformación de la situación y las opciones de intervención de los elementos involucrados en la misma para facilitar la predicción y las posteriores elecciones. Que es encargada de satisfacer unas necesidades generales y estratégicas de la organización, conociendo todos los aspectos de cada uno de los objetivos fijados para proporcionar respuestas para las consultas de información concretas. Que cumple con la función de dar respuesta rápida a necesidades informativas puntuales en el presente. Las tareas de la etapa de procesamiento consisten únicamente en: Recopilación, identificación, descripción y análisis documental de los datos. Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen. Recopilación e Identificación. Lo más importante de la fase de procesamiento sería: Hacer una buena minería de datos, apoyándose en algoritmos, bases de datos y estadística. Hacer una correcta minería de datos, apoyándose únicamente en la experiencia del departamento técnico. Cumplir los tiempos de ejecución. Podemos definir Customer Analytics como: Una técnica contraría a la utilización de los CRM en una empresa. Una técnica donde es secundario conocer quienes consumen los productos de una empresa. La técnica estadística para aplicar análisis e inteligencia a los clientes, identificando los principales tipos de clientes (segmentos). La desviación media es: Diferencia de cada valor con respecto a la media de todos los valores. Diferencia de cada valor con respecto a la media de todos los valores, donde primero se calculará la mediana y después se calculará la media. Diferencia de cada valor con respecto a la mediana de todos los valores. Weka, dentro de las herramientas para el manejo de Big Data, es: Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones. Uno de los más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos. Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU. Los parámetros estadísticos son una herramienta de síntesis. Pueden ser: De centralización o de tendencia central, de posición y de dispersión. De posición, de localización y de determinación. De determinación, centralización y dispersión. Dentro de los algoritmos para la ML –Machine Learning–, tenemos el denominado sin supervisión, que sería: El método de prueba y error. La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación. Aquel que se usa cuando no se conoce como serán los resultados, es decir, cuando existen variables en el conjunto de datos de las cuales no sabemos qué efecto tienen. El lenguaje DAX (Data Analysis Expressions) fue diseñado para crear objetos y consultar modelos tabulares basados en tres conceptos fundamentales: La sintaxis, las funciones y el contexto. La sintaxis, el contexto y las funciones como por ejemplo el operador igual u otros operadores matemáticos. Las funciones, el contexto y la sintaxis, pudiendo ser esta última de inteligencia de tiempo o lógicas. Algunas de las características y atributos que debe tener el Datawarehouse son: Volátil, fija en el tiempo, integrado y coherente. Estable, coherente, fiable e información histórica. Volátil, fija en el tiempo, integrado y orientado a temas generales. Dentro de la regulación en materia de protección de datos en España tenemos la Ley Orgánica 15/1999, que dispone el: Facilitar la competencia, la riqueza cultural, la pertenencia a la UE, fomentar un buen nivel de formación de la población joven, la inversión en infraestructura, servicios de telecomunicaciones, e integración en el comercio global. Garantizar y proteger, en lo que concierne al tratamiento de los datos personales, las libertades públicas y los derechos fundamentales de las personas físicas, y especialmente de su honor e intimidad personal y familiar. Profundizar en los desequilibrios de exclusión social y de todo tipo, en amplios estratos de la población, la colonización cultural, la deslocalización del empleo, y la pérdida de valor añadido propiamente nacional en un nuevo entorno competitivo. Definimos sociedad de la información como: La utilización de la información como un recurso económico, aumento del uso de información por parte del gran público y el desarrollo de un nuevo sector de la información (tecnologías y contenidos). Un cambio de modelo social, cambios en el coste de los materiales, y desigualdades sociales. Las consecuencias de la revolución de las tecnologías de la información, las comunicaciones, que afectarán a los ámbitos tecnoeconómico y el coste de los elementos materiales. El sistema de reporting dentro de los almacenes de datos que se crean en una organización, deben diseñarse en base a dos estrategias: Estrategia de generación de información (fondos y formas) y la estrategia de despliegue de resultados (personas y medios). Estrategia de generación de información (personas y medios) y la estrategia de despliegue de resultados (fondos y formas). Estrategia de generación de información (personas y medios) y la estrategia de despliegue de resultados (fondos y formas) que responderá por ejemplo a la pregunta de la descripción del objetivo de cada informe. La definición del alcance se puede representar gráficamente en varios formatos como: ABC, Pentagrama y Formato de árbol. Pareto, Pentagrama y Formato de árbol. Formato de Árbol, tabular y Diagrama de Gantt. Un director de proyecto puede tener tres tipos de autoridad que son: Autoridad conferida, otorgada, y técnica, donde el responsable de proyectos no tendrá experiencias, cualidades y competencias por encima de la media. Autoridad conferida, otorgada, y técnica, donde el responsable de proyectos nunca se identificará con el líder y, por tanto, no habrá un reconocimiento de su influencia. Autoridad conferida, otorgada, y técnica donde el responsable de proyectos contará con la formación y cualificaciones idóneas para ejercer ese rol. Una de las herramientas más utilizadas en el análisis estratégico es la denominada cinco fuerzas de Porter. Según Michael Porter, toda compañía se desenvuelve en un mercado que se puede definir y analizar a partir de cinco aspectos concretos: Debilidades, Acciones, Amenaza de productos sustitutivos, Fortalezas y Diversificación. Amenaza de nuevos competidores, presión de los proveedores, presión de los clientes, amenaza de productos sustitutivos y rivalidad competitiva. Déficits, Ajustes, Fomento, Amenaza de nuevos competidores y Opciones. Dentro de la plataforma de datos y de su evolución tenemos el modelo simplificado con tres etapas, donde: En la primera etapa, es donde estaremos preparados tras obtener esos datos y generar el conocimiento adecuado, poder recomendar de forma eficaz, sin que el cliente perciba que lo vigilamos ni lo presionamos para la compra, porque en ese caso, el efecto de la recomendación será más perjudicial que beneficioso para los objetivos de la compañía. En la primera etapa, comenzaremos a validar distintos modelos de conocimiento del cliente que expliquen sus patrones de compra. En la primera etapa, tendremos por objetivo captar todos los datos provenientes de los clientes. Dentro de la gestión de la comunicación hay que incluir un informe de seguimiento que tendrá, como mínimo, los siguientes apartados: Realizaciones del periodo, planificación para el periodo siguiente, riesgos y cambios en el proyecto por el plan de mitigación. Realizaciones del periodo, planificación para el periodo siguiente, problemas y cambios en el proyecto. El análisis de la comunicación, la explotación del conocimiento, los informes de la dirección y finalmente el cierre comercial. Para la instalación de MongoDB tenemos que tener en cuenta: Que solo soporta la arquitectura de 64bits. Que soporta tanto la arquitectura de 32 como de 64bits. Que solo soporta la arquitectura de 32bits. Mongo Shell se instala por defecto en la instalación de MongoDB, donde podremos ejecutar la Shell desde la consola del sistema operativo Windows, teniendo en cuenta que: Para obtener una lista de comandos básicos podemos ejecutar el comando help. Ejecutamos el comando quit y abrimos el símbolo de sistema o command prompt. Ejecutamos el comando: "mongo exe" para salir de la consola. Las dos bases de datos más populares en lo que es el paradigma NoSql y que presentan las ventajas comunes de superar el modelo relacional, aunque entre ellas también presentan diferencias, son: MongoDb y Cassandra. MySQL y MariaDB. Oracle y Siebel. a unidad básica de datos de MongoDB es: Un documento (document) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad). Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima más flexibilidad). Una vista (view) y se podría decir que es el equivalente a un registro en las bases de datos relacionales (pero ofreciendo muchísima menos flexibilidad). El término NoSQL de bases de datos no relacionales hace referencia a: None SQL. Not Only. Non SQL. En el lenguaje SQL y específicamente en Sql Server, disponemos de mecanismos suficientes para cumplir con los principios ACID, mediante el uso de las siguientes acciones: BEGIN TRANSACTION, que especifica que va a empezar una transacción. BEGIN TRANSACTION, que le indica a una base de datos que la transacción fue completada con éxito. BEGIN TRANSACTION, para comprobar si esa variable de entorno ha tomado cualquier valor diferente a cero, que especifica que va a empezar una transacción. La cardinalidad de asignación: Es una obligación que deben cumplir los datos incluidos en una BB DD y hace referencia al número de instancias de una entidad. Es la entidad la que tiene cardinalidad de asignación. No determina el tipo de relación que se establece entre las tablas. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Select, que agrega registros a una tabla. Select, que permite buscar información dentro de la BB DD. Select, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo. Los filtros en Access: Resultan muy útiles cuando se trabaja con tablas en las que se ha introducido mucha información, porque permiten visualizar de forma rápida los registros más interesantes. Tablas operativas y físicas. Access no tiene filtros. Los data warehouse se pueden diseñar con distintos esquemas. El Esquema de Estrella sería aquel: El más complicado, donde la tabla de hechos está rodeada de entidades llamadas dimensiones. Donde la tabla de hechos está rodeada de entidades llamadas dimensiones. Que se trata en un modelo no relacional. Los procedimientos almacenados son: Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide. Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, y un procedimiento almacenado, a su vez no puede ejecutar otro procedimiento almacenado. Un conjunto de instrucciones ejecutadas en el momento que el usuario lo decide, pero no aceptan parámetros de entrada. Las herramientas ETL realizan tres funciones: Almacén, orientadas y transacciones. Volátil, información y escritura. Extracción, transformación y carga. Algunas de las desventajas de los DataMart serían: Responden más rápidamente y las operaciones sobre lo datos, tales como su limpieza, carga, transformación e integración son mucho más rápidas, ya que se trabaja con un menor volumen de datos. La integración de los datos puede ser un problema a futuro. Que si lo comparamos con un data warehouse, implementar un DataMart es mucho más económico. El BI es: Un producto. Un término general que combina arquitecturas, aplicaciones y bases de datos. Un sistema. La web semántica, diseñada por Tim Berners Lee y su grupo de trabajo en la W3C: Trata de facilitar la extracción de datos e información de Internet. Trata de facilitar la inserción de datos e información de Internet. Trata de facilitar el borrado de datos e información de Internet. El CRM no consiste simplemente en comprar un software, como una base de datos, para grabar información sobre nuestros clientes. El CRM pretende que: Se implante una estrategia desfocalizada en el cliente. Toda la empresa funcione, se alinee y oriente alrededor del concepto clave que es el de cliente. Toda la empresa funcione, se alinee y oriente alrededor del concepto clave que son los sistemas. Las empresas que buscan implementar un sistema de BI deben asegurarse: De investigar a fondo sus necesidades. De que solo de que se dispone del presupuesto necesario. Solo de que se dispone de los recursos humanos necesarios para su implantación. Dentro del BI tenemos varios conceptos que serían: Transformación y carga (OLTP), sistemas de procesamiento de transacciones en línea (ETL) y almacenes de datos (data warehouse). Transformación y carga (Datamart), sistemas de procesamiento de transacciones en línea (ETL) y almacenes de datos (data warehouse). Transformación y carga (ETL), sistemas de procesamiento de transacciones en línea (OLTP) y almacenes de datos (data warehouse). Las fórmulas en Excel se pueden entender como: Un conjunto de datos relacionados mediante operadores y precedidos de un signo igual, que dan como resultado otro valor. Cualquier expresión introducida fuera de una celda. Cualquier expresión introducida dentro de una celda, y que no tenga los siguientes elementos: Comience por un signo igual, Valores constantes, celdas o rangos con los que pueda operar y Operadores que conecten los valores. Un cubo OLAP se puede ver como: Una instantánea de los datos en un periodo específico de tiempo, que puede ser al final de cierto día, semana, mes del año. Iteraciones sobre transacciones. Una instantánea de los datos únicamente en el pasado. La red de colección tiene como objetivo principal: Captar información primaria independiente de su veracidad. Captar información primaria, para cualificar la veracidad. Captar información secundaria. Dentro de la tipología de datos, en un proyecto de análisis e investigación tenemos distintas definiciones según distintas organizaciones también. Por ejemplo, el Office of Management and Budget de EE. UU. los define como: Material que ha sido registrado durante una investigación y que sirve para certificar los resultados de dicha investigación. Material registrado comúnmente aceptado por la comunidad científica como necesario para validar resultados de investigación. Representación reinterpretable de la información de manera formalizada y adecuada para su comunicación, interpretación o procesamiento. Decimos que una característica de la inteligencia tiene calidad cuando: El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización. Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia. Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización. Los sistemas electrónicos de gestión de datos dentro de la etapa de procesamiento serían: Gestores documentales para la gestión de elevadas cantidades de información textual. Aplicaciones para identificar y extraer información en grandes volúmenes de datos. Aplicaciones informáticas destinadas a la indexación automática. Decimos que una característica de la inteligencia es objetiva cuando: No pretende transmitir a los encargados de la toma de decisiones lo que la información que les hubiese gustado recibir, tan solo pretende decir la verdad para que puedan actuar de la manera que consideren más adecuada. El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización. Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia. El dato sería: Volumen de datos estructurados que poseen potencial para ser extraídos para obtener información y conocimiento. Un valor que puede ser cualitativo o cuantitativo que describe una acción o un aspecto sobre un tema. La meta disciplina que se encarga del estudio de los datos a través de las matemáticas, los procesos y los sistemas. Para aplicar técnicas de clustering tenemos que tener en cuenta que: Los datos no los agrupamos en clases. Es una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados. Es una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados. La regresión lineal simple sería: Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables dependientes sobre Y. Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables independientes sobre Y. Un modelo matemático donde tendremos una variable independiente Y, así como las variables dependientes X, siendo b la influencia de estas variables independientes sobre Y. Los cuartiles son tres valores (Q1, Q2 y Q3), que dividen a los datos en: Las partes que consideremos siempre y cuando estén en orden decreciente. Cuatro partes iguales que representarán el 25 %, el 50 % y el 75 %. Dos partes iguales que representarán el 50 % y el 100 %, respectivamente. El concepto de huella digital se refiere: Al conjunto de acciones o actividades únicas realizadas en Internet y que son rastreables. Es el espacio que habría que reservar en un CPD para la instalación de una máquina física. A todo contaminante asociado a la tecnología Blockchain. Casi todas las herramientas que se encuentran en la web cuentan con una API que facilita el intercambio de información con otras herramientas, entre las que incluimos a Zapier, que es: Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes. Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes, creada en 2021. Una aplicación que permite conectar las API de más de 2000 herramientas web diferentes, creada por Steve Jobs, Bill Gates y Wade Foster. Después de haber realizado un estudio de la sociedad de la información a nivel mundial, ahora nos centraremos en España, donde un estudio a finales de 2020 identifica las siguientes fortalezas: Desequilibrios territoriales, ausencia de cultura telemática en gran parte de la población activa, bajo consumo per cápita de información, escaso parque informático instalado, alto nivel de desempleo juvenil y debilidad de muchos sectores a la hora de competir en los mercados de las autopistas de la información. Profundización de desequilibrios de exclusión social y de todo tipo en amplios estratos de la población, colonización cultural, deslocalización del empleo, y pérdida de valor añadido propiamente nacional en el nuevo entorno competitivo. Facilidades competitivas que ofrece el idioma español (400 millones de hablantes, de las cuales casi 50 millones viven en Estados Unidos), riqueza cultural, pertenencia a la UE, buen nivel de formación de la población joven, de infraestructura y servicios de telecomunicaciones, e integración en el comercio global. Dentro de la arquitectura de Datawarehouse existen las dimensiones. Desde una perspectiva de la gestión histórica de los datos existen 6: SCD2 tipo 0 – SCD2 tipo 6 / Estrella. SCD2 tipo 0 – SCD2 tipo 6 / Híbrida. SCD2 tipo 0 – SCD2 tipo 6 / Fija. El empresario y político Joan Majó ve en la sociedad de la información un nuevo modelo social, ya que: Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones van más allá del ámbito puramente tecnoeconómico. Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones solo aplicarán al ámbito tecnoeconómico. En ningún caso implicará un cambio de modelo social. Dentro de la arquitectura de Datawarehouse tenemos dos esquemas de representación de relaciones de datos y su estructuración. Estos son: Esquema en Estrella (consiste en estructurar la información en procesos, vistas y métricas recordando a una estrella) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas). Esquema en Estrella (que es un proceso para extraer y filtrar datos de las operaciones y transacciones de la organización y sus sistemas, para transformarlos, integrarlos y almacenarlos) y Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas). Esquema en Estrella (que es un tipo de almacén de datos el cual proporciona únicamente los últimos valores o los más recientes excluyendo el histórico) Esquema en copo de nieve (esquema de representación derivado del esquema en estrella, en el que las tablas de dimensión se normalizan en múltiples tablas). Trello es: Una aplicación online, accesible desde la web www trello com. Una aplicación online en la que podemos registrarnos tras pagar con tarjeta de crédito. Una aplicación online que no proporciona ningún tipo de asistente. La dificultad de gestionar el cambio generado por un proyecto dependerá del impacto y la dimensión que el proyecto tenga en la organización, clasificando las dimensiones del cambio en tres niveles: Alcance reducido, moderado y gran alcance. Gestión del alcance, carencias en la planificación de la comunicación, y probabilidad. Gestión del alcance, estimación del tiempo y disponibilidad de los recursos. Hay herramientas más específicas para el área de tecnologías y sistemas, con matrices muy interesantes para la evaluación de los sistemas de información empresariales, donde: La primera clasifica cada sistema en 4 posibles categorías: sistemas para renovar, sistemas para mantener, sistemas para retirar y sistemas para reconsiderar. La primera clasifica cada sistema en 4 posibles categorías: sistemas para Debilidades, sistemas para Acciones, sistemas para productos sustitutivos, y sistemas para Diversificación. La primera clasifica cada sistema en 4 posibles categorías: sistemas para Déficits, sistemas para Ajustes, sistemas para Fomento, y sistemas para Amenazas. Dentro de la gestión del cambio tenemos el origen de los problemas, que serán: Los motores de cambio en las organizaciones, y el grado elevado de incertidumbre. Ignorancia, ingenuidad, o negligencia. Participación y dependencia de grupos de personas muy heterogéneos. El análisis DAFO nos permite determinar para cada proyecto de Big Data su análisis. En concreto, analiza: Déficits, Ajustes, Fomento y Opciones. Debilidades, Amenazas, Fortalezas y Oportunidades. Debilidades, Acciones, Fortalezas y Oportunidades. Dentro de la validación de esquemas tenemos el validation Level, que acepta dos valores, que son: Strict y moderated. Strict y validationAction. ValidationAction y moderated. En Mongo no se puede hacer una búsqueda basada en una comparación con null. En este caso habrá que hacer uso del operador: $exists para comparar la existencia de un campo que sea null. $not para comparar la existencia de un campo que sea null. $regex para comparar la existencia de un campo que sea null. Crear o insertar un nuevo documento en una collection de una BB DD con Mongo Shell es: Muy simple con el método NumberLong(), que posee 32 bits. Muy simple con el método show dbs. Muy simple con el método insertOne. Los tipos de índices más comunes serían: Índices únicos, son aquellos que están compuestos por más de un atributo. Índices únicos, son aquellos que pueden estar más de una vez en una collection y se usan para identificar grupos de datos dentro de la collection. Índices únicos, son aquellos donde su valor no podrá estar duplicado en la collection. Para la eliminación de elementos, MongoDB proporciona los métodos: DeleteMany y $regex. DeleteOne y $not. DeleteOne y deleteMany. Los operadores de proximidad o NEAR: Permiten buscar términos que estén próximos, y por tanto en el mismo contexto. Permiten reducir el número de resultados al mostrar solo los resultados que contengan todos los términos incluidos en la consulta. Son de Tablas operativas y físicas. En la manipulación de datos tenemos la cardinalidad, que se representa mediante líneas que relacionan dos tablas, desde una llave primaria hasta una llave foránea: De 1 a muchos: cuando dos o más elementos de una entidad se pueden relacionar con dos o más elementos de otra entidad. De 1 a muchos: cuando dos o más elementos de una entidad se pueden relacionar con dos o más elementos de otra entidad. De 1 a muchos: es cuando un elemento de una entidad se puede relacionar con varios elementos de otra entidad. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Insert, que agrega registros a una tabla. Insert, que borra registros de una tabla. Insert, que actualiza o modifica registros sin borrarlos y añadirlos de nuevo. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Alter, que es un comando que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc. Alter, que es el comando SQL que permite eliminar un objeto de la BB DD. Alter, que es un comando SQL que borra todo el contenido en una tabla, pero sin eliminar dicha tabla. SQL, como lenguaje de manipulación de datos, tiene la siguiente función: Create, que permite modificar la estructura de una tabla u objeto, por ejemplo, nos permite agregar o quitar campos a una tabla; modificar el tipo de un campo, etc. Create, que permite crear objetos de datos, como pueden ser nuevas bases de datos, tablas o vistas entre otros. Create es el comando SQL que permite eliminar un objeto de la bases de datos. Los triggers también se denominan: Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update. Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update, siendo una operación muy compleja su creación con el código AFTER TRIGGER. Disparadores de eventos, porque activan procesos automáticos en la base de datos cuando se utilizan sentencias de manipulación de datos concretas, como insert o update y pueden estar anclado a varias tablas. La diferencia principal entre una base de datos y un archivo sería: Que en un archivo se organizan de acuerdo con un formato concreto, mientras que una base de datos los datos se estructuran no por el formato de varios registros, sino teniendo en cuenta un modelo de datos. Que en una base de datos se organizan de acuerdo con un formato concreto, mientras que en un archivo se estructuran no por el formato de varios registros, sino teniendo en cuenta un modelo de datos. Ninguna, puesto que el concepto y su función es lo mismo. La base de datos o repositorio más utilizado en los departamentos de comercial y de marketing son los denominados: DataWarehouse. DataMart. CRM. Para aplicar una fórmula siempre será necesario definir una serie de operadores, siendo estos aquellos signos o símbolos que permiten relacionar varias celdas o rangos produciendo un resultado. En Excel, estos operadores se pueden clasificar en categorías, donde por ejemplo los operadores lógicos serían aquellos: Que combinan varias referencias de celda en una sola. Aplicables a datos numéricos y de texto. Solo aplicables a datos numéricos. La tecnología OLAP presenta las siguientes características: Vista multidimensional de los datos, Inteligencia temporal y soporte de cálculos complejos. Vista incremental, rentabilidad y control. Vistas complementarias, resumen de datos y realización de pronósticos. En las tendencias actuales, surgen los desarrollos de una base de datos semántica con almacenamiento distribuido entre una red de ordenadores, junto con sistemas de extracción de información y un conjunto de ontologías de aplicación en el ámbito del negocio concreto de la empresa que la utilice. Todo ello basado en la integración de la novedosa tecnología semántica para el procesado de datos en inteligencia. Este tipo de productos integra tres tecnologías clave bajo un mismo entorno, cada una de las cuales resuelve un problema esencial en los sistemas de inteligencia de negocio, que son: Bases de datos de referencia, Sistemas de valor y Sistemas de extracción de información. Bases de datos semánticas, datos y las reglas lógicas y por último los Sistemas de extracción de información. Bases de datos de referencia, Sistemas de valor y Construcción de fórmulas. Dentro de las tecnologías de bases de datos semánticas, muchos de los sistemas de inteligencia actuales utilizan las bases de datos de grafos que son: Aquellas que asocian a una tabla un conjunto de datos que contienen la misma estructura (campos o columnas de la tabla), y que relaciona los conjuntos mediante unos valores únicos denominados clave. Las que trabajan con una sola tabla que contiene ciertas propiedades como la posibilidad de tener datos duplicados, o guardar el histórico de cambios por cada fila. Las que representan los datos como un conjunto de nodos unidos mediante vértices etiquetados. Asociado al uso de Microsoft Excel, en la ficha Fórmulas existe un grupo de comandos llamado: Auditoría de fórmulas, en el que hay distintas opciones que pueden resultar útiles a la hora de a revisar las fórmulas para corregir posibles errores. Auditoría relativa, en el que hay distintas opciones que pueden resultar útiles a la hora de a revisar las fórmulas para corregir posibles errores. Auditoría absoluta, en el que hay distintas opciones que pueden resultar útiles a la hora de a revisar las fórmulas para corregir posibles errores. Dentro de la automatización de actividades de marketing y ventas tenemos la Ley de Pareto, que sería: Cuando hacemos una división entre clientes y no rentables, basado en la experiencia. Cuando un 30 % de nuestros clientes son los que generan un 70 % de nuestro beneficio. Cuando un 20 % de nuestros clientes son los que generan un 80 % de nuestro beneficio. Según el profesor argentino Piscitelli en sus charlas TED, muchos Sistemas de Información y modelos de Gestión han fracasado en muchas organizaciones, por no tener en cuenta: Todos los aspectos relacionados con sus no-clientes, en lugar saber lo que ya conocen sobre sus clientes. Las necesidades informativas de las organizaciones y su cultura digital, son fijas e inmutables en el tiempo, es decir, las necesidades de una empresa son iguales ahora que el siglo pasado. Que lo único importante son los cuadros de mando integrales y palancas financieras. Una de las características de la inteligencia estimativa es: Que cumple con la función de dar respuesta rápida a necesidades informativas puntuales en el presente. Que es la encargada de satisfacer unas necesidades generales y estratégicas de la organización, conociendo todos los aspectos de cada uno de los objetivos fijados para proporcionar respuestas para las consultas de información concretas. Que es la encargada de fijar, ante una circunstancia específica de una pregunta de un directivo o persona que está encargada de tomar las decisiones, la probable transformación de la situación y las opciones de intervención de los elementos involucrados en la misma para facilitar la predicción y las posteriores elecciones. Sun Tzu es: Una variante de la metodología ITIL. Sistema de almacenamiento de ficheros. Metodología para comprender los escenarios de conflicto incluyendo la situación meteorológica. La herramienta Scala se utiliza principalmente para: Lenguaje de programación para el tratamiento de datos. El lanzamiento de paquetes para comprobar los elementos de red. La programación orientada a objetos. |




