CMO 1 TRIMESTRE 3#
|
|
Título del Test:
![]() CMO 1 TRIMESTRE 3# Descripción: CMO 1 TRIMESTRE 3 TEST |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Dentro de la programación, las funciones serían: Comentarios a las líneas de código. Están soportadas por la totalidad de los lenguajes de programación y no permiten la división de programas. Los bloques de código ejecutable, que permiten su ensamblado. La regresión lineal simple sería: Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables independientes sobre Y. Un modelo matemático donde tendremos una variable independiente Y, así como las variables dependientes X, siendo b la influencia de estas variables independientes sobre Y. Un modelo matemático donde tendremos una variable dependiente Y, así como las variables independientes X, siendo b la influencia de estas variables dependientes sobre Y. Dentro de la segmentación de los datos, podemos aplicar técnicas de clustering, muchas veces simplemente mediante la observación. El clustering sería: Una técnica de aprendizaje sin supervisión que no requiere que los datos estén previamente etiquetados. Cuando los datos no los agrupamos en clases. Una técnica de aprendizaje sin supervisión que requiere que los datos estén previamente etiquetados. Weka, dentro de las herramientas para el manejo de Big Data, es: Uno de los más utilizadas en minería de datos y análisis estadístico, siendo bastante compatible con gran cantidad de gestores y repositorios de datos. Una colección de herramientas de visualización y algoritmos, realizado en Java y usado fundamentalmente para actividades docentes y de investigación, distribuido bajo la licencia GNU. Una estructura para la implementación de un Data Warehousing, facilitando todas sus operaciones. La segmentación de la Base de Datos, como una técnica más del Data Mining, consiste en: La aplicación del clustering, que es un tipo de aprendizaje no supervisado y que produce una segmentación en grupos dadas unas características o relaciones comunes. Poner el foco en predecir la salida de un evento y está basado en un comportamiento similar al aprendizaje humano mediante la observación de las características más importantes de una tarea. El establecimiento de relaciones entre registros individuales o grupos de estos. Los deciles son: Los 2 valores que resultan de la división de los datos en dos partes iguales, siendo cada una de ellas el 50 % del total de datos. Las partes que se consideren siempre y cuando estén en orden decreciente. Los nueve valores que resultan de la división de los datos en diez partes iguales, siendo cada una de ellas el 10 % del total de datos. El Análisis de Vínculos, como una técnica más del Data Mining, se divide en tres enfoques: Descubrimiento de relaciones, cognitivo y secuencias de tiempo. Descubrimiento de asociaciones, patrones secuenciales y secuencias de tiempo. Descubrimiento cognitivo, de relaciones y experiencias. Como parte del Big Data, existe la minería de datos que sería: El proceso inverso de transformar el conocimiento, en los datos iniciales. Un sinónimo de la expresión vulgar “picar código”. El proceso de la transformación de datos en información y conocimiento. Dentro de los algoritmos para la ML –Machine Learning–, tenemos el denominado reforzados, que sería: La capacidad de estimar en base a la recopilación de la información, donde cuando más datos tengamos, podremos hacer una mejor estimación. Aquel que se usa cuando no se conoce como serán los resultados, es decir, cuando existen variables en el conjunto de datos de las cuales no sabemos qué efecto tienen. El método de prueba y error. Dentro de la implantación de un proyecto de Big Data, tenemos la Consolidación de Datos, para disminuir el ruido en los datos en el escenario de Falta de Valores como registros incompletos, para lo que habrá que realizar un plan de mitigación basado en: Cumplimentar manualmente los datos que faltan, usar alguna constante global, usar la media global para llenar ese atributo, usar un valor pronosticado con alta probabilidad e ignorar determinados valores. Métodos de agrupamiento, análisis atípico, regresión e inspección humana. Inconsistencia en los datos, integración y transformación de datos, normalización y estandarización. Algunos de los tipos de variables que se utilizan en lenguaje R podrían ser: Character, siendo números enteros. Integer, siendo números imaginarios, funciones, etc. Character, siendo letras o símbolos. Según el informe de Domo, empresa especializada en Big Data y análisis en la nube, deja constancia del siguiente volumen de datos que se dan actualmente: Cerca de 2,5 quintillones se producen cada día. Apenas 1 quintillón al día. Más de 5 quintillones se producen a la semana. Las técnicas para el Data Mining se pueden clasificar en cuatro categorías, que son: Modelado predictivo, Segmentación de Bases de Datos, Análisis de Vínculos y Detección de desviación. Recopilación, Implantación, Especificación y Explotación. Técnicas de recogida, V Modeller, Segmentación de Bases de Datos, y Detección de desviación. La diferencia principal entre Machine Learning y Data Mining sería que: El DM es un proceso que incluye el entendimiento de los datos, su procesamiento y el modelado, mientras que el ML toma los datos procesados como valor de entrada y formula predicciones. El ML es una subclasificación del análisis de datos, similar a la investigación experimental. El ML conlleva un proceso de limpieza de los datos bajo la supervisión humana. Definimos Datawarehouse como: Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo insuficiente para proporcionar cualquier información de gestión que le sea solicitada, a cualquier nivel de detalle, de cualquier periodo histórico y de cualquier área de negocio de la compañía. Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales. Un gran almacén de datos corporativo, donde se integra toda la información de gestión de la compañía, procedente de múltiples sistemas operacionales, siendo sinónimo de base de datos corporativa contra la que las aplicaciones realizan procesos transaccionales. El empresario y político Joan Majó ve en la sociedad de la información un nuevo modelo social, ya que: Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones solo aplicarán al ámbito tecnoeconómico. En ningún caso implicará un cambio de modelo social. Las consecuencias de la revolución de las tecnologías de la información y de las comunicaciones van más allá del ámbito puramente tecnoeconómico. El inicio de la sociedad de la información data de los: Años 60, debido al incremento de la información y a la necesidad del desarrollo social en base al uso de las tecnologías de la información. Años 40. Años 60, debido a que decreció la información y un parón en el desarrollo social ocasionado por la aparición de las tecnologías de la información. La política para la sociedad de la información de la UE está basada en: Fomentar la Industria de las TIC, la gestión de cambios, el coste de los elementos materiales y generalizar la idea de servicio universal. Se debe garantizar el servicio universal, la financiación de la sociedad de la información corresponde al sector privado, y es necesario sensibilizar al gran público de manera que debe recibir la información adecuada. Alentar la inversión privada, promover la competencia, crear una regulación flexible e inteligente y asegurar el servicio universal. A raíz del reglamento GDPR, se creó la figura del DPO o Data Privacy Officer (delegado de Protección de Datos), que tiene un perfil de: Tratamiento de los datos para poder proteger intereses vitales del titular de estos datos o de otra persona, no siendo un rol experto en seguridad de los datos. Rol experto en seguridad de datos, gestión de las tecnologías de la información y Ciberseguridad. Rol experto en seguridad de datos, gestión de las tecnologías de la información y Ciberseguridad, pero teniendo un papel simple y de poca responsabilidad. Cada año la prestigiosa consultora Gartner anuncia cuáles son las diez tecnologías estratégicas. En 2020 destacó: ERP, y experiencia sensorial y modal. BlockChain, Edge Computing y Ciberseguridad. Proyectos de transformación digital, los CRM, tecnologías emergentes y las operaciones en materia de Ciberseguridad han dejado de ser claves en una empresa. Para trabajar con Power BI identificaremos los siguientes roles: Diseñador de conjuntos de datos, diseñador de informes, administrador Power BI y el gestor de la colaboración que supervisa las tareas y controla la gestión de recursos. Diseñador de conjuntos de datos, diseñador de informes, administrador Power BI y el gestor de la colaboración. Desarrollador, Testers e Implantadores de la solución. El entorno de trabajo de Power BI que nos permitirá conectar con los datos y modelarlos se llama: Power Query, que nos va a servir para conectar a los orígenes de datos, y únicamente transformar la estructura importada a las necesidades del informe que vamos a crear posteriormente. Power Query, que nos va a servir para conectar a los orígenes de datos, crear las consultas y transformar la estructura importada a las necesidades del informe que vamos a crear posteriormente. Power Query, que nos va a servir para conectar a los orígenes de datos, y únicamente crear las consultas. El Power BI está formado por: Un conjunto de datos utilizados para mostrar las visualizaciones. Un conjunto de datos utilizados para mostrar las visualizaciones, pudiendo ser únicamente sencillos. Paneles que se crean desde Power BI Desktop y son conjuntos de elementos de un informe que se visualiza. El Plan IDOC (Directrices para un Plan Nacional de Actuación 1983-1986 en materia de Documentación e Información Científica y Técnica) fue fundamental en la sociedad de la información, debido a algunas de las siguientes recomendaciones: No es importante el desarrollo de los recursos humanos necesarios para los servicios de información. Es secundario el desarrollo de una infraestructura de difusión de la información nacional en pos de otras fuentes de información. La formulación de políticas de información por parte de las administraciones públicas y sensibilizar a la sociedad del valor de la información. Inmon definió en 2005 el Datawarehouse, en relación al proceso de toma de decisiones, como el proceso donde: Se tiene una orientación al producto, no teniendo una visión completa de la organización, sus líneas de negocio y la estrategia. Los datos se estructuran por temas específicos, un Datawarehouse proporciona una visión más completa de la organización, la integración está estrechamente relacionada con la orientación a temas y el tiempo es una dimensión importante que deben soportar. Los datos se estructuran por temas generales, no pudiendo ser nunca proveedores, productos o clientes, y no tienen una información válida para tomar una decisión. La orientación a temas facilita a los usuarios determinar sólo cómo se desarrollan sus negocios. Para definir la estrategia de BI, tenemos que tener en cuenta una serie de elementos para la implementación tales como: Trabajar de modo separado el departamento de sistemas y tecnologías de la información con la estrategia del negocio y los demás departamentos, para que no haya una solución integrada, orientados al logro particular y a tener una solución general. Identificar los procesos de negocio que requieren o necesitan aplicar técnicas de análisis de forma continua y Definir y elegir a los líderes de proceso o encargados que incidan de forma determinante en la organización. No será necesaria la figura de ningún sponsor, ni tampoco la definición de un BSC o Balance Scorecard, ya que en esta estrategia no hace falta contar con los objetivos estratégicos. Para entender la arquitectura del Datawarehouse dentro del BI, tenemos algunos de los siguientes términos: Procesos ETL, que es una tecnología de integración de datos basado en tres pasos, extraer, transformar y cargar, la cual se usa tradicionalmente en la integración y diseño del Datawarehouse. Data Warehousing, que es un tipo de almacén de datos el cual proporciona únicamente los últimos valores o los más recientes excluyendo el histórico. Datamart, que es un proceso para extraer y filtrar datos de las operaciones y transacciones de la organización y sus sistemas, para transformarlos, integrarlos y almacenarlos. Las bases de datos NoSQL tienen un diseño diferente de las BB DD típicas de los sistemas: RDBMS – Sistemas gestores de base de datos relacionales. ADO. JDBC – ODBC. ¿Qué son las empresas Data Driven?. Empresas con una organización muy jerarquizada, con toma de decisiones por parte del CEO. Únicamente empresas startups. Compañías cuya toma de decisiones se efectúa sobre un conjunto de evidencias en forma de datos. Una vez que empezamos a programar en Scala tenemos que tener en cuenta que. Compatible con cualquier editor de texto, y se puede usar el IDE basado en el navegador proporcionado por Typesafe. Es un sistema de programación incompatible con los editores de texto actuales. Incompatible con el IDE de Eclipse, por lo que habrá que buscar soluciones de alto coste en el mercado dedicados. Decimos que una característica de la inteligencia tiene calidad cuando: El resultado final de un sistema de inteligencia debe guiar, de manera precisa, los procesos de toma de decisiones en una organización. Hay múltiples poseedores de conocimientos de alto nivel sobre una materia más allá de los sistemas de inteligencia. Llega cuando es necesaria, si lo hace demasiado tarde, no sirve para nada y puede provocar graves consecuencias para la organización. Las tareas de la etapa de procesamiento consisten únicamente en: Recopilación e Identificación. Recopilación, identificación, descripción y análisis documental de los datos. Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen. El teorema CAP, especifica que no hay ningún sistema de computación distribuida que sea capaz de garantizar al mismo tiempo las siguientes condiciones: Consistencia, Disponibilidad y tolerancia al particionado. Escalabilidad, Disponibilidad y ajuste. Consistencia, Elasticidad y escalabilidad. Las características de la inteligencia desde un enfoque óptimo serán: Instrumental, objetiva, oportuna, calidad, y humilde. Instrumental, procesal, objetivo, oportuna, y humilde. Reprogramable, calidad, humilde, subjetiva y oportuna. Resumiendo el concepto de MapReduce tiene que ver: Nuevo marco de programación, creado y desplegado con éxito por Google, que utiliza el método de dividir en muchos servidores básicos para descomponer problemas complejos de big data en unidades pequeñas de trabajo. Compuesto por una infraestructura de software junto con un modelo de desarrollo de aplicaciones simple, pero con técnicas potentes para desarrollar y comercializar aplicaciones de big data. Potencial de proporcionar ideas que pueden transformar todos los sectores empresariales y negocios. Algunos de los ejemplos típicos básicos de Scala podrían ser String que tendrá un valor de: Verdadero o falso. 32-bit de punto flotante de precisión simple IEEE754. Secuencia de caracteres. Mercados y competidores globales es sinónimo de: Empresas que operan solo a nivel internacional. En cualquier lugar la empresa puede tener un competidor, por lo que condiciona su estrategia. Solo tenemos competencia en nuestro país. La red de colección tiene como objetivo principal: Captar información primaria, para cualificar la veracidad. Captar información primaria independiente de su veracidad. Captar información secundaria. Las tareas de esta etapa de análisis serían: Recopilación e Identificación. Recopilación, identificación, descripción y análisis documental de los datos, excluyendo la indexación y el resumen. Evaluación, integración de datos obtenidos, e interpretación. Algunas de las ventajas de Scala serían: Código vulnerable. Stack de SAP. Stack de Spark para desarrollar aplicaciones de Big Data, con código robusto de alta productividad. |




