Módulo 1: Sistemas Distribuidos
![]() |
![]() |
![]() |
Título del Test:![]() Módulo 1: Sistemas Distribuidos Descripción: Módulo 1 |




Comentarios |
---|
NO HAY REGISTROS |
Big Data se refiere únicamente a la gran cantidad de datos almacenados. V. F. Las primeras empresas en adoptar Big Data fueron compañías como Google, eBay, LinkedIn y Facebook. V. F. Los sistemas de bases de datos tradicionales fueron diseñados para manejar eficientemente grandes volúmenes de datos no estructurados. V. F. El análisis de Big Data permite detectar fraudes y realizar campañas de marketing en tiempo real. V. F. Blockchain es una tecnología centralizada donde una autoridad controla todas las transacciones. V. F. Apache Spark es una tecnología utilizada para el almacenamiento de datos en Big Data. V. F. La Web 3.0 se basa en un modelo de Internet centralizado, controlado por grandes corporaciones. V. F. Las tecnologías de Big Data pueden ayudar en la detección temprana de enfermedades y predicción de epidemias. V. F. Los contratos inteligentes requieren de un intermediario para ser ejecutados. V. F. La computación en la nube es un tipo de sistema distribuido. V. F. Las tecnologías basadas en big data pueden generar reducciones dramáticas de beneficios. V. F. Las tecnologías basadas en big data pueden mejorar sustancialmente el ecosistema empresarial, incrementando el tiempo requerido para completar cualquier tarea informática. V. F. Los datos son privados pero la identidad de los clientes debe permanecer siempre pública. V. F. Las tecnologías basadas en Big Data no deben institucionalizar sesgos injustos tales como racismo o sexismo. V. F. La nube es un tipo particular de sistema distribuido y paralelo que consiste en una colección de ordenadores conectados a un mismo nodo central. V. F. El primer proyecto de computación distribuida basado en Internet comenzó en 1988 a través de la compañía CED, una de las mayores dificultades de esta época (1985-1995) era el ancho de banda. V. F. Algunos de los objetivos de la computación distribuida son abordar grandes problemas de cálculo, facilitar la comunicación humano-humano, o coordinar el uso de dispositivos de uso exclusivo. V. F. La computación Grid y la computación en la nube son formas de computación distribuida. V. F. La Web 3.0 es la tercera generación de Internet en la que los dispositivos están conectados de forma descentralizada en lugar de depender de una base de datos basada en servidor. V. F. Algunos beneficios de la Web 3.0 son: sus mecanismos antimonopolio, su interoperabilidad o sus altas prestaciones de seguridad. V. F. Se podrían aplicar técnicas de BigData en educación para obtener información de una clase con 30 alumnos. V. F. El BigData puede incluir información geoespacial y tridimensional. V. F. MapReduce permite simplificar y filtrar varias fuentes de información en un único documento para su uso posterior en otras tareas. V. F. Sqoop es una plataforma de adquisición de datos relacionales en tiempo real. V. F. La computación paralela fue potenciada desde sus comienzos gracias al paralelismo mediante hebras. V. F. Distributed.net (1997) fue el primer proyecto que usó Internet para distribuir datos para cálculo y obtener sus resultados. V. F. La blockchain se puede definir como un ledger público o privado y distribuido que puede registrar transacciones entre dos partes de forma eficiente, verificable e inmutable. V. F. La blockchain es inmutable gracias a la descentralización y distribución de la información. V. F. El código de Machine Learning forma una parte considerable de todos los frameworks usados con este fin. V. F. El algoritmo AllReduce clásico permite bloquear una tarea para sincronizarla con otras. V. F. Es innegable que las tecnologías propietarias presentan una integración mucho más fácil que las tecnologías de código abierto. V. F. Podemos afirmar que Cassandra presenta una base de datos No-SQL y necesita de Hadoop. V. F. Se puede considerar el correo electrónico como la primera aplicación distribuida a gran escala. V. F. El primer proyecto de computación distribuida basado en internet comenzó en 1988. V. F. La primera criptomoneda que no preciso de una autoridad central fue Altcoin, la segunda y más conocida fue Bitcoin. V. F. La Web 3.0 sería la tercera generación de internet, la cual está centrada en el usuario, las empresas y la velocidad. V. F. Una de las ventajas de los Smart contracts es que son completamente transparentes. V. F. BigDL provee BigMLL, un sistema de análisis de datos centrado en la privacidad. V. F. En BigDL, cada tarea en el trabajo es sin estado y no bloqueante. V. F. Los sistemas de machine learning suelen presentar estructuras muy simples y pequeñas, donde el código es lo más vasto del sistema. V. F. Actualmente, Facebook genera más de 500 TB de nuevos datos cada día . V. F. BigData es sólo números, fechas y cadenas. V. F. Hadoop distribuye la información en un conjunto de servidores (cluster) con diferentes motores de procesamiento. V. F. Spark tiene peor rendimiento que Hadoop. V. F. La computación distribuida se define como un sistema con una única computadora autónoma conectada a una red . V. F. La computación distribuida es omnipresente: intranet, Internet o computación ubicua (portátil, PDAs, Smartphones, etc). V. F. Según Wikipedia, la Blockchain es un libro digital de contabilidad (ledger) público y centralizado . V. F. Bitcoin es la primera criptomoneda que no precisa de una autoridad central. V. F. La arquitectura clásica AllReduce es compatible directamente con los actuales sistemas de big data. V. F. Un clúster Spark consta de un único nodo controlador y varios nodos trabajadores. V. F. BigData es exactamente lo mismo que SmallData, solo que con menor volumen. V. F. BigData solo incluye números, fechas y cadenas de texto. V. F. Las tecnologías para BigData distribuyen información en un conjunto de servidores (clúster) con diferentes motores de procesamiento. V. F. Hadoop incluye Map Reduce y HDFS. V. F. En los sistemas distribuidos, la principal motivación es la compartición de recursos. V. F. Un sistema distribuido consiste en una única computadora autónoma que se comunica mediante una red de ordenadores. V. F. Blockchain es un libro digital de contabilidad (ledger) privado. V. F. La Web 3.0 depende de una base de datos basada en servidor. V. F. BigDL es un framework de Intel de Inteligencia Artificial distribuida para aplicaciones. V. F. BigDL es un framework para aplicaciones centralizadas. V. F. La confidencialidad de los datos en Big Data no puede ser garantizada debido al elevado volumen de información disponible. V. F. La web 3.0 es más segura, mejor conectada y está centrada en el usuario. V. F. En un contrato inteligente ambas partes pertenecen en el anonimato. V. F. Las soluciones SQL son menos eficientes que las soluciones NoSQL para ciertas etapas de Big Data, especialmente aquellas que requieren alta velocidad y escalabilidad horizontal. V. F. Una dApp es un tipo de aplicación que se ejecuta en una red de nodos centralizada. V. F. Las siglas SaaS hacen referencia a “System as a Service” y es la capa a más alto nivel en la nube. V. F. Un Sistema Distribuido consiste en múltiples computadoras autónomas que se comunican mediante una red de ordenadores. V. F. El concepto de computación distribuida es la forma menos eficiente de conseguir optimización. V. F. El BigData genera valor a partir del almacenamiento y el procesamiento de grandes cantidades de datos. V. F. Las características del BigData son volumen, velocidad y veracidad. V. F. Uno de los objetivos del BigData es procesar la información más eficazmente. V. F. El almacenamiento de datos no se puede realizar de forma distribuida. V. F. Las fuentes de los datos en BigData pueden variar. V. F. Un sistema distribuido se refiere a múltiples computadoras remotas, comunicadas mediante una red de ordenadores, cuya misión es realizar la misma tarea, para comprobar cuál es la más rápida. V. F. La computación grid y la computación en la nube son formas de computación distribuida. V. F. Una de las finalidades de la cadena de bloques es tener la capacidad de deshacer las transacciones completadas con éxito. V. F. Los contratos inteligentes son ejecutados cuando se cumplen determinadas condiciones para automatizar el acuerdo entre los participantes. V. F. BigDL permite el uso de modelos de inteligencia artificial en entornos de computación distribuida. V. F. Los usuarios de Rocks Cluster se definen en los nodos de cómputo. V. F. BigData y SmallData son lo mismo. V. F. Las tres características del BigData son: volumen, velocidad y valor. V. F. Uno de los objetivos del BigData es predecir las necesidades de los clientes. V. F. La tecnología propietaria de Apache Hadoop se considera el origen de la computación distribuida. V. F. Los elementos principales que constituyen una plataforma de computación o almacenamiento distribuido son: adquisición, almacenamiento, procesamiento y análisis de datos. V. F. La nube es un tipo particular de sistema distribuido y paralelo que consiste en una colección de ordenadores interconectados. V. F. Las arquitecturas masivamente paralelas comienzan a surgir entre los años 1975 y 1985. V. F. La tecnología blockchain o de cadena de bloques surge con la aparición de Bitcoin. V. F. El ledger o libro de cuentas de una blockchain es inmutable. V. F. Los sistemas tradicionales de bases de datos relacionales (SQL) son la mejor opción para manejar grandes volúmenes de datos no estructurados. V. F. Apache Spark es un sistema de almacenamiento de datos en la nube. V. F. Los modelos de Machine Learning no pueden entrenarse con datos distribuidos en diferentes servidores. V. F. Los algoritmos de Machine Learning no se pueden usar para el análisis de datos en tiempo real. V. F. Los sistemas de Big Data solo funcionan con datos estructurados almacenados en bases de datos relacionales. V. F. Los contratos inteligentes pueden modificarse una vez implementados en la blockchain. V. F. Las redes blockchain públicas permiten a cualquier usuario verificar transacciones sin restricciones. V. F. Las bases de datos NoSQL se usan comúnmente en aplicaciones de Big Data debido a su escalabilidad y flexibilidad. V. F. Los contratos inteligentes permiten la automatización de acuerdos sin necesidad de intermediarios. V. F. Los contratos inteligentes se ejecutan automáticamente cuando se cumplen las condiciones establecidas en su código. V. F. El proceso de sincronización entre blockchains se realiza automáticamente sin necesidad de protocolos específicos. V. F. Una blockchain privada no puede interactuar con una blockchain pública. V. F. Un contrato inteligente puede revertir una transacción si una condición no se cumple. V. F. El uso de blockchain en Machine Learning puede ayudar a garantizar la trazabilidad de los modelos y sus decisiones. V. F. Los contratos inteligentes en blockchain pueden automatizar procesos de validación de datos en Machine Learning. V. F. La conectividad de redes en los años 70 permitió el surgimiento de aplicaciones distribuidas que funcionaban en sistemas conectados mediante cables telefónicos. V. F. Las tres “V” que caracterizan a la tecnología de Big Data son: Volumen, Velocidad y Veracidad. V. F. El Big Data no plantea riesgos éticos si los datos se anonimizan adecuadamente. V. F. La capa de adquisición de datos de Big Data se encarga de almacenar permanentemente todos los datos que recoge. V. F. Los sistemas distribuidos no se utilizan en aplicaciones críticas donde la fiabilidad es importante, ya que los fallos son comunes. V. F. Big Data solo se aplica al sector tecnológico y no tiene impacto en otras industrias. V. F. La velocidad es una de las características clave de Big Data, ya que permite procesar información en tiempo real. V. F. Los datos en Big Data solo pueden ser estructurados, como bases de datos relacionales. V. F. Los sistemas distribuidos permiten la compartición de datos y dispositivos de manera eficiente. V. F. En un sistema de blockchain público, es necesario solicitar permiso para participar en la red. V. F. El almacenamiento distribuido en la nube ayuda a mejorar la disponibilidad y accesibilidad de los datos. V. F. Apache Hadoop es una tecnología propietaria utilizada en Big Data. V. F. El concepto de Web 3.0 promueve la centralización de datos y el control por parte de grandes empresas. V. F. La computación en la nube permite escalar aplicaciones mediante el uso de múltiples servidores interconectados. V. F. Los contratos inteligentes permiten la automatización de procesos sin la necesidad de intermediarios. V. F. Las tres características principales de BigData son volumen, velocidad y variedad. V. F. Las tecnologías de código abierto como hadoop se dice que “Distribuyen información en un conjunto de servidores especializados, con su propio motor de procesamiento. V. F. Tres de las características de de los Smart Contract son: Transparencia total, tolerante a fallos y resultado no garantizado. V. F. La computación distribuida utiliza una red de muchas computadores, cada una llevando a cabo una porción de una tarea, para lograr un resultado computacional más rápidamente. V. F. La computación Grid y la computación en la nube son dos formas de computación distribuida. V. F. El ataque del 50% es una vulnerabilidad de la blockchain mediante la cual un grupo con el 50% de mineros podría causarla. V. F. Un cluster de Spark consiste en varios “driver node” y un solo nodo “worker”. V. F. BigDL proporciona: Dlib, Orca, Friesian, Chronos y PPML. V. F. Cuando se crea un Smart Contract este es creado entre dos personas y se conoce la identidad de estas dos. V. F. La Web3.0 está centrada en el usuario, siendo más segura y mejor conectada. V. F. Hadoop es un framework de código abierto que permite el almacenamiento y procesamiento de grandes volúmenes de datos. V. F. Apache Kafka es una plataforma utilizada principalmente para el procesamiento de datos en tiempo real. V. F. El uso de servidores "commodity" se refiere a la utilización de hardware estándar y de bajo costo para almacenar y procesar datos en big data. V. F. Cloudera es una empresa que ofrece soluciones de Big Data y se basa principalmente en tecnologías de código cerrado. V. F. El término Big Data se refiere únicamente al almacenamiento de grandes volúmenes de datos. V. F. Las primeras empresas en adoptar Big Data fueron principalmente aquellas que ofrecen servicios físicos. V. F. Las tecnologías de Big Data están diseñadas para facilitar la gestión y análisis de datos a gran escala. V. F. El uso de Big Data está limitado a las grandes empresas y no es accesible para las pequeñas y medianas empresas. V. F. El análisis de Big Data solo puede realizarse de manera manual. V. F. La geolocalización es un tipo de dato irrelevante en el análisis de Big Data. V. F. Blockchain es un sistema centralizado de almacenamiento de datos. V. F. Los contratos inteligentes permiten la ejecución automática de acuerdos sin intermediarios. V. F. La Web 3.0 se basa en una arquitectura centralizada y depende de servidores específicos. V. F. La computación distribuida permite el procesamiento de datos en múltiples computadoras interconectadas. V. F. Big Data se enfoca únicamente en el almacenamiento de grandes volúmenes de información sin procesamiento adicional. V. F. Hadoop es una tecnología clave en el ecosistema de Big Data, especialmente para el almacenamiento y procesamiento distribuido de datos. V. F. Un ataque del 51% en una blockchain permite a un grupo de mineros modificar transacciones. V. F. El término “Fiat” en Blockchain hace referencia a una criptomoneda estable respaldada por activos digitales. V. F. SETI@Home fue uno de los primeros proyectos de computación distribuida en utilizar Internet para procesamiento de datos. V. F. BigDL es un framework de IA distribuida desarrollado por Intel para el procesamiento de datos en la nube. V. F. BigData apareció en la segunda década del siglo XXI. V. F. Blockchain es un libro digital de contabilidad distribuido y permanente. V. F. BigDL es un framework de inteligencia artificial distribuida desarrollado por Google. V. F. Un sistema distribuido está compuesto por una sola computadora que gestiona múltiples tareas. V. F. Las bases de datos No-SQL en BigData requieren el uso obligatorio de Hadoop. V. F. Ether es el token de la blockchain de Ethereum. V. F. La Web 3.0 depende de servidores centralizados para gestionar la información. V. F. El modelo de computación distribuida permite mejorar el rendimiento al repartir las tareas entre varias máquinas. V. F. El científico de datos es un profesional clave en el análisis y procesamiento de BigData. V. F. El uso de BigData en la salud permite la detección temprana de enfermedades y la predicción de epidemias. V. F. El Big data son pequeños conjuntos de datos estructurados. V. F. Entre las tecnologías fundamentales para el procesamiento de grandes volúmenes de datos se encuentran Frameworks como Hadoop y Spark. V. F. Los datos que se generan a partir de redes sociales y los sensores IOT son datos no estructurados. V. F. El objetivo principal del análisis de Big data es eliminar datos innecesarios. V. F. Blockchain es una tecnología que garantiza la inmutabilidad de los datos. V. F. El análisis de Big Data siempre requiere el uso de bases de datos relacionales tradicionales. V. F. Blockchain es una tecnología centralizada donde una única entidad controla toda la información. V. F. La combinación de Big Data y Blockchain puede mejorar la trazabilidad y la transparencia en las cadenas de suministro. V. F. Hadoop es un framework utilizado para el procesamiento distribuido de grandes conjuntos de datos. V. F. Blockchain garantiza la privacidad total de los datos almacenados. V. F. La tecnología blockchain solo es usada para el desarrollo de criptomonedas. V. F. La primera vez que se usó blockchain fue para la realización de la red de Bitcoin. V. F. ApacheSpark depende exclusivamente de Hadoop. V. F. La nube es un tipo particular de sistema distribuido y paralelo que consiste en una colección de ordenadores interconectados. V. F. La red blockchain puede ser pública o privada. V. F. BigDL escala aprendizaje profundo y análisis de datos en Apache Spark. V. F. Big Data siempre proporciona información precisa y libre de sesgos. V. F. Para realizar el ataque Ataque del 51% necesitas tener al menos el control del 50% +1 de los nodos. V. F. Blockchain se considera una tecnología M2P. V. F. Big Data solo se trata de almacenar grandes volúmenes de datos sin necesidad de nuevas tecnologías. V. F. Una de las características principales de Big Data es la velocidad con la que se generan y procesan los datos. V. F. Hadoop es una herramienta clave en el almacenamiento y procesamiento de Big Data. V. F. Los datos de Big Data siempre están estructurados y organizados en bases de datos tradicionales. V. F. Facebook, Google y LinkedIn fueron algunas de las primeras empresas en adoptar Big Data. V. F. El análisis de datos en tiempo real no es posible con Big Data. V. F. Big Data no tiene impacto en sectores como la educación y la salud. V. F. Uno de los desafíos éticos de Big Data es garantizar la privacidad de los datos de los usuarios. V. F. El modelo de procesamiento MapReduce se utiliza en Big Data para analizar grandes volúmenes de datos de manera eficiente. V. F. Las bases de datos NoSQL son incompatibles con Big Data y no se utilizan en su procesamiento. V. F. Big Data surgió en la primera década del siglo XXI y fue adoptado inicialmente por grandes corporaciones tradicionales como bancos y aseguradoras. V. F. Una de las principales características de Big Data es la variedad, ya que no solo maneja números y texto estructurado, sino también datos geoespaciales, imágenes y videos. V. F. Hadoop es una tecnología clave en Big Data que permite distribuir información en un conjunto de servidores y procesarla de manera eficiente. V. F. Las bases de datos No-SQL dependen estrictamente del ecosistema Hadoop para su funcionamiento. V. F. Un sistema distribuido está compuesto por múltiples computadoras autónomas que se comunican entre sí para procesar datos de manera eficiente. V. F. El primer sistema distribuido a gran escala fue creado por Google en el año 2000 con el desarrollo de su motor de búsqueda. V. F. Un contrato inteligente (Smart Contract) es un programa que se ejecuta automáticamente en la blockchain cuando se cumplen ciertas condiciones predefinidas. V. F. La Web 3.0 se basa en una arquitectura centralizada para mejorar la velocidad y el control de los datos. V. F. BigDL es un framework de Inteligencia Artificial distribuida desarrollado por Google para mejorar el rendimiento en la nube. V. F. BigDL permite entrenar modelos de aprendizaje profundo en entornos distribuidos utilizando Apache Spark. V. F. El concepto de Big Data se caracteriza por las "5V": volumen, velocidad, variedad, veracidad y valor. V. F. Hadoop es un sistema de bases de datos relacional diseñado para gestionar datos estructurados de forma centralizada. V. F. En computación distribuida, el teorema CAP establece que un sistema puede garantizar simultáneamente consistencia, disponibilidad y tolerancia a particiones sin restricciones. V. F. Los sistemas NoSQL, como MongoDB y Cassandra, son ampliamente utilizados en entornos de Big Data debido a su capacidad de escalar horizontalmente. V. F. Blockchain es un modelo de almacenamiento centralizado que no tiene aplicación en entornos de Big Data. V. F. Apache Spark permite el procesamiento de datos en memoria, lo que lo hace más eficiente que Hadoop en muchas aplicaciones. V. F. La arquitectura Lambda combina procesamiento en tiempo real con procesamiento en lotes para mejorar la eficiencia del Big Data. V. F. El modelo MapReduce se basa en dos fases principales: mapeo y reducción, facilitando el procesamiento paralelo de grandes volúmenes de datos. V. F. El impacto del Big Data en la sociedad se limita exclusivamente a las empresas tecnológicas y no afecta a otros sectores. V. F. BigDL es un framework diseñado para la implementación de modelos de inteligencia artificial en sistemas de computación distribuida. V. F. |