Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEArquitectura de computadores

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Arquitectura de computadores

Descripción:
Recopilacion de preguntas unidades y examenes

Autor:
AVATAR
Fernando Martin
(Otros tests del mismo autor)


Fecha de Creación:
03/04/2024

Categoría:
Informática

Número preguntas: 258
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
Las arquitecturas SMP y NUMA son arquitecturas paralelas arquitecturas multiprocesador basadas en procesador multinúcleo arquitecturas distribuidas arquitecturas multihilo.
La arquitectura MISD es poco común, puesto que no es efectivo tener múltiples flujos de instrucciones sobre un único flujo de datos las arquitecturas multiprocesador pertenecen a esta categoría las arquitecturas de los primeros ordenadores pertenecen a esta categoría se utiliza comúnmente en aplicaciones de procesado vectorial.
La arquitectura RISC se caracteriza por .
Según lo visto en teoría, utilizar el paralelismo siempre va a redundar en una reducción en el tiempo final de ejecución, aunque a veces esta mejora puede ser muy pequeña Verdadero Falso.
¿Cuál es la diferencia entre la computación distribuida y la computación paralela? a.En la computación paralela la carga de trabajo se distribuye de igual manera entre los distintos procesadores o cores, y en la computación distribuida no. b.No hay diferencia, son términos sinónimos. c.La computación paralela se caracteriza porque existe una infraestructura de red a partir de la cuál se comunican los ordenadores que trabajan en conjunto para resolver un mismo problema. d.En la computación distribuida existe una infraestructura de red de comunicaciones que permite a los ordenadores trabajar para resolver un mismo problema de manera conjunta.
Seleccione cuál de las siguientes afirmaciones es correcta a.Los principios de localidad temporal y espacial se aplican únicamente a los datos con los que trabaja un programa b.De acuerdo con el principio de localidad temporal, conviene no eliminar de memoria caché un dato tras su uso porque lo normal es que se vuelva a utilizar c.Según el principio de localidad espacial, conviene no eliminar de memoria caché un dato tras su uso porque lo normal es que se vuelva a utilizar d.Según el principio de localidad temporal, conviene eliminar de memoria caché un dato tras su uso porque lo normal es que no se vuelva a utilizar.
De acuerdo con la Ley de Amdahl, la ganancia máxima posible de un código con un 3% de código no paralelizable y 4 procesadores es superior a la ganancia máxima posible de un código con un 10% de código no paralelizable y 5 procesadores Verdadero Falso.
Según la ley de Amdahl: a.El número de circuitos integrados por unidad de superficie se espera que se duplique cada dos años b.Los datos e instrucciones que se utilizan en un momento es esperable que se vuelvan a utilizar en un futuro próximo c.Cuando se utiliza un bloque de datos en un punto del programa, es probable que los bloques de datos adyacentes se utilicen en un futuro próximo d.La escalabilidad decrece conforme se incrementa la fracción de código que no se puede paralelizar.
Indique los tipos de paralelismo que podrían ser implementados en un sistema con un único procesador Paralelismo a nivel de instrucción y paralelismo a nivel de datos Paralelismo a nivel de tareas y paralelismo a nivel de datos Paralelismo a nivel de datos, a nivel de instrucción y a nivel de tareas Paralelismo a nivel de instrucción y paralelismo a nivel de tareas.
Algunos ejemplos de modelos de arquitectura distribuida son (seleccione más de una respuesta si fuera necesario): Modelo de von Neumann Arquitectura CISC Computación en grid o en malla Modelo en cluster Modelo NUMA.
En el modelo de von Neumann se proponen dos memorias separadas para el almacenamiento de instrucciones y datos respectivamente Verdadero Falso .
El paralelismo a nivel de instrucción permite que el número de instrucciones ejecutadas por una CPU por unidad de tiempo aumente Verdadero Falso.
(sustituye)Relacione cada definición con el concepto al que hace referencia Se caracteriza por tener poco procesamiento y gran cantidad de comunicación AAAAAA, Se caracteriza por las bajas necesidades de comunicación y los altos requerimientos de procesamiento BBBBB AAAAAA Granulalaridad fina AAAAAA Granularidad gruesa BBBBB Paralelismo a nivel de tareas BBBBB Granularidad gruesa.
Asigne cada concepto relativo a las redes de interconexión con su definición: Se encarga de definir, en base a una serie de parámetros, la ruta óptima para el envío de un mensaje dentro una la red Red en la que todos los elementos de la red están interconectados físicamente unos con otros Red cuya topología puede variar durante la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas Mecanismo mediante el cual el receptor controla la velocidad de transmisión.
Según el National Institute of Standards and Technology (NIST), las características esenciales del modelo en la nube son (indique todas las opciones correctas): Acceso ubicuo a la red Elasticidad rápida Baja latencia Conectividad total Autoservicio bajo demanda Distribución de recursos independientes de la posición Gran capacidad de procesado Servicio medido .
¿Cuál de las siguientes es una desventaja de la computación en cloud? Posibles problemas de escalabilidad a largo plazo Implementación lenta Actualizaciones automáticas Aumento del gasto energético.
Indique qué afirmación sobre los orígenes del cloud es verdadera El origen de la computación en cloud data de hace unos pocos años, en el siglo XXI Conviene hacer un trabajo exhaustivo en el diseño puesto que no se debe cambiar un servicio cloud una vez configurado Pueden ofrecer servicios IaaS, PaaS y TaaS Se pueden utilizar equipos terminales de baja potencia y bajas capacidades, denominados "terminales tontas", para trabajar con los servicios cloud.
Indique cuál de las siguientes afirmaciones sobre las redes de interconexión es falsa: La mayoría de redes con un número elevado de nodos tienen conectividad parcial El control de flujo es el mecanismo encargado de definir la ruta óptima para el envío del mensaje Dependiendo de si su topología es fija o puede variar durante la ejecución se definen como redes estáticas o dinámicas Algunos ejemplos de topología de red de interconexión son la red en bus, en árbol o en malla.
Indique la afirmación más adecuada respecto a la arquitectura UMA y los sistemas DSM: Hay un acuerdo en la literatura respecto a que son conceptos diferentes Todos los autores de la literatura dicen que no hay diferencias entre ambos conceptos Según los autores que las consideran diferentes, la arquitectura UMA se refiere al hardware y DSM a una implementación software Según los autores que las consideran diferentes, la arquitectura UMA se refiere al software y DSM a una implementación hardware.
Un clúster de computación, a nivel de software, puede contar con los siguientes elementos. Indique cuál de ellos siguientes no es imprescindible para la creación del clúster: un middleware que proporcione una interfaz única para acceder al sistema un sistema operativo que soporte la creación de dicho clúster herramientas para la gestión de usuarios y el balanceo de carga herramientas para la detección y recuperación frente a errores.
Seleccione cuál de las siguientes afirmaciones relacionada con el encaminamiento es incorrecta: el encaminamiento es un mecanismo que puede ser hardware o software herramientas para la detección y recuperación frente a errores el algoritmo de encaminamiento se encarga de buscar rutas óptimas dentro de la red de interconexión los mecanismos de encaminamiento solo tienen sentido en redes totalmente conectadas.
¿Cuál de las siguientes afirmaciones sobre las redes estáticas y dinámicas es correcta? la topología de las redes dinámicas puede variar durante el curso de la ejecución de un programa se denomina acoplamiento fuerte a la topología que tiene varios enlaces entre cada par de nodos y acoplamiento débil a la red que tiene al menos un par de nodos con un único enlace en las redes estáticas la topología se fija al iniciar la ejecución del programa paralelo, por lo que puede cambiar entre diferentes ejecuciones en las redes dinámicas la topología se fija al iniciar la ejecución del programa paralelo.
Indique cuál de las siguientes afirmaciones sobre las topologías de red es correcta siempre (considere que todos los enlaces son bidireccionales, es decir, permiten la comunicación en ambos sentidos): si cae un único nodo de una topología en estrella el resto podrían comunicarse entre sí sin problema la red con topología en árbol que se muestra puede soportar la caída de un enlace y seguir permitiendo la comunicación entre todos sus nodos en una red de doble anillo es necesaria la caída de al menos 4 enlaces para que un nodo quede aislado del resto si se rompe un único enlace de la topología en anillo un nodo podría quedar aislado.
Un centro de datos básico (AAAA), con una disponibilidad del 99,671 %, (BBBB). Por el contrario, un centro de datos tolerante a fallos (CCCC), tienen componentes redundantes y (DDDD) AAAA Tier 1 BBBB Tier 4 .
Indique cuál de las siguientes afirmaciones sobre el concepto de virtualización es correcta: El origen de este concepto está en los inicios del siglo XXI con el auge de Internet y la aparición de los servicios cloud La virtualización puede utilizarse para desarrollo o prototipado, pero nunca en un sistema real final La virtualización consiste en proporcionar acceso físico a los recursos lógicos de un computador Existen diferentes modelos de virtualización en función del recurso abstraído y del ente que dispone de dicho recurso.
Indique la afirmación falsa relacionada con el cuadrado mágico de Gartner Los principales proveedores de servicios cloud son AWS, Microsoft Azure y Google Cloud Las empresas se categorizan como líderes, aspirantes, visionarios y jugadores de nicho de mercado Oracle, IBM y Alibaba están creciendo en los últimos años en cuanto a volumen de mercado Presentan a empresas atendiendo a dos ejes: el volumen de facturación y la capacidad de ejecución de las empresas.
¿Cuál de los siguientes no es un modelo de virtualización? Virtualización de plataforma Virtualización de sistema operativo Virtualización de recursos Virtualización de aplicaciones.
Un hipervisor o hypervisor es un monitor de bajo nivel de máquinas virtuales que se inicia antes del arranque de las máquinas virtuales y que normalmente corre sobre el hardware, aunque también lo puede hacer sobre un sistema operativo Verdadero Falso.
¿A qué arquitectura corresponde el siguiente esquema? Application / Libraries Operating system Virtual Machine monitor Hardware Es la arquitectura de un sistema con un VMM anfitrión o hosted Máquina virtual de hardware/sistema con hipervisor nativo Máquina virtual de proceso o aplicación Es la arquitectura de un computador sin virtualización.
Indique cuál de las siguientes afirmaciones sobre los centros de datos de AWS es correcta: AWS no cuenta con ningún centro de datos en Europa actualmente: solo da servicio a través de centros de borde de red AWS, y la empresa líder y está asentada en el mercado, por lo que no tiene planificados nuevos centros de datos en el futuro AWS dispone desde hace varios años de un centro de datos en España Se espera que en los próximos años se creen nuevos centros de datos de AWS tanto en Europa como en el resto del mundo.
¿Cuál de las siguientes afirmaciones sobre los diferentes modelos de virtualización es falsa? La emulación y la paravirtualización son dos tipos de virtualización de plataformas comerciales Es posible virtualizar tanto máquinas completas como aspectos más concretos: recursos, aplicaciones, plataformas, etc Es posible, sobre una máquina física con un determinado sistema operativo, virtualizar una máquina con otro sistema operativo Surgieron a raíz de la computación en la nube, puesto que era necesario abstraer algunos elementos de la arquitectura.
¿Cuál de las siguientes afirmaciones sobre los servicios básicos de AWS no es correcta? EC2 es un servicio de cómputo básico de AWS AWS, de momento, no ofrece servicios de contenedor, por lo que no es posible trabajar con Docker, Kubernetes o Fargate Glacier, EFS y S3 son ejemplos de servicios de almacenamiento de AWS CloudFront y Virtual Private Cloud son servicios de red de AWS.
La unidad mínima de trabajo en la computación paralela se denomina AAAAAA , y se caracterizan porque siempre se ejecutan de manera BBBBBB . Además, según la relación entre su tiempo de ejecución y de comunicación se pueden clasificar como tareas CCCCC AAAAA tarea BBBBB secuencial CCCCCC de grano grueso y grano fino.
Reducir el tamaño de las zonas de exclusión mutua en los datos de trabajo ayuda a reducir el tiempo de sincronización en nuestro programa paralelo Verdadero Falso.
Según el cuadrante de Gartner, ¿cuál de las siguientes empresas no es proveedor de un servicio cloud considerado en la categoría de líderes? Amazon IBM Microsoft Google.
Algunos modelos de programación paralela existentes en la literatura son: paralelismo sobre mensajes, paralelismo sobre datos y paralelismo de memoria modelo de memoria compartida, paralelismo de datos y paralelismo de paso de mensajes paralelismo sobre memoria compartida, paralelismo sobre memoria caché y paralelismo sobre paso de mensajes paralelismo de instrucción, paralelismo de datos y modelo de memoria compartida.
Indique para qué tipo de consistencia es válida la siguiente secuencia de eventos de lectura/escritura: Consistencia secuencial Consistencia secuencial y consistencia causal Consistencia causal y consistencia PRAM Consistencia estricta.
Indique cual de las siguientes afirmaciones sobre las memorias caché es incorrecta: típicamente puede haber hasta tres niveles de memoria caché la memoria caché de nivel 1 es la más cercana al núcleo del procesador la caché de nivel 1 se suele dividir en caché de instrucción y caché de datos la caché de nivel 3 se suele dividir en caché de instrucción y caché de datos.
La concurrencia explícita, al contrario que la implícita, requiere que el programador realice tareas como el guiado de la paralelización, la distribución de los datos o la definición del algoritmo a implementar verdadero falso.
En la arquitectura de acceso uniforme a memoria (UMA) el tiempo de acceso a memoria es siempre el mismo para cualquier localización de memoria salvo las localizadas en el propio procesador desde el que se intenta acceder, en cuyo caso el tiempo de acceso a memoria es mucho menor Verdadero falso.
Indique cuál de las siguientes situaciones es causa de un problema en la ejecución de un programa bloqueo bloqueo mutuo barrera cerrojo.
En un sistema que implemente el protocolo de invalidación MESI, ¿qué ocurre cuando un procesador está en estado exclusive y otro procesador necesita leer de ese bloque de memoria caché? Diagrama de flujo del protocolo de invalidación MESI Envía un mensaje de denegación de lectura, puesto que dispone del uso exclusivo de ese bloque Envía el bloque de memoria a memoria principal y pasa a estado shared Envía el bloque de memoria al procesador que ha solicitado dicho bloque y pasa a estado invalid Envía el bloque de memoria al procesador que ha solicitado dicho bloque y pasa a estado shared.
Identifique a qué mecanismos de sincronización corresponden las definiciones: Conjunto formado por un cerrojo o variable lógica cuyo valor puede tomar dos estados y las funciones lock y unlock Punto de ejecución de un programa en el que los procesos deben detenerse a la espera de que todos los procesos lo alcancen para proseguir con la ejecución del programa Mecanismo de turnos para acceder a una sección crítica diseñado con el objetivo de reducir las comunicaciones cuando hay muchos procesos a la espera.
En el modelo de memoria compartida los procesos se comunican entre sí mediante mensajes para coordinarse en el uso de la memoria que comparten verdadero Falso.
Seleccione el conjunto de modelos de consistencia que están ordenados de menos estrictos a más estrictos Consistencia estricta - consistencia secuencial - consistencia causal - consistencia PRAM - consistencia débil Consistencia PRAM - consistencia causal - consistencia secuencial Consistencia de entrada - consistencia PRAM - consistencia causal - consistencia estricta - consistencia secuencial Consistencia de liberación - consistencia débil - consistencia causal - consistencia estricta - consistencia del procesador.
Hemos diseñado un programa que tarda en ejecutarse 10 segundos si se hace de manera secuencial y 5 segundos si se ejecuta de manera paralela empleando 4 procesadores. Indique la afirmación correcta: la aceleración conseguida con el sistema paralelo es de 0,5 la eficiencia del nuevo sistema es de 0,5 la eficiencia del nuevo sistema es de 2 la ganancia en velocidad es de 0,5.
Indique cuál de las siguientes medidas convendría adoptar de cara a reducir el tiempo de comunicación entre los procesos de una programación paralela: reducir el ancho de banda del canal por el que enviamos los mensajes aumentar la frecuencia de envío de mensajes solapar eventos de comunicación con los eventos de cómputo del sistema aumentar la cantidad de datos comunicados entre los procesadores.
Los protocolos de coherencia de caché de tipo bus snooping sólo son aplicables a sistemas de memoria compartida que se comunican mediante un bus Verdadero Falso.
1. ¿Qué ventaja tiene el modelo de memoria compartida? a. Todo se basa en el paso de mensajes y la comunicación es más fiable. b. Se reduce la latencia producida en las comunicaciones. c. Cada una de las unidades funcionales se encuentra en una máquina compartida; por ello, aumenta la robustez del sistema. d. Todas las respuestas son correctas.
En comunicaciones, ¿qué es el control de flujo? a. Define la ruta más óptima para el envío de un mensaje dentro de la red de interconexiones. b. Define la ruta más corta para el envío de un mensaje dentro de la red de interconexiones. c. No existe el control de flujo. d. Provee un mecanismo para que el receptor controle la velocidad de transmisión, de manera que el nodo receptor no se sature de datos que llegan del nodo emisor.
Dados los estados exclusivo modificado, exclusivo sin modificar, compartido sin modificar e inválido, identifica el protocolo de coherencia entre memoria principal y memoria caché que los contiene. Protocolo MESI. b. Protocolo MESE. c. Protocolo MMSE. d. No existe un protocolo que los contenga. Página 2.
¿Para qué sirve tener una memoria caché L2? a. Para reducir los accesos a la memoria principal ya que la L2 es más lenta que la L3. b. Para reducir los accesos a la memoria principal ya que la L2 es más lenta que la memoria principal. c. Para reducir, en la medida de lo posible, el número de veces que accedemos a la memoria principal. d. Para aumentar el número de accesos a la memoria L3 y reducir la latencia.
5. ¿Qué tipo de interconexión presenta una red de interconexión en estrella? a. Dinámica b. Estática. c. Toroidal. d. En frecuencia.
6. Identifica la respuesta correcta sobre la arquitectura de un procesador. a. Únicamente se basa en el juego de instrucciones. b.Únicamente se basa en el diseño conceptual del procesador c. Se basa en el juego de instrucciones, el diseño conceptual y la forma de seleccionar e interconectar componentes del hardware d. Ninguna de las respuestas anteriores.
7. Selecciona la respuesta correcta sobre los procesadores VLIW. a. Utilizan palabras de instrucción pequeñas b. No utilizan palabras de instrucción. c. Utilizan palabras de instrucción grandes. d. Utilizan un gran conjunto de instrucciones (muchas instrucciones diferentes). Página 3.
¿Qué podrías decir de pipelining en arquitectura de computadores? a. No es un término asociado a la arquitectura de computadores. b. Se trata de una estructura de instrucciones de varias etapas. c. Es una técnica software que se une en los procesadores VLIW. d. Ninguna de las respuestas es correcta.
Selecciona la respuesta correcta. a. En el modelo UMA, todos los procesos acceden a la memoria de manera uniforme. b. En el modelo NUMA, la memoria se accede en posiciones relativas de otro proceso o memoria compatible entre procesos. c. El modelo NUMA puede mejorar el rendimiento utilizando una única memoria compartida. El rendimiento mejorado se ve multiplicado por un factor que es aproximado al número de procesadores. d. Todas las respuestas son correctas.
Selecciona una desventaja de usar una sola caché compartida por todos los procesadores a. Se elimina la coherencia. b. Se reduce la latencia en los datos compartidos. c. Es necesario un mayor ancho de banda con cachés privadas de menor capacidad. d. No tiene desventajas.
¿Qué podrías decir de la computación en la nube? a. Es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es Internet. b. Es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es un computador local. c. Es un paradigma que permite ofrecer servicios de transporte a través de una red, que usualmente es Internet. d. La computación en la nube explota todos los recursos hardware de tu computador.
12. ¿En qué consiste el paralelismo a nivel de memoria? a. Consiste en tener pendientes diferentes operaciones de memoria simultáneamente, particularmente fallos de cachés y TLB. b. Es un paradigma de la programación concurrente que consiste en asignar tareas a cada uno de los procesadores de un sistema de cómputo. c. Es un paradigma de la programación concurrente que consiste en subdividir el conjunto de datos de entrada a un programa, de manera que a cada procesador le corresponda un subconjunto de esos datos. d. Todas las respuestas son erróneas.
Selecciona la respuesta correcta. a. En la computación paralela muchas instrucciones se ejecutan de forma simultánea. b. En la computación paralela muchas instrucciones se ejecutan de forma simultánea, pero únicamente en equipos distribuidos. c. En la computación paralela muchas instrucciones se ejecutan de forma simultánea, pero únicamente sobre clusters de ordenadores. d. Todas las respuestas anteriores son erróneas.
¿Qué mide la granularidad? a. No es un concepto que se aplique en arquitectura de computadores. b. Mide la cantidad de procesamiento necesaria en un proceso c. Mide el tiempo por la carga añadida de comunicación en el sistema. d. Mide la sincronización de los procesos.
¿Qué es la consistencia de dato en arquitectura de computadores? a. Es el estado coherente en la información o datos, de manera que estos cumplen las necesidades o expectativas de quien los requiere. b. Hace referencia a la necesidad de establecer la lógica necesaria para que los distintos datos replicados a lo largo de la jerarquía de memoria contengan la misma información si se trata de la misma dirección física. c. Para llegar a conseguir la consistencia, contamos con diferentes diseños de la arquitectura, con elementos de programación para implementar la sincronización y con modelos de consistencia de memoria. d. Todas las respuestas son erróneas.
16. ¿Cómo se define un protocolo de coherencia caché basada en directorio? a. La información sobre un bloque de memoria física se mantiene en una única posición. Se utiliza en sistemas de multiprocesamiento en los que la red de interconexión no es un bus. La idea básica es mantener siempre anotado dónde existen copias de los bloques y en qué estado se encuentran. b. Este método se utiliza habitualmente en sistemas de memoria compartida con un bus común. Las transacciones en el bus son visibles a todos los procesadores (realmente, sus controladores de caché), que «espían» lo que pasa en el bus y realizan acciones para preservar la coherencia. c. Se apoya en un tipo de protocolo basado en snooping. d. Ninguna de las respuestas es válida.
Dado el siguiente enunciado, identifica el tipo de caché que se define. Está integrada en la placa base y genera una copia a la L2. Es más rápida que la memoria principal, pero más lenta que la L2. Está en desuso debido a que han mejorado las características de los niveles anteriores y de la RAM». a. Caché L1. b. Caché L2. c. Caché L3. d. Caché L4.
18. ¿Qué es un middleware? a. Es una aplicación que permite monitorizar otros equipos distribuidos b. Es un software que permite a una aplicación comunicarse con otras aplicaciones o paquetes de programas. c. Es un tipo de arquitectura hardware específica de la Bios. d. Todas las respuestas son erróneas.
¿Qué podrías decir de MPI en arquitectura de computadores? a. Es una máquina virtual paralela. b. Es un estándar virtual que define la sintaxis y la semántica de PVM. c. Es una interfaz de paso de mensajes. d. PVM no puede funcionar sin MPI.
¿Qué es una tarea en arquitectura de computadores? a. Es una entidad abstracta que realiza trabajos asignados a los procesadores. b. Es una máquina física sobre la que se ejecuta un proceso. c. Es una unidad de trabajo en el cómputo paralelo que se ejecuta secuencialmente d. No existen tareas en arquitectura de computadores.
Selecciona la respuesta correcta a. La sección crítica es una subtarea de la técnica de ticketing. b. La espera activa es una técnica donde un proceso repetidamente verifica una condición. c. Una barrera para un grupo de hilos o procesos significa que todos los que implementen esta barrera deberán parar en ese punto sin poder ejecutar las siguientes líneas de código. d. Las respuestas B y C son correctas. La respuesta A es errónea.
Selecciona la respuesta correcta a. La consistencia causal determina que las actualizaciones deben programarse de acuerdo a una relación de causalidad entre los accesos a la memoria. b. En la consistencia PRAM, las escrituras realizadas por un proceso son recibidas por el resto en el orden en el cual estas fueron ejecutadas. c. En la consistencia débil, se utilizan variables compartidas denominadas variables de sincronización. d. Todas las respuestas son verdaderas.
¿En qué se basa el esquema MIMD? a. Tiene múltiples procesadores y cada uno de ellos trabaja sobre diversos datos. b. Tiene un único procesador que trabaja sobre diversos datos. c. Tiene múltiples procesadores y cada uno de ellos trabaja sobre un único dato. d. Tiene un único procesador que trabaja sobre un dato.
¿Qué significa el modelo MIMD? a. Un computador que explota varios flujos de datos de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural. Por ejemplo, un procesador vectorial b. Múltiples instrucciones, un único dato. c. Computador secuencial que no explota el paralelismo en las instrucciones ni en flujos de datos. d. Varios procesadores autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes.
¿Qué podrías decir de la computación distribuida? a. Es análoga a la computación paralela b. Se utiliza un gran número de ordenadores organizados en clusters bajo una infraestructura distribuida. c. Las GPU presentan una arquitectura distribuida. d. Las CPU presentan una arquitectura inermemente distribuida. Página 9.
¿De qué se encarga el programador en la concurrencia explícita? a. De definir el algoritmo, utilizar directivas para la distribución apropiada de datos y utilizar directivas que guíen la paralelización. b. De definir el algoritmo y utilizar directivas para la distribución apropiada de datos. c. Únicamente se puede dar la concurrencia implícita d. Ninguna de las respuestas es correcta.
¿Qué podrías decir de las secciones críticas? a. Son secciones que controla el sistema operativo para que los procesos puedan paralelizar su propio código. b. Son trozos de código que se tienen que ejecutar en exclusión mutua (un solo proceso al mismo tiempo). c. No se pueden utilizar cerrojos para ejecutar las secciones críticas d. Hacen uso de técnicas de ticketing.
Selecciona la respuesta correcta sobre la eficiencia en arquitectura de computadores a. Es la medida que captura el beneficio relativo de resolver un problema en paralelo. b. Intenta mantener su funcionalidad a pesar de aumentar el tamaño del problema y el número de procesadores. c. Es el tiempo invertido en la sincronización de las tareas. d. Es la parte de tiempo en la que los procesadores están realizando trabajo útil.
¿Para qué se usa la ley de Amdahl? a. Para averiguar la mejora máxima de un sistema cuando solo una parte de este es mejorada. b. Para averiguar la mejora parcial de un sistema cuando una parte significativa de este es mejorada. c. No se tiene en cuenta la aceleración. d. Todas las anteriores respuestas son falsas.
¿Qué podrías decir de la arquitectura NUMA? a. Ningún procesador tiene acceso exclusivo a una parte de la memoria. b. Todos los procesadores comparten toda la memoria existente c. Esta arquitectura tiene que lidiar con la coherencia de caché d. Cada procesador tiene acceso y control exclusivo a una parte de la memoria.
A la hora de programar el paralelismo sobre datos y según el control que el programador tiene sobre la paralelización, en concurrencia explícita el programador está encargado de la siguiente tarea: a. Uso de directivas para una correcta distribución de la memoria caché. b. Uso de directivas que guíen la secuencialización. c. Definición del acceso a memoria. d. Definición del algoritmo.
2. Cuando programamos un semáforo que permite acceder a una sección crítica (SC) y haciendo uso de la variable lógica S, la función que utilizamos para comprobar si un cerrojo está abierto, cerrarlo y pasar a ejecutar la SC es: a. critical(S). b. lock(S). c. unlock(S). d. flag(S).
3. Alguno de los servicios que ofrece Google Cloud Platform (GCP) es: a. Netmeeting. b. Toolkit. c. Memory Pointer. d. Stack Driver.
4. Si tenemos que administrar una nube que se encargue de un objetivo común, como puede ser la seguridad, es necesario utilizar un tipo de nube: a. Pública. b. Privada. c. Híbrida. d. Comunitaria.
5. A la hora de programar un modelo de consistencia de memoria, es posible utilizar lenguajes de alto nivel que respeten dicho modelo, como puede ser: a. Dbase 3. b. Fortran c. Pascal. d. Java.
Cuando utilizamos una arquitectura SMP (Simetric MultiProcessing), es necesario tener en cuenta a. La problemática de la coherencia de caché. b. El acceso no uniforme a memoria. c. La ley de Moore d. La sobrecarga por paralelismo.
Dentro de los modelos de coherencia de memoria caché, podemos encontrarnos: a. Protocolos de acceso al medio. b. Soluciones mixtas c. Protocolos de fichero. d. Protocolos de sondeo.
A la hora de desarrollar un servicio que vamos a ofrecer a distintos usuarios, utilizamos el siguiente modelo de arquitectura distribuida: a. Modelo en clúster. b. Computación en malla c. Modelo cliente-servidor. d. Computación multihilo.
A la hora de identificar y analizar los componentes hardware de un ordenador con sistema operativo Windows, podemos utilizar alguna de las siguientes aplicaciones: a. Office. b. Hardware configuration. c. Speecy. d. Everlast.
Según el NIST, el modelo en la nube está compuesto por varias características esenciales; una de ellas es la elasticidad rápida, que consiste en que: a. Las funcionalidades se pueden proporcionar de modo rápido y elástico. b. Los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores. c. El acceso a la red se realiza mediante mecanismos estándares y dependiendo del tipo de dispositivo con el que se acceda. d. Los sistemas de computación en la nube controlan y optimizan, automáticamente, el uso de cualquier recurso.
El sistema de almacenamiento Amazon Elastic Block Store (EBS): a. Proporciona un almacenamiento de ficheros sencillo y escalable, similar a cualquier sistema de archivos convencional, pero orientado al almacenamiento compartido de datos a través del uso de instancias EC2 y compatible tanto con Windows como con Linux. b. Ofrece almacenamiento de objetos con alta durabilidad, disponibilidad y desempeño para datos a los que se accede con bastante frecuencia. c. Se utiliza para datos de larga duración, pero a los que se accede con relativa poca frecuencia. d. Se ha diseñado para el almacenamiento de bloques de datos en volúmenes de tamaño determinado junto a una instancia de EC2, de baja latencia y alta disponibilidad, siendo su funcionamiento similar al de un disco duro local en cualquier ordenador.
la hora de crear un clúster de computadores utilizando hardware Raspberry Pi 1 model B+, podríamos utilizar como sistema operativo alguno de los siguientes: a. Red Hat +. b. Web OS. c. Windows NT. d. Ubuntu Mate.
La computación distribuida es: a. Un modelo de cómputo en el que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. b. Un modelo de cómputo en el que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente c. Un modelo de cómputo utilizado para resolver problemas de computación individual utilizando un pequeño número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. d. Un modelo de cómputo utilizado para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida.
La condición de carrera en los procesos de comunicación en arquitecturas paralelas a. Se produce cuando varios procesos acceden al mismo tiempo y modifican el estado de un recurso compartido obteniendo, de esta forma, un valor no esperado en ese recurso. b. Es una parte de un programa que requiere acceso exclusivo a un recurso. c. Se utiliza para crear secciones críticas a través del uso de instrucciones especiales d. Está formada por trozos de código que se ejecutan uno en cada ciclo de reloj.
En los cuatro sectores en los que se divide el cuadrante de Gartner, el sector de los visionarios puede definirse como: a. Proveedores que no llegan a puntuar lo suficiente en ninguna de las categorías. b. Proveedores centrados en un único aspecto del mercado. c. Proveedores que obtienen mayor puntuación como resultado de la combinación de la visión de mercado y habilidad de ejecución. d. Proveedores semejantes a los líderes en su capacidad de análisis de mercado, pero no disponen de medios suficientes para realizar implantaciones a nivel global.
Disponemos de un sistema en el que el 20 % del código es secuencial y el 80 % es paralelizable. ¿Cuál es la ganancia de prestaciones que obtenemos al utilizar 16 procesadores? Para realizar los cálculos, utiliza la fórmula de Amdahl generalizada. Ganancia Prestaciones (Procesadores)= Procesadores / 1+Mejora No Usada (Procesadores-1) 2 4 8 16.
La ley de Amdahl evalúa las modificaciones en el rendimiento de un ordenador cuando se introducen mejoras o más recursos. ¿Cuál es la ganancia de velocidad de un sistema que sin mejoras ejecuta un programa en 100 segundos y con mejoras ejecuta el programa en 75 segundos? a. 1,25. b. 1,34. c. 1,67. d. 2,25.
Kubernetes son empleados para Creación de clústeres. Administrar servicios de contenedor. Optimizar la administración de servidores Control del sistema de salida.
El orden de las distintas etapas en las que se divide el proceso de paralelización de un determinado programa es: a. Descomposición, mapeo, asignación y orquestación b. Asignación, descomposición, mapeo y orquestación c. Descomposición, asignación, orquestación y mapeo. d. Asignación, mapeo, orquestación y descomposición.
El principio de localidad temporal consiste en que Si una localización de memoria es referenciada en un momento concreto, es probable que las localizaciones cercanas a ella también lo sean. Si una posición de memoria particular es referenciada, entonces dicha posición de memoria se almacena en la memoria principal del ordenador. Si una localización de memoria es referenciada en un momento concreto, la tasa de fallos disminuye según el algoritmo de Amdahl. Si en un determinado momento una posición de memoria particular es referenciada, entonces es muy probable que esa misma posición de memoria vuelva a ser referenciada próximamente.
El protocolo MESI es una de las técnicas más utilizadas para mantener la coherencia entre la memoria principal y la memoria caché. El estado I de este protocolo se refiere al estado: a. Modificado. b. Exclusivo. c. Compartido. d. No válido.
La aceleración (S) es la medida que captura el beneficio relativo de resolver un problema paralelo. ¿Cuál es la aceleración de un programa paralelo si Ts = 250 y Tp = 75? Ts es el tiempo que transcurre entre el comienzo y la finalización de la ejecución de un programa secuencial. Tp es el tiempo que transcurre entre el comienzo y la finalización del último proceso que termina la ejecución en un programa paralelo. a. 1,38. b. 2,75. c. 3,34. d. 5,25.
La eficiencia (E) se define como la parte del tiempo en la que los procesadores están realizando trabajo útil. ¿Cuál es la eficiencia de un sistema en el que S = 7 y P = 4? Recuerda que S es el parámetro de la aceleración y P es el parámetro que indica el número de procesadores a. 1,75. b. 2. c. 2,25. d. 2,5.
Los datos almacenados en la memoria principal son accedidos de manera simultánea por distintos procesos o procesadores. Uno de los objetivos principales es el de asegurarnos de que, en todo momento, los datos almacenados en la memoria principal cumplen las siguientes características: a. Coexistencia de datos b. Memoria compartida. c. No redundancia d. Arquitectura unificada.
Los sistemas de interconexión se utilizan para a. La conexión interna de los chips del ordenador. b. La conexión entre los distintos componentes de un ordenador y se conocen con el nombre de buses. c. La conexión de los registros de memoria d. La conexión de los dispositivos de E/S.
Resecto a los procesadores vectoriales (SIMD con CPU particionada): a. Los operandos son números en coma flotante. b. Disponen de varias ALU idénticas. c. Las unidades funcionales operan en paralelo d. Trabajan, a la vez, sobre diferentes partes de un mismo programa.
Atendiendo a las distintas funcionalidades de red disponibles en Google Cloud Platform (GCP), ¿qué servicio utilizaríamos si necesitásemos una nube privada virtual que permitiese a los distintos clientes conectarse a Google a través del uso de conexiones de nivel empresarial? a. Google Cloud CDN. b. Google Cloud Interconect c. Google Cloud Load Balancing. d. Virtual Private Cloud.
Dentro de la taxonomía propuesta por Michael J. Flynn en 1972, la clasificación SIMD, ¿qué nos indica? a. Un computador que explota varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural. b. Es una clasificación poco común debido al hecho de que la efectividad de los múltiples flujos de instrucciones suele precisar de múltiples flujos de datos. c. Varios procesadores autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes d. Computador secuencial que no explota el paralelismo en las instrucciones ni el flujo de datos.
En la etapa de asignación dentro del proceso de paralelización de un programa, el balanceo de carga: a. Se refiere a la técnica que se utiliza para compartir el trabajo que van a realizar varios procesos, ordenadores, discos u otros recursos computacionales. b. Se utiliza para repartir las distintas funciones o actividades dentro del proceso de paralelización. c. Tiene como objetivo reducir el número de comunicaciones entre procesos y es una técnica que se utiliza para aumentar el rendimiento del sistema. d. Establece los mecanismos para nombrar y manejar datos.
Dentro de las redes de interconexión en MIMD, las redes dinámicas a. Suelen tener poca carga de red. b. Definen una topología de red que queda completamente definida durante la construcción de la máquina paralela. c. Suelen utilizarse, sobre todo, en multicomputadores. d. Poseen una topología que puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas.
1. Dentro de la categoría de red de Microsoft Azure, Express Route permite: a. La generación de conexiones entre distintos centros de datos en la nube o en la infraestructura local. b. Balancear el tráfico entrante entre diferentes servicios de la plataforma. c. Tener una o varias máquinas virtuales conectadas entre sí y todas dentro de la nube de Microsoft. d. Crear y ejecutar aplicaciones híbridas de forma coherente fuera de los límites de la nube.
2. El esquema que mostramos en la figura se corresponde con un esquema de una arquitectura: CPU CPU CPU CPU CACHE CACHE CACHE CACHE | | | | | | | | ------------------------------------------------------------------------------------------> Entrada / Salida MEMORIA MEMORIA MEMORIA MEMORIA a. NUMA. b. UMA. c. Secuencial. d. CUDA.
Los datos almacenados en la MP son accedidos de manera simultánea por distintos procesos o procesadores. Uno de los objetivos principales es el de asegurarnos de que, en todo momento, los datos almacenados en la MP cumplen las siguientes características: a. Coherencia de memoria, no redundancia y disponibilidad de los datos. b. Consistencia de datos, coherencia de memoria y disponibilidad de los datos. c. Consistencia de datos, coherencia de memoria y no redundancia d. Ninguna de las anteriores es correcta.
El principio de localidad temporal es un fenómeno según el cual a. Las posiciones de memoria caché que son referenciadas en momentos espaciados en el tiempo. b. Podemos predecir, con una precisión razonable, qué instrucciones y qué datos utilizará la memoria caché en un futuro cercano. c. Si en un determinado momento una posición de memoria particular es referenciada, entonces es muy probable que esa misma posición de memoria vuelva a ser referenciada en un futuro cercano. d. Sabemos, si a la hora de ejecutar una tarea en paralelo, el ahorro de tiempo es mayor que la sobrecarga.
5. En la siguiente tabla, están representados cuatro procesos y sus accesos de lectura (R), escritura (W), adquisición (Acq) y liberación (Rel) a memoria. La siguiente tabla representa un ejemplo de un modelo de consistencia: Acq[L] W(x) W(x)2 Rel [L] P1 p2 Acq[L] R(x)2 Rel [L] p3 R(x)1 a. De entrada. b. Secuencial. c. De liberación. d. Causal.
El balanceo de carga presente en la 2.ª etapa del proceso de paralelización, conocida como etapa de asignación, consiste en: a. La técnica que se utiliza para compartir el trabajo que van a realizar varios procesos, ordenadores, discos u otros recursos computacionales. b. La técnica que se utiliza para reducir el número de comunicaciones entre procesos. c. La técnica que se utiliza para repartir las distintas funciones o actividades que necesita un algoritmo de planificación. d. La técnica que se utiliza para calcular los recursos que consumen otros algoritmos o el programa en su totalidad a la hora de realizar una determinada tarea.
Los ordenadores paralelos se pueden clasificar según el nivel de paralelismo que admite su hardware en a. Multinúcleo, multiproceso, MPP y clúster b. Grids, multinúcleo y clúster c. MPP, multiproceso y grids. d. Ninguna de las anteriores es correcta.
La arquitectura de un computador consiste en: El diseño operacional y la estructura funcional fundamental de un sistema de computadora. El diseño arquitectónico y la estructura operacional fundamental de un sistema de computadora El diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Ninguna de las anteriores es correcta.
El protocolo MESI es una de las técnicas más utilizadas para mantener la coherencia entre la memoria principal y la memoria caché. El estado S de este protocolo se refiere al estado: a. Modificado b. Exclusivo. c. Compartido. d. No válido.
Selecciona la respuesta correcta sobre el multiprocesamiento de memoria compartida a. NUMA puede mejorar el rendimiento utilizando una única memoria compartida por un factor de, aproximadamente, el número de procesadores b. En el modelo UMA, todos los procesos acceden a la memoria de manera uniforme c. En el modelo NUMA, a la memoria se accede en posiciones relativas de otro proceso o memoria compatible entre procesos d. Todas las respuestas anteriores son correctas.
La computación distribuida es: a. Un modelo de cómputo en el que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. b. Un modelo de cómputo utilizado para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. c. Un modelo de cómputo en el que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. d. Un modelo de cómputo utilizado para resolver problemas de computación individual utilizando un pequeño número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida.
El proyecto en el que ha estado involucrada Google dentro de Google Cloud Platform para el uso de Kubernetes recibe el nombre de: a. Kubernetes Cloud. b. Google Kubernetes. c. Kubernetes Computer. d. Kubernetes Engine.
almacenamiento S3 estándar con acceso poco frecuente se define como: a. Acceso destinado a datos a los que se accede con poca frecuencia, pero que requieren un acceso rápido cuando es necesario utilizarlos. Los datos se almacenan en tres zonas distintas. b. Un servicio se utiliza para datos de larga duración, pero a los que se accede con relativa poca frecuencia. c. El almacenamiento de bloques de datos en volúmenes de tamaño determinado junto con una instancia de EC2, de baja latencia y alta disponibilidad. d. Servicio que se utiliza para el almacenamiento de datos a largo plazo y pensado para la realización de copias de seguridad.
Los procesadores matriciales disponen de Varios procesadores Varias ALU. Varias memorias caché. Varios buses de datos.
La escalabilidad de un sistema consiste en: Maximizar la aceleración de uno o varios sistemas. La habilidad de mantener la eficiencia cuando aumentan simultáneamente el tamaño del problema y el número de procesadores del sistema Observar cómo los programas hacen uso de la máquina y así mejorar el diseño para aumentar el rendimiento. La medida que captura el beneficio relativo de resolver un problema en paralelo.
Teniendo en cuenta la definición de memoria caché de nivel 3 (L3), selecciona la respuesta correcta: Se encuentra en el núcleo del procesador. Se encuentra en la placa base del ordenador. Se encuentra en el procesador, pero no está localizada en el núcleo Ninguna de las anteriores es correcta.
En la arquitectura CISC (complex instruction set computer), los distintos pasos que se llevan a cabo para la ejecución de una instrucción son los siguientes: Microinstrucciones máquina, conversión de microcódigo, microinstrucciones y ejecución de microinstrucciones Instrucciones en ensamblador, conversión de microcódigo, microinstrucciones y ejecución de instrucciones en ensamblador. Instrucciones máquina, conversión de código, instrucciones y ejecución de instrucciones Instrucciones máquina, conversión de microcódigo, microinstrucciones y ejecución de microinstrucciones.
En el modelo de paso de mensajes, la principal característica de MPI es que: Precisa de memoria compartida No permite su uso con memorias concurrentes Precisa de la intervención del programador para el uso de memoria No precisa de memoria compartida.
La paralelización es un proceso que consiste en transformar un programa secuencial en una nueva versión concurrente semánticamente equivalente. El proceso se puede realizar de dos formas: Automática o manual Mapeo o secuenciación. Transformación y compilación. Secuencial o paralela.
En el método de coherencia de caché basada en directorios, en la arquitectura de directorio centralizado, los protocolos existentes son: De mapeo completo y de mapeo limitado De mapeo completo y de mapeo ilimitado De mapeo incompleto y de mapeo limitado De mapeo incompleto y de mapeo ilimitado.
Un acceso a memoria atómico se refiere a accesos Con interferencias, para poder realizar correctamente la sincronización de procesos. Sin interferencias, para poder realizar correctamente la sincronización de hilos de ejecución Sin interferencias, para poder realizar correctamente la sincronización de procesos. Sin interferencias predefinidas por el sistema para poder realizar correctamente la sincronización de procesos.
La plataforma Microsoft Azure proporciona a. IaaS, PaaS y MaaS b. WaaS, IaaS y SaaS c. RaaS, PaaS e IaaS. d. IaaS, PaaS y SaaS.
El servicio de cómputo Amazon EC2 puede trabajar con contenedores y servicios de tipo Fargate. Kubernetes. Docker. Todas las respuestas son correctas.
La principal diferencia entre el modelo de computación en clúster y el modelo de computación en grid consiste en el uso que se les da a las distintas máquinas que forman cada uno de los modelos. Selecciona la respuesta correcta: En la computación en grid, las máquinas no están al 100 % dedicadas a una tarea En la computación en clúster, las máquinas no están al 100 % dedicadas a la ejecución de una tarea específica. En la computación en grid, las máquinas están al 100 % dedicadas a una tarea. En la computación en clúster, las máquinas están al 50 % dedicadas a la ejecución de una tarea específica y al 50 % dedicadas a una tarea particular.
El algoritmo de marcador o scoreboarding es: Un método de planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware está disponible. Un método de planificación de tareas que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware está disponible. Un método de planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware no está disponible Un método de planificación de tareas que permite que estas puedan ser ejecutadas dentro de orden cuando no existen conflictos y el hardware está disponible.
El uso de la arquitectura RISC (reduced instruction set computer) busca a. Aumentar la velocidad de procesamiento y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones de la memoria. b. Aumentar la velocidad de procesamiento, pero sin intentar reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador. c. Aumentar la velocidad de la memoria y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador d. Aumentar la velocidad de procesamiento y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador.
La coherencia de caché basada en directorios suele utilizarse en sistemas de multiprocesamiento en los que la red de interconexión: a. Es una red multipunto. b. Es una red wifi. c. No es un bus. d. Es una red bus snooping.
Selecciona la opción correcta para la concurrencia explícita para programar el paralelismo de datos: Se utiliza un lenguaje de programación secuencial y el compilador se encarga de insertar las instrucciones necesarias para ejecutar el programa en un computador paralelo Descubrir el paralelismo potencial del algoritmo, utilizar punteros para asignar los datos y carga de trabajo en los procesadores y manejar la sincronización y comunicación entre procesos. El programador se encarga de definir el algoritmo, utilizar directivas para la correcta distribución de los datos y utilizar directivas para que guíen la paralelización El compilador analiza y entiende las dependencias existentes para asegurar un mapeo eficiente.
Como experto/a en cloud computing, te preguntan por el modelo de despliegue cuya infraestructura es gestionada por una organización. ¿Qué modelo de nube deberías recomendar? a. Comunitaria. b. Privada. c. Híbrida. d. Pública.
Von Neumann en su arquitectura propuesta nos indica las partes en las que se divide un ordenador. La CPU posee una serie de registros con una determinada función. El registro de instrucciones (IR) es: El registro encargado de apuntar a la siguiente instrucción que se va a ejecutar El registro que nos indica el resultado obtenido por la última operación realizada por la ALU. El registro que contiene la instrucción que se está ejecutando actualmente en la CPU El registro encargado de almacenar los resultados de las operaciones aritméticas y lógicas.
En el protocolo de invalidación MESI, cuando ocurre una transacción BusRd, el bloque que se encuentre en un estado E pasará a un estado a. M. b. E. c. S. d. I.
La consistencia de datos de la memoria principal (MP) en el multiprocesamiento de memoria compartida consiste en que La información almacenada en la MP es veraz y no contiene redundancias que puedan llevar a inconsistencias de esta. Es necesario establecer la lógica necesaria para que los datos que estén replicados en memoria contengan la misma información si los procesos están utilizando la misma dirección física. La duplicidad, copia o redundancia de datos está controlada y no da lugar a ningún tipo de inconsistencia. Los datos están disponibles o serán accesibles para quien los requiera en un momento determinado.
A la hora de obtener información general de tu sistema a bajo nivel dentro del entorno Windows y que nos muestra información tanto de procesadores Intel como AMD, ¿qué utilidad utilizarías? a. Coreinfo. b. System Info. c. NUMA. d. GPU-Z.
La ________________ es un modelo para resolver problemas de computación en los que participa más de un ordenador, organizados y coordinados a través de una infraestructura de telecomunicaciones. computación en la nube computación distribuida computación paralela computación en entornos disociados.
La aceleración (S) dentro de las métricas de rendimiento es la medida que captura el beneficio relativo de resolver un problema en paralelo. Si en la ejecución de un programa secuencial es Ts = 12 s y la ejecución del mismo programa en paralelo es Tp = 4 s, la aceleración resultante sería a. 4. b. 1. c. 2. d. 3.
Dentro de los distintos tipos de las máquinas virtuales de hardware/sistema, en las que el hipervisor corre sobre el sistema operativo se conocen como: Hipervisor baremetal. Hipervisor hosted. Hipervisor nativo Hipervisor complejo.
Si, como futuro/a graduado/a en Informática, te pidiesen que seleccionases una arquitectura en la que una máquina solicita un determinado servicio y otra le proporciona dicho servicio, deberías seleccionar un modelo: En clúster Cliente-servidor. En grid o malla En la nube.
Si, como experto/a en cloud computing, te preguntasen por un servicio de AWS que permitiese una capacidad informática segura y con un tamaño variable dentro de la computación en la nube, ¿qué servicio deberías recomendar? Kubernetes EBS. EC2. Docker.
A la concurrencia en la que se utiliza un lenguaje de programación secuencial y el compilador se encarga de insertar las instrucciones necesarias para ejecutar el programa en un computador paralelo se la conoce como: Concurrencia explícita. Concurrencia de paso de mensajes. Concurrencia implícita Concurrencia PVM.
Según el NIST, el modelo en la nube se compone de cinco características esenciales, y el servicio medido es la característica que: Proporciona elementos de modo rápido y elástico de la red b. Provee a la red de un servidor y almacenamiento para la red. Permite el acceso a dicha red a través de mecanismos estándares Optimiza automáticamente cualquier recurso de la red.
La arquitectura MIMD puede considerarse como una arquitectura: Escalar Paralela Vectorial. En la nube.
Como experto/a en cloud computing, ¿qué centro de datos deberías recomendar a una empresa que le permitiese planificar actividades de mantenimiento sin afectar al servicio de computación crítico? Tier 1. Centro de datos básico Tier 2. Centro de datos redundante. Tier 3. Centro de datos concurrente mantenible. Tier 4. Centro de datos tolerante a fallos.
Las secciones críticas (SC) de un programa, que están formadas por bloques de código, deben ejecutarse: En una barrera. En exclusión mutua En forma atómica. En un flag de estado.
Si quisieses crear un clúster utilizando una Raspberry Pi y te preguntasen por un sistema operativo para gestionarlo todo, ¿cuál de los siguientes deberías utilizar? a. Saibot. b. Raspbian c. Android. d. WebOs.
16. En el modelo de computación de von Neumann, el acumulador… a. ... es el registro encargado de apuntar a la siguiente instrucción que se va a ejecutar. b. ... es el componente encargado de buscar instrucciones en la memoria principal. c. ... contiene información de la instrucción que se está ejecutando actualmente en la CPU. d. ... se encarga de almacenar los resultados de las operaciones de la ALU.
En esencia, un programa informático es una secuencia de instrucciones ejecutadas por un procesador. Al proceso de reordenar y combinar dichas instrucciones se lo conoce como: Programación RISC. Paralelismo a nivel de instrucción Pipelining. Algoritmo de marcador.
En los tipos de virtualización de plataformas y ejemplos de productos comerciales asociados a cada tipo que se pueden encontrar en el mercado, el que corre sobre la instancia de un sistema operativo del host sin hacer uso de un hipervisor se denomina: a. Emulador b. Paravirtualizador c. Sistema operativo invitado. d. Completo o nativo.
A nivel de hardware, un clúster debería contar, al menos, con Una red de comunicaciones. Tres estaciones base Un único nodo Dos módulos de comprobación de errores.
Una _________________ es un tipo de red cuya tipología puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas red dinámica red estática red estándar red total.
Si, como experto/a en modelos de consistencia de memoria, te preguntasen por una solución software para mantener la coherencia de la memoria caché, necesitamos Utilizar el espionaje de bus Realizar una copia de la memoria caché en cualquier bloque de la RAM Especificar las direcciones de memoria compartida únicamente. Conocer la semántica de las direcciones de memoria.
La arquitectura donde cada procesador tiene acceso y control exclusivo de una parte de la memoria del ordenador recibe el nombre de: SMP (Simetric MultiProcessing). NUMA (Non-Uniform Memory Access UMA (Uniform Memory Access MP (MultiProcessors.
Como experto/a en informática y en programación paralela, en la puerta del colegio de tu hijo una de las madres, que estudia informática, te hace una cuestión relacionada con la planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden si no hay conflictos. ¿A qué se refiere? Algoritmo de marcador. Algoritmo de planificación paralela Algoritmo de Tomasulo Algoritmo RAM.
En las etapas del proceso de paralelización, el procesador se define como Una entidad abstracta que realiza las tareas que se van asignando a los procesadores Una máquina física en la que se ejecutan los procesos de un programa. La unidad mínima de trabajo en la computación paralela Los ajustes que se realizan antes de la ejecución de un programa.
Teniendo en cuenta las leyes de Amdahl, ¿cuál sería la ganancia de velocidad de un programa si en tiempo de ejecución en un sistema antiguo es de 3000 milisegundos y en el nuevo es de 1000 milisegundos? a. 3. b. 1. c. 2,5. d. 1,5.
Como experto/a en informática, puedes indicar que uno de los lenguajes de programación de alto nivel utilizados para la implementación y que respetan los modelos de consistencia de memoria es: a. PHP b. Javascript. c. Java. d. Fortran.
Si, como expertos/as en programación paralela, nos pidiesen que redujésemos el overhead de la comunicación, que viene marcado por la arquitectura de computador, a través de un algoritmo podríamos: a. Reducir la frecuencia de los mensajes b. Reducir la contención de la red Reducir la distancia física entre los procesadores Reducir el overlap.
Una de las principales desventajas a la hora de utilizar la virtualización es a. El precio. b. La imposibilidad de uso de licencias open source. c. La poca flexibilidad para desarrolladores d. La compartición del servidor.
La principal característica de la Máquina Virtual Paralela consiste en Que utiliza la tecnología CUDA Que no necesita memoria compartida Que está diseñada para disminuir el tiempo de ejecución con múltiples procesadores de un mismo tipo. Que permite que una red de ordenadores heterogénea comparta recursos computacionales.
La _______________ se produce cuando varios procesos acceden al mismo tiempo y cambian el estado de un recurso compartido, como puede ser una variable, obteniendo un valor no esperado de ese recurso. condición de carrera exclusión mutua sección crítica lectura de una variable.
La computación paralela es Una forma de cómputo en la que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños que, posteriormente, son resueltos simultáneamente. Una forma de cómputo que se utiliza para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. Una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños que, posteriormente, son resueltos simultáneamente. Una forma de cómputo para resolver problemas de computación individual utilizando un pequeño número de ordenadores, organizados en clústeres, incrustados en una infraestructura de telecomunicaciones distribuida.
Una arquitectura de computadores es: El diseño operacional y funcional de una red de componentes de un ordenador distribuidos físicamente El entorno informático que proporciona una descripción de la construcción y distribución física de los componentes de un ordenador El método en el que se interconectan la CPU y la ALU para crear computadores según los requerimientos de funcionalidad, rendimiento y coste. Ninguna de las anteriores es correcta.
Un computador que explota varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural se denota por: a. MISD. b. SISD. c. MIMD. d. SIMD.
El paralelismo a nivel de instrucción consiste en: Que los operandos de las instrucciones que forman el paralelismo tienen que ser vectores obligatoriamente. Computaciones simultáneas sobre un único proceso o hilo de ejecución Una secuencia de instrucciones reordenadas y combinadas en grupos para ser ejecutados en paralelo. Asignar distintas tareas a cada uno de los hilos y procesadores de un sistema de cómputo.
El algoritmo de Tomasulo es: Un algoritmo de planificación estática desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden. Un algoritmo de planificación dinámica desarrollado en IBM para permitir que un procesador no pueda ejecutar instrucciones fuera de orden Un algoritmo de planificación estática y dinámica desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden Un algoritmo de planificación dinámica desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden.
La segunda ley de Amdahl nos dice que El porcentaje de mejora en el rendimiento de un procesador viene limitado por el porcentaje del impacto del elemento que se quiere modificar El aumento del rendimiento debido a la inclusión de una mejora con un nuevo recurso en el sistema está limitado por el tiempo que se utiliza dicha mejora en la ejecución de una determinada tarea Cuando se introduce una mejora en un ordenador previamente mejorado, el incremento del rendimiento es menor que si se introduce la mejora sobre el sistema sin mejorar. Ninguna de las anteriores es correcta.
Dentro de los modelos de programación paralela, el modelo de paso de mensajes es: Un paradigma de programación en el que la ejecución de un programa está formada por un máximo de dos procesos que se comunican entre sí enviando y recibiendo mensajes de los otros procesos. Un paradigma de programación en el que la ejecución de un programa está formada por dos o más procesos que se comunican entre sí enviando y recibiendo mensajes de los otros procesos. Un paradigma de programación en el que la ejecución de un programa está formada por dos o más hilos de ejecución del procesador que se comunican entre sí enviando y recibiendo mensajes Un paradigma de programación secuencial en el que la ejecución de un programa está formada por dos o más procesos que se comunican entre sí.
Las máquinas virtuales paralelas (PVM) son librerías que Están diseñadas para permitir que una red de ordenadores heterogénea comparta sus recursos computacionales con el fin de aprovecharlos para disminuir el tiempo de ejecución de un programa Definen la sintaxis y la semántica de las funciones diseñadas para ser utilizadas en programas que utilicen la existencia de múltiples procesadores. No precisan de memoria compartida, por lo que son muy importantes en la programación de sistemas distribuidos Permiten a un proceso excluir temporalmente todos los demás procesos para utilizar un recurso compartido, de forma que se garantice la integridad del sistema.
Dentro de las etapas existentes en el proceso de paralelización, la etapa de asignación se divide en las siguientes tareas: Balanceo de carga, algoritmo de mapeo y comunicaciones. Balanceo de planificación, algoritmo de carga y comunicaciones Balanceo de carga, algoritmo de planificación y comunicaciones Ninguna de las anteriores es correcta.
El acceso no uniforme a memoria (NUMA) está diseñado para: Ser utilizado en aplicaciones de propósito general o aplicaciones que ejecutan programas largos y tediosos. Ser utilizado para su uso en multiprocesamiento Ser utilizado en procesos de bloqueo de hilos de procesamiento. Ser utilizado para comunicación y bloqueo de hilos de ejecución.
La condición de carrera en el proceso de comunicación se produce cuando Varios recursos acceden a un proceso compartido y cambian su estado Varios procesos acceden al mismo tiempo y cambian el estado de un recurso compartido. Varios procesos acceden a un recurso y cambian o no su estado, pudiendo ser este recurso un puntero a memoria Varios procesos que requieren acceso exclusivo a memoria principal o caché.
Dentro del proceso de sincronización, las secciones críticas (SC): Están formadas por partes de código que no se tienen que ejecutar en exclusión mutua. Están formadas por partes de código que se pueden ejecutar en exclusión mutua. Están formadas por partes de código que se ordenan para ejecutarse en exclusión Están formadas por partes de código que se tienen que ejecutar en exclusión mutua.
Teniendo en cuenta la definición de memoria caché de nivel 2 (L2), señala la respuesta correcta Se encuentra en el núcleo del procesador. Se encuentra en la placa base del ordenador. Se encuentra en el procesador, pero no está localizada en el núcleo Ninguna de las anteriores es correcta.
Podemos distinguir dos enfoques básicos a la hora de implementar el protocolo de sondeo que permitirá mantener la coherencia entre memorias caché MESI o no actualizar si lectura/escritura MESI o actualizar si escritura MESI o actualizar si ejecución MESI o actualizar si lectura/ejecución.
La solución basada en hardware para la problemática de coherencia de memoria caché posee los siguientes protocolos de coherencia Bus snooping y bloques de datos Basados en directorios y ficheros Espionaje de directorios y bus snooping Basados en directorio y bus snooping.
Podemos definir una red dinámica como Un tipo de red cuya topología queda completamente definida durante la construcción de la máquina paralela Un tipo de red en la que todos los elementos están conectados directamente unos con otros. Un tipo de red cuya topología puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas Un tipo de red en la que todos los dispositivos son móviles.
Los componentes hardware con los que, al menos, debe contar un clúster de ordenadores son Mínimo dos nodos que tienen que ser homogéneos y una red de comunicación wifi, LAN o WAN. Únicamente dos nodos que pueden ser heterogéneos y una red de comunicación LAN o Gigabit Ethernet Mínimo dos nodos que pueden ser heterogéneos y una red de comunicación LAN, WAN o InfiniBand Ninguna de las anteriores es correcta.
Los modelos de despliegue existentes en la computación en la nube pueden ser: Pública, privada, comunitaria e híbrida. Privada, pública, gubernamental y comunitaria Pública, privada, híbrida y asociada Privada, asociada, híbrida y comunitaria.
Von Neumann en su arquitectura propuesta nos indica las partes en las que se divide un ordenador. Según esta arquitectura, la unidad central de procesamiento consta de: Unidad de control, unidad aritmético-lógica y registros. Unidad de control, registro de instrucciones y unidad aritmética Contador de programa, registro de estado y acumulador Acumulador, unidad de control y unidad aritmético-lógica.
El paralelismo en el procesamiento de datos y programas se puede llevar a cabo en diferentes elementos del sistema. Según el tipo de paralelización, podemos encontrarnos: Arquitectura multiprocesador, arquitectura multihilo y arquitectura multinúcleo Procesador multihilo, procesador multinúcleo y multiprocesador Arquitectura multihilo, procesador multinúcleo y multiprocesador Ninguna de las anteriores es correcta.
¿Qué nos indica la siguiente fórmula? Ganancia Prestaciones (procesadores) <= Procesadores/1+Mejora no usada (Procesadores - 1) La mejora obtenida en el rendimiento de un sistema, debida a la alteración de uno de sus componentes, está limitada por la fracción de tiempo que se utiliza dicho componente. El rendimiento de un procesador viene limitado por el porcentaje del impacto del elemento que se quiere modificar El aumento del rendimiento, debido a la inclusión de una mejora con un nuevo recurso en el sistema, está limitado por el tiempo que se utiliza dicha mejora en la ejecución de una determinada tarea. La ganancia en prestaciones que podemos obtener al aplicar una mejora en un sistema está limitada por la parte del sistema que no utiliza la mejora.
El principio de localidad es un fenómeno según el cual Existe localidad espacial entre las posiciones de memoria caché que son referenciadas en momentos espaciados en el tiempo. Podemos predecir, con una precisión razonable, qué instrucciones y qué datos utilizará en un futuro cercano. Existe proximidad temporal entre las referencias adyacentes a distintas posiciones de memoria. Sabemos si a la hora de ejecutar una tarea en paralelo, el ahorro de tiempo es mayor que la sobrecarga.
Las métricas de rendimiento en un sistema paralelo son la aceleración (S), la eficiencia (E) y la escalabilidad. ¿Cuál es el objetivo final de estas métricas? a. Maximizar el trabajo útil b. Minimizar el tamaño del programa c. Maximizar la aceleración. d. Minimizar la sobrecarga.
Para llevar a cabo la paralelización de un programa, debemos seguir las siguientes fases en el orden indicado: Comunicación, particionamiento, descomposición y asignación Particionamiento, composición, asignación y descomposición Comunicación, asignación, particionamiento y composición Particionamiento, comunicación, composición y asignación.
Existen distintos modelos de consistencia de memoria. En el modelo de consistencia PRAM: Existe una variable de sincronización que se utiliza para realizar operaciones de sincronización de la memoria Las escrituras concurrentes pueden ser vistas en diferente orden en distintas máquinas, aunque las escrituras relacionadas de forma causal deben verse en el mismo orden por todas las máquinas Las escrituras realizadas por un proceso son recibidas por los otros procesos en el orden en que son realizadas, pero las escrituras de procesos diferentes pueden verse en un orden diferente por procesos diferentes Requiere que cada variable compartida ordinaria se asocie con alguna variable de sincronización como una cerradura o barrera.
En la siguiente tabla se incluyen cuatro procesos y sus accesos de lectura (R)/escritura (W) a memoria. P1 W(x)1 W(x)3 P2 R(x)1 W(x)2 P3 R(x)1 R(x)3 R(x)2 P4 R(x)1 R(x)2 R(x)3 Por tanto, esta tabla representa un ejemplo de un modelo de consistencia De entrada Secuencial. PRAM Causal.
En la coherencia de caché basada en directorios que suele utilizarse en sistemas de multiprocesamiento, los sistemas de directorio tienen, principalmente, dos tipos de arquitecturas Centralizadas y distribuidas Centralizadas y base Distribuidas y anidadas Distribuidas y complementarias.
Para el mantenimiento de la coherencia de memorias caché, existen dos políticas Actualización de lectura e invalidación de escritura Actualización de escritura e invalidación de lectura Actualización de escritura e invalidación de escritura Actualización de lectura e invalidación de lectura.
Una de las características esenciales dentro de la computación en la nube es el servicio medido. ¿En qué consiste esta característica? Los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores, utilizando un modelo multidistribuido con diferentes recursos físicos y virtuales, que son asignados y reasignados dinámicamente conforme a la demanda de los consumidores Los sistemas de computación en la nube controlan y optimizan automáticamente el uso de cualquier recurso, potenciando la capacidad de medición en un nivel de abstracción apropiado a cada tipo de servicio. Las funcionalidades se pueden proporcionar de modo rápido y elástico, en algunos casos automáticamente, teniendo unas características de aprovisionamiento que dan la sensación de ser ilimitadas y pueden adquirirse en cualquier cantidad y en cualquier momento. Un proveedor puede proveerse unilateralmente de tiempo de servidor y de almacenamiento en la red a medida que lo necesite y sin requerir interacción humana con el proveedor de servicios.
El software como servicio (Software as a Service, SaaS) se define como a. Una solución en la que se paga únicamente por los recursos que se utilizan: espacio de disco, tiempo de uso de CPU, espacio para bases de datos, transferencia de datos, etc. b. Una capa encargada de entregar las aplicaciones completas como servicio a los clientes por el proveedor de servicios. c. Un modelo en el que se proporciona un servicio de plataforma con todo lo necesario para dar soporte al ciclo de planteamiento, desarrollo y puesta en marcha de las aplicaciones y servicios web a través de la misma. d. Ninguna de las anteriores es correcta.
. Seleccione la respuesta adecuada dado un esquema MIMD Tiene múltiples procesadores para trabajar de forma distribuida Tiene un único procesador para trabajar de forma distribuida Tiene un único procesador trabajando sobre múltiples datos Tiene múltiples procesadores cada uno de ellos trabajando sobre diversos datos.
Dada la computación en la nube, seleccione la respuesta correcta Es un paradigma que permite ofrecer servicios de computación a través de una red secuencia Es un paradigma que permite ofrecer servicios de transporte a través de una red en estrella Es un paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es Internet La computación en la nube explota todos los recursos distribuidos de la tu computadora.
. Teniendo en cuenta la computación distribuida, seleccione la respuesta correcta Se comporta de la misma forma que la computación paralela Todos los aceleradores hardware tienen una computación distribuida Las GPUs no pueden ser insertadas en equipos distribuidos Se hace uso de un gran número de ordenadores organizados en clusters bajo una infraestructura distribuida.
Seleccione la respuesta correcta La consistencia causal determina el caudal de tráfico entre las diferentes memorias cachés del sistema En la consistencia PRAM, las escrituras realizadas por un proceso, son recibidas por el resto en el orden en cual éstas fueron ejecutadas En la consistencia débil, se utilizan variables compartidas denominadas variables de sincronización Las respuestas b) y c) son correctas. La respuesta a) es errónea.
. Sobre una arquitectura NUMA, seleccione la respuesta correcta Cada uno de los procesadores tiene acceso y control exclusivo a una parte de la memoria Ninguna de los procesadores involucrados presentan acceso exclusivo sobre una parte específica de la memoria toda la memoria del sistema es compartida por los diferentes procesadores Esta arquitectura es la responsable de hacer cumplir la coherencia cache.
¿Qué podría decir del control del flujo en las comunicaciones? No existe el control del flujo en las comunicaciones Define la ruta optima entre el receptor y el emisor de paquetes Provee un mecanismo para que el receptor controla la velocidad de transmisión, de manera que el nodo receptor no se sature de datos que llegan del nodo emisor Controla los paquetes en el controlador del dominio.
. ¿Qué podría decir de los procesadores VLIW? a. Todas las palabras de instrucción son pequeñas b. Todas las palabras de instrucción son grandes c. Presenta una arquitectura que no funciona con palabras de instrucción d. Contiene un conjunto amplio de instrucciones diferentes.
¿Qué podría decir de un protocolo de coherencia caché pasada en directorio? Se trata de un protocolo heredado de coherencia Hash Utiliza un bus común en sistema de memoria compartida Se utilizan técnicas de snooping para lograr las coherencia cache La información sobre un bloque de memoria física se mantiene en una única posición. Se utilizan en sistemas de multiprocesamiento en los que la red de interconexión no es un bus.
Seleccione el enunciado que considere correcto La computación paralela hace posible que muchas de las instrucciones puedan ser ejecutadas a la vez (al mismo tiempo) La computación paralela hace posible que muchas de las instrucciones puedan ser ejecutadas a la vez (pero no al mismo tiempo) c. La computación paralela hace posible que muchas de las instrucciones puedan ser ejecutadas a la vez (al mismo tiempo) pero únicamente en equipos distribuidos Todas las respuestas anteriores no son verdaderas.
Dada una estructura pipelining, seleccione la respuesta correcta a. Pipelining es un término asociado únicamente a la arquitectura software en código ensamblador b. Se presenta como una técnica software de paralización únicamente para el modelo VLIW Es una estructura de instrucciones de varias etapas Ninguna de las respuestas anteriores es correcta.
Seleccione el enunciado más adecuado En el modelo NUMA todos los procesos acceden a la memoria de manera uniforme NUMA puede mejorar el rendimiento utilizando una única memoria compartida por un factor aproximadamente el número de procesadores En el modelo UMA la memoria se accede en posiciones relativas de otro proceso o memoria compatible entre procesos Todas las respuestas son correctas.
¿Qué tipo de memoria es más rápida que la memoria principal pero más lenta que la caché L2? Caché L1 Caché L3 Caché L2 Todas las respuestas son incorrectas.
¿Qué podría decir del paralelismo a nivel de memoria? Se basa en tener pendientes diferentes operaciones de memoria simultáneamente, particularmente fallos de cachés y TLBs Se basa en lanzar varios accesos simultáneos sobre la memoria secundaria del sistema Se pasa en lanzar varios accesos simultáneos sobre la memoria de intercambio presente en el sistema Incluye las características presentadas en las respuestas a) b) y c).
Identifique para qué sirve la granularidad Mide el tiempo por la carga añadida de la comunicación de los procesos Mide la sincronización de los recursos software Mide la cantidad de procesamiento necesaria en un proceso No es un concepto aplicable en arquitectura de computadores.
Seleccione el enunciado más apropiado a. La sección crítica no es una subtarea de la técnica de ticketing b. La espera activa es una técnica donde un proceso repetidamente verifica una condición c. Una barrera para un grupo de hilos o procesos significa que todos los que implementen esta barrera deberán parar en ese punto sin poder ejecutar las siguientes líneas de código d. Todas y cada una de las respuestas son correctas.
¿Qué podría decir de un middleware? Es programa software gestiona los equipos distribuidos Se presenta como una arquitectura hardware para las diferentes Bios Es un software que permite a una aplicación comunicarse con otras aplicaciones o paquetes de programas Todas las respuestas son erróneas.
¿Qué podría decir de la eficiencia dentro de la arquitectura de computadores? Es la eficacia con la que se accede a los diferentes recursos hardware del sistema Es la parte del tiempo en el que los procesadores están realizando trabajo útil Reduce su funcionalidad a la hora de aumentar el número de recursos del sistema Se mide tomando el tiempo de sincronización de los procesos .
¿En que se basa la arquitectura de un procesador? De forma única se basa en el juego de instrucciones en ensamblador Se basa en el juego de instrucciones, el diseño conceptual y la forma de seleccionar e interconectar componentes del hardware De forma única se basa en el diseño hardware interno del procesador Todas las repuestas anteriores son erróneas.
Seleccione la respuesta correcta La robustez es el estado coherente en la información o datos de manera que estos cumplen las necesidades o expectativas de quien la requiere Para llegar a conseguir la coherencia, contamos con diferentes diseños de la arquitectura, con elementos de programación para implementar la sincronización y con modelos de consistencia de memoria secundaria La coherencia es el estado coherente en la información o datos de manera que estos cumplen las necesidades o expectativas de quien la requiere Todas las respuestas anteriores son falsas .
Dentro de arquitectura de computadores, ¿Qué es una tarea? Un modelo abstracto que define el diseño de los procesos Es una unidad de trabajo en el cómputo paralelo que se ejecuta secuencialmente Es una máquina virtual sobre el que se ejecuta un proceso Dentro de arquitectura de computadores no están definidas las tareas.
¿Cómo podría caracterizarse el modelo MIMD? Varios procesadores no autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes Varios procesadores autónomos que ejecutan simultáneamente la misma instrucción Varios procesadores autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes Un único procesador que ejecutan diferentes sobre datos diferentes .
¿Para qué sirve la ley de Amdah? Tiene como propósito obtener la mejora parcial de un sistema cuando se paraleliza la sección crítica b. Tiene como propósito obtener la mejora parcial de un sistema cuando se paraleliza la sección crítica cumpliéndose la exclusión mutua Tiene como propósito obtener la mejora máxima de un sistema cuando solo una parte de este es mejorado d. Todas las respuestas son erróneas .
. Identifique una ventaja que presente el modelo de memoria compartida . La comunicación es más fiable ya que lleva un protocolo TCP Aumenta la robustez de cada una de las máquinas que utilizan la memoria compartida Se reduce la latencia producida por las comunicaciones Todas las respuestas anteriores son correctas.
¿Qué tipo de interconexión presenta una red de interconexión en estrella? Secuencial Esférica En amplitud Estática.
Dentro de concurrencia explicita, ¿Cuáles son las tareas del programador? Definir el algoritmo, utilizar directivas para la distribución apropiada de datos, utilizar directivas que guíen la paralelización Definir las políticas de seguridad en la trasmisión de datos Definir la cantidad de procesos que pueden ser paralelizados Todas las respuestas son correctas.
Identifique el protocolo de coherencia entre memoria principal y la memoria caché que contiene los siguientes estados: Exclusivo Modificado, Exclusivo sin modificar, Compartido sin modificar e Inválido Protocolo Disjkstra b. Protocolo OPT c. Protocolo MESE Protocolo MESI.
Identifique la/las ventajas al hacer uso de una caché compartida por todos los procesadores El ancho de banda se ve significativamente reducido debido a la reducción de las colisiones caché Necesita hacer uso del protocolo MESI Se elimina la coherencia y se reduce la coherencia en los datos compartidos No presenta ninguna ventaja.
¿Qué es una sección crítica? a. Se definen como partes de código donde los procesos pueden paralelizar sus instrucciones b. Partes de código necesarias para hacer uso de las técnicas de ticketing c. Parte de código donde siempre va alojado un cerrojo Son trozos de código que se tienen que ejecutar en exclusión mutua (un solo proceso al mismo tiempo).
. Identifique la utilizad de una memoria caché L2 Para aumentar la latencia en los accesos a memoria principal Para reducir, en la medida de lo posible, el número de veces que accedemos a memoria principal Para reducir la latencia en los accesos a memoria principal ya que es más rápida que la L1 Para aumentar las colisiones de acceso a memoria principal .
Dado el modelo de programación MPI, seleccione la respuesta correcta Utiliza el mismo juego de instrucciones que CUDA . Se presenta como una interfaz de paso de mensajes Se presenta como una máquina virtual extensible OpenMP no puede funcionar sin MPI.
29. Selecciona la opción correcta para la concurrencia explícita para programar el paralelismo de datos: a. Se utiliza un lenguaje de programación secuencial y el compilador se encarga de insertar las instrucciones necesarias para ejecutar el programa en un computador paralelo b. Descubrir el paralelismo potencial del algoritmo, utilizar punteros para asignar los datos y carga de trabajo en los procesadores y manejar la sincronización y comunicación entre procesos. c. El programador se encarga de definir el algoritmo, utilizar directivas para la correcta distribución de los datos y utilizar directivas para que guíen la paralelización. d. El compilador analiza y entiende las dependencias existentes para asegurar un mapeo eficiente.
1.En 1964, Gene Amdahl definió la arquitectura de un computador como: a. La apariencia funcional que presenta a sus usuarios inmediatos. b. El diseño abstracto de un computador presentado a sus usuarios. c. La interconexión de los componentes software de un computado d. Las atribuciones características de un computador.
2. En la arquitectura CISC, las microinstrucciones de un microprograma se almacenan en la memoria: a. Caché. b. RAM. c. ROM. d. Flash.
3. ¿Cuál de las siguientes es una de las principales características de un procesador CISC? a. Las instrucciones suelen tener un formato variable b. Gran cantidad de instrucciones, de 100 a 250 aproximadamente. c. Posee instrucciones con tareas especializadas y no se utilizan con frecuencia. d. Todas las anteriores.
4. Los procesadores vectoriales son útiles para aplicaciones: a. Web b. Control de almacén c. Móviles d. Numéricas.
5. Los procesadores matriciales (SIMD con múltiples ALU) disponen de varias ALU idénticas a las que: a. El contador de programa asigna una única instrucción, pero trabajan a la vez sobre diferentes partes del mismo programa. b. El registro de estado asigna una única instrucción, pero trabajan a la vez sobre diferentes partes del mismo programa. c. El procesador de instrucciones asigna una única instrucción, pero trabajan a la vez sobre diferentes partes del mismo programa. d. El registro de programa asigna una única instrucción, pero trabajan a la vez sobre diferentes partes del mismo programa.
6. La ley de Gordon Moore nos indica que a. Dentro del mundo de la tecnología, el número de procesadores aritméticos y lógicos por unidad de superficie en circuitos se duplicaba cada año. b. Dentro del mundo de la tecnología, el número de procesadores por unidad de superficie en circuitos será cada vez más pequeño y no se duplicará cada año. c. Dentro del mundo de la tecnología, el número de transistores por unidad de superficie en circuitos se duplicaba cada año. d. Ninguna de las anteriores.
7. Dentro del modelo de concurrencia explícita, el programador está encargado de las siguientes tareas: a. Definir la concurrencia. b. Usar directivas para la correcta distribución de los datos c. Utilizar directivas para que guíen la concurrencia. d. Todas las anteriores. .
8. Los objetivos que influyen en un programa paralelo son los siguientes a. Trabajo extra mínimo. b. Sincronización mínima. c. Comunicación mínima d. Todas las anteriores.
9. ¿Cuál de las siguientes fases no se utiliza para realizar la paralelización de un programa? a. Particionar la solución de un problema en pequeñas tareas. b. Repartir las tareas entre los distintos hilos de ejecución. c. Identificar los hilos de ejecución entre tareas. d. Componer tareas simples en tareas compuestas.
10. El modelo de memoria de consistencia de entrada requiere: a. Únicamente una variable de adquisición b. Variables de sección crítica para que se puedan sincronizar entre ellas. c. Un proceso de bloqueo de hilos de procesamiento. d. Que cada variable compartida ordinaria se asocie con alguna variable de sincronización.
11. En el proceso de comunicación, un bloqueo (lock) consiste en: a. Un hilo que permite tomar el control de una variable, pero no puede evitar que otros hilos lean dicha variable, aunque esté bloqueada. b. Un elemento de un programa que, al no haber sido accedido correctamente, finaliza la ejecución del programa. c. Una construcción del lenguaje que permite a un hilo tomar el control de una variable y evitar que otros hilos lean o escriban esa variable hasta que esté desbloqueada. d. Todas las anteriores son falsas.
12. Un vector de cerrojos consiste en: a.Una barrera para un grupo de procesos o hilos en la que todos los hilos/procesos que implementen una barrera deberán parar en ese punto, sin poder ejecutar las siguientes líneas de código hasta que el resto de hilos/procesos hayan alcanzado esa barrera. b. Una porción de código que se tienen que ejecutar en exclusión mutua, es decir, solo un proceso cada vez. c. La técnica en la que un proceso, repetidamente, verifica una determinada condición, tal como esperar si el acceso a una sección crítica está o no habilitado. d. Un acceso a memoria atómico, es decir, sin interferencias para poder realizar correctamente la sincronización de procesos.
13. Teniendo en cuenta la definición de memoria caché de nivel 1 (L1), selecciona la respuesta correcta: a. Se encuentra en el núcleo del procesador. b. Se encuentra en la placa base del ordenador. c. Se encuentra en el procesador, pero no está localizada en el núcleo. d. Ninguna de las anteriores.
14. En la coherencia de caché basada en directorio centralizado, en el esquema de mapeo completo cada memoria caché posee al menos: a.Un bit de salida. b.Un bit de selección. c.Un bit de consistencia. d.Un bit de privacidad.
15. Los protocolos típicos de mapeado distribuido son: a. Directorios jerárquicos y directorios encadenados. b. Directorios organizados y directorios distribuidos. c. Directorios completos y directorios limitados. d. Directorios referenciados y directorios ilimitados.
16. El modelo en la nube se compone de cinco características esenciales. Una de ellas es la elasticidad rápida. Esta característica consiste en: Que los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores, utilizando un modelo multidistribuido con diferentes recursos físicos y virtuales, que son asignados y reasignados dinámicamente conforme a la demanda de los consumidores. Que las funcionalidades se pueden proporcionar, en algunos casos, automáticamente. Sus características de aprovisionamiento dan la sensación de ser ilimitadas y pueden adquirirse en cualquier cantidad y en cualquier momento. c. Que los sistemas de computación en la nube controlan y optimizan automáticamente el uso de cualquier recurso, potenciando la capacidad de medición en un nivel de abstracción apropiado a cada tipo de servicio. d. Acceso a la red mediante mecanismos estándares y dependiendo del tipo de dispositivo con el que se acceda. .
17. El modelo de servicio de computación en la nube se refiere a los servicios específicos a los que puede acceder una plataforma de computación en la nube. Estos servicios son: a. Plataforma, hardware y software b. Software, plataforma e infraestructura. c. Software, hardware y entorno cloud. d. Ninguna de las anteriores. .
18. ¿En qué consiste el software como servicio (PaaS)? a. Solución en la que se paga únicamente por los recursos que se utilizan: espacio de disco, tiempo de uso de CPU, espacio para bases de datos, transferencia de datos, etc. b. Capa encargada de entregar las aplicaciones completas como servicio a los clientes por el proveedor de servicios. c. Modelo en el que se proporciona un servicio de plataforma con todo lo necesario para dar soporte al ciclo de planteamiento, desarrollo y puesta en marcha de las aplicaciones y servicios web a través de la misma. d. Los proveedores son los responsables de la disponibilidad y funcionalidad de sus servicios, no dejando de lado las necesidades de los clientes que son los que utilizarán ese software. .
19. En la arquitectura propuesta por Von Neumann, la CPU posee una serie de registros con una determinada función. El contador de programa es: a. El registro encargado de apuntar a la siguiente instrucción que se va a ejecutar. b. El registro que nos indica el resultado obtenido por la última operación realizada por la ALU. c. El registro que contiene la instrucción que se está ejecutando actualmente en la CPU. d. El registro encargado de almacenar los resultados de las operaciones aritméticas y lógicas.
20. Una de las principales características de la arquitectura RISC (reduced instruction set computer) es: a. Formato de instrucción variable. b. Acceso a memoria ilimitado a instrucciones de carga y almacenamiento c. Ejecución única del ciclo de instrucción. d. Todas las anteriores son correctas. .
21. Los ordenadores multiprocesador suelen presentar problemas de diseño que no se encuentran en ordenadores monoprocesador. La arquitectura SMP resuelve estos problemas. Pero ¿en qué consiste esta arquitectura multiprocesador? a. Todos los procesadores comparten toda la memoria. b. Cada procesador tiene acceso y control exclusivo a una parte de la memoria c. Los procesadores solo pueden acceder a la memoria cuando el resto de procesadores les dan permiso. d. Ninguna de las anteriores.
22. El principio de localidad espacial es un fenómeno según el cual: a. Las posiciones de memoria caché son referenciadas en momentos espaciados en el tiempo. b. Podemos predecir, con una precisión razonable, qué instrucciones y qué datos utilizará la memoria caché en un futuro cercano. c. Si en un determinado momento una posición de memoria particular es referenciada, entonces es muy probable que esa misma posición de memoria vuelva a ser referenciada en un futuro cercano. d. Si una localización de memoria es referenciada en un momento concreto, es probable que las localizaciones cercanas a ella también lo sean. .
23. En un sistema paralelo definimos la eficiencia como: a. La parte del tiempo en la que los procesadores están realizando trabajo útil b. La medida temporal que captura el beneficio relativo de resolver un problema en paralelo. c. El tiempo que transcurre desde el comienzo a la finalización de un programa secuencial. d. Todas las anteriores son correctas. .
24. El tipo de granularidad gruesa es un parámetro que permite: a. Mejorar la sincronización de los procesos. b. Amortizar overheads y latencia. c. Reducir la contención. d. Reducir el overhead de la comunicación.
25. Uno de los factores más importantes en el diseño e implementación de arquitecturas paralelas es el de la memoria principal, y uno de los objetivos principales es asegurarnos que los datos almacenados en la memoria principal cumplen: a. Consistencia de datos. b. Coherencia de caché. c. Lectura y escritura de memoria siempre en los mismos datos d. Redundancia.
26. Las secciones críticas (SC) de los procesos utilizan semáforos que están formados por: a. Una variable atómica. b. Una instrucción flag. c. Una variable cerrojo. d. Una instrucción ticket.
27. En la coherencia de caché basada en directorio distribuido existen los siguientes protocolos típicos de mapeado: a. Completo y limitado. b. Jerárquicos y encadenados. c. Invalidar lectura y escritura. d. Individual y común.
28. En el protocolo de invalidación MESI, el estado I nos indica que: a. El dato no está en ninguna memoria caché o la copia local es incorrecta b. La memoria caché contiene la única copia correcta de un determinado dato en el sistema. c. Un dato en una memoria caché puede estar duplicado en otra memoria caché distinta y el dato es coherente con el almacenado en memoria principal. d. Una única memoria caché posee el dato correcto y es coherente con la memoria principal. .
29. Una de las principales ventajas del uso del modelo de computación en la nube es: a. Confianza de los usuarios, aunque no sepan exactamente dónde se encuentran sus datos. b. Problemas de escalabilidad, pero a largo plazo. c. Disponibilidad de aplicaciones sin acceso a Internet. d. Todas las anteriores son falsas.
30. El acceso ubicuo a la red consiste en: a. Que todos los recursos pueden ser monitorizados, controlados e informados, de manera que proporcionen transparencia para el proveedor y para el consumidor de estos b. Que un proveedor puede proveerse unilateralmente de tiempo de servidor y de almacenamiento en la red a medida que lo necesite y sin requerir interacción humana con el proveedor de servicios. c. Acceso a la red mediante mecanismos estándares y dependiendo del tipo de dispositivo con el que se acceda. d. Que los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores, utilizando un modelo multidistribuido con diferentes recursos físicos y virtuales, que son asignados y reasignados dinámicamente conforme a la demanda de los consumidores. .
Denunciar test Consentimiento Condiciones de uso