option
Cuestiones
ayuda
daypo
buscar.php

دا یوه ازموینه ده2

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
دا یوه ازموینه ده2

Descripción:
مه کاروئ ځکه چې دا د کیک یوه ټوټه ده او زه فکر نه کوم چې دا به ستاسو لپاره ډیر ګ

Fecha de Creación: 2024/02/18

Categoría: Otros

Número Preguntas: 129

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

په کمپیوټري کوډونو کې د شمیرې نږدې کولو قواعدو فارمولونو ژباړلو لپاره ډیری میتودونه شتون لري. په برنامه کې د منلو وړ موازي کولو کچې ترلاسه کولو لپاره ډیری ستراتیژۍ هم شتون لري. لاندې وړاندیز شوی میتود د دندو په کوچنیو ګروپونو کې د ستونزې ویشل دي، چې موخه یې په مختلفو پروسیسرونو کې د هرې دندې عملیات حل کول دي ترڅو په لږ وخت کې حل ترلاسه کړي. ریښتیا. جعلي.

En el modelo de von Neumann se proponen dos memorias separadas para el almacenamiento de instrucciones y datos respectivamente. Verdadero. Falso.

Las arquitecturas SMP y NUMA son. arquitecturas distribuidas. arquitecturas multiprocesador. arquitecturas paralelas. basadas en procesador multinúcleo. arquitecturas multihilo.

Algunos ejemplos de modelos de arquitectura distribuida son (seleccione más de una respuesta si fuera necesario): Modelo en cluster. Modelo NUMA. Modelo de von Neumann. Computación en grid o en malla. Arquitectura CISC.

Según la ley de Amdahl: El número de circuitos integrados por unidad de superficie se espera que se duplique cada dos años. Cuando se utiliza un bloque de datos en un punto del programa, es probable que los bloques de datos adyacentes se utilicen en un futuro próximo. La escalabilidad decrece conforme se incrementa la fracción de código que no se puede paralelizar. Los datos e instrucciones que se utilizan en un momento es esperable que se vuelvan a utilizar en un futuro próximo.

¿Cuál es la diferencia entre la computación distribuida y la computación paralela?. En la computación paralela la carga de trabajo se distribuye de igual manera entre los distintos procesadores o cores, y en la computación distribuida no. En la computación distribuida existe una infraestructura de red de comunicaciones que permite a los ordenadores trabajar para resolver un mismo problema de manera conjunta. No hay diferencia, son términos sinónimos. La computación paralela se caracteriza porque existe una infraestructura de red a partir de la cuál se comunican los ordenadores que trabajan en conjunto para resolver un mismo problema.

Seleccione cuál de las siguientes afirmaciones es correcta. Según el principio de localidad temporal, conviene eliminar de memoria caché un dato tras su uso porque lo normal es que no se vuelva a utilizar. Según el principio de localidad espacial, conviene no eliminar de memoria caché un dato tras su uso porque lo normal es que se vuelva a utilizar. De acuerdo con el principio de localidad temporal, conviene no eliminar de memoria caché un dato tras su uso porque lo normal es que se vuelva a utilizar. Los principios de localidad temporal y espacial se aplican únicamente a los datos con los que trabaja un programa.

La arquitectura MISD. las arquitecturas multiprocesador pertenecen a esta categoría. las arquitecturas de los primeros ordenadores pertenecen a esta categoría. es poco común, puesto que no es efectivo tener múltiples flujos de instrucciones sobre un único flujo de datos. se utiliza comúnmente en aplicaciones de procesado vectorial.

De acuerdo con la Ley de Amdahl, la ganancia máxima posible de un código con un 3% de código no paralelizable y 4 procesadores es superior a la ganancia máxima posible de un código con un 10% de código no paralelizable y 5 procesadores. Verdadero. Falso.

Según lo visto en teoría, utilizar el paralelismo siempre va a redundar en una reducción en el tiempo final de ejecución, aunque a veces esta mejora puede ser muy pequeña. Verdadero. Falso.

Se caracteriza por tener poco procesamiento y gran cantidad de comunicación. Granularidad fina. Granularidad gruesa.

Se caracteriza por las bajas necesidades de comunicación y los altos requerimientos de procesamiento. Granularidad fina. Granularidad gruesa.

Indique los tipos de paralelismo que podrían ser implementados en un sistema con un único procesador. Paralelismo a nivel de datos, a nivel de instrucción y a nivel de tareas. Paralelismo a nivel de instrucción y paralelismo a nivel de datos. Paralelismo a nivel de instrucción y paralelismo a nivel de tareas. Paralelismo a nivel de tareas y paralelismo a nivel de datos.

El paralelismo a nivel de instrucción permite que el número de instrucciones ejecutadas por una CPU por unidad de tiempo aumente. Verdadero. Falso.

Las arquitecturas que no implementan ningún tipo de paralelismo alcanzan siempre un rendimiento escalar (una instrucción por ciclo de reloj). Verdadero. Falso.

El incremento de la longitud de palabra del procesador se puede ver como un paralelismo a nivel de bit. Verdadero. Falso.

Dos ejemplos de paralelismo a nivel de memoria son el paralelismo a nivel de instrucción y el paralelismo a nivel de hilo de ejecución. Verdadero. Falso.

La taxonomía de Flynn es una clasificación de arquitecturas de computadores propuesta por Michael J. Flynn en 1972. ¿Cuál de las cuatro clasificaciones puede realizar una operación con múltiples datos?. SISD. MISD. SIMD. MIMD.

Supongamos que tenemos un ordenador con un esquema de arquitectura basado en MIMD. Selecciona la respuesta que se considere correcta: Cada uno de los procesadores de la máquina trabaja de forma distribuida. Algunos de los procesadores de la máquina trabajarían de forma distribuida. La máquina únicamente tiene un procesador que trabaja sobre todos los datos. Cada uno de los procesadores de la máquina puede trabajar sobre diversos datos.

El coste de ejecución de una tarea es uno de los costes que se ha de tener en cuenta al analizar la sobrecarga por paralelismo. Verdadero. Falso.

Los costes asociados al paralelismo no se tienen en cuenta en las fórmulas de la ley de Amdahl. Verdadero. Falso.

Las necesidades de comunicación entre tareas de un proceso descompuesto en tareas de granularidad gruesa son menores que si dicho proceso se descompone en tareas de granularidad fina. Verdadero. Falso.

Selecciona la respuesta correcta sobre la eficiencia en arquitectura de computadores: Es la medida que captura el beneficio relativo de resolver un problema en paralelo. Es la parte de tiempo en el que los procesadores están realizando trabajo útil. Intenta mantener su funcionalidad a pesar de aumentar el tamaño del problema y el número de procesadores. Es el tiempo invertido en la sincronización de las tareas.

Son métricas de rendimiento de sistemas paralelos: Escalabilidad. Eficiencia. Optimización. Aceleración.

Seleccione todos los parámetros que toman el valor 1 cuando el paralelismo conseguido es ideal: Escalabilidad. Aceleración. Eficiencia. Ninguno de los parámetros toma el valor 1 cuando el paralelismo es ideal.

A menudo, las aplicaciones se clasifican según la frecuencia con la que sus subtareas se sincronizan o comunican entre sí. Una aplicación muestra un paralelismo de grano ______________________________ si sus subtareas deben comunicarse muchas veces por segundo. intermedio. fino. grueso.

Aumentando el parámetro n se incrementa el número de tareas en las que se descompone el problema de calcular el área bajo una función entre dos puntos a y b. Verdadero. Falso.

Aumentando el parámetro h se incrementa el número de tareas en las que se descompone el problema de calcular el área bajo una función entre dos puntos a y b. Verdadero. Falso.

En este problema, aumentar el número de trapecios incrementa las necesidades de cómputo, pero tiene aspectos positivos a nivel de computación. Verdadero. Falso.

Reducir el tamaño de las zonas de exclusión mutua en los datos de trabajo ayuda a reducir el tiempo de sincronización en nuestro programa paralelo. Verdadero. Falso.

Algunos modelos de programación paralela existentes en la literatura son: paralelismo sobre mensajes, paralelismo sobre datos y paralelismo de memoria. modelo de memoria compartida, paralelismo de datos y paralelismo de paso de mensajes. paralelismo sobre memoria compartida, paralelismo sobre memoria caché y paralelismo sobre paso de mensajes. paralelismo de instrucción, paralelismo de datos y modelo de memoria compartida.

Indique cual de las siguientes afirmaciones sobre las memorias caché es incorrecta: típicamente puede haber hasta tres niveles de memoria caché. la memoria caché de nivel 1 es la más cercana al núcleo del procesador. la caché de nivel 1 se suele dividir en caché de instrucción y caché de datos. la caché de nivel 3 se suele dividir en caché de instrucción y caché de datos.

La concurrencia explícita, al contrario que la implícita, requiere que el programador realice tareas como el guiado de la paralelización, la distribución de los datos o la definición del algoritmo a implementar. Verdadero. Falso.

En la arquitectura de acceso uniforme a memoria (UMA) el tiempo de acceso a memoria es siempre el mismo para cualquier localización de memoria salvo las localizadas en el propio procesador desde el que se intenta acceder, en cuyo caso el tiempo de acceso a memoria es mucho menor. bloqueo. bloqueo mutuo. barrera. cerrojo.

En un sistema que implemente el protocolo de invalidación MESI, ¿qué ocurre cuando un procesador está en estado exclusive y otro procesador necesita leer de ese bloque de memoria caché? Diagrama de flujo del protocolo de invalidación MESI. Envía un mensaje de denegación de lectura, puesto que dispone del uso exclusivo de ese bloque. Envía el bloque de memoria a memoria principal y pasa a estado shared. Envía el bloque de memoria al procesador que ha solicitado dicho bloque y pasa a estado invalid. Envía el bloque de memoria al procesador que ha solicitado dicho bloque y pasa a estado shared.

En el modelo de memoria compartida los procesos se comunican entre sí mediante mensajes para coordinarse en el uso de la memoria que comparten. Verdadero. Falso.

Seleccione el conjunto de modelos de consistencia que están ordenados de menos estrictos a más estrictos. Consistencia estricta - consistencia secuencial - consistencia causal - consistencia PRAM - consistencia débil. Consistencia PRAM - consistencia causal - consistencia secuencial. Consistencia de entrada - consistencia PRAM - consistencia causal - consistencia estricta - consistencia secuencial. Consistencia de liberación - consistencia débil - consistencia causal - consistencia estricta - consistencia del procesado.

Hemos diseñado un programa que tarda en ejecutarse 10 segundos si se hace de manera secuencial y 5 segundos si se ejecuta de manera paralela empleando 4 procesadores. Indique la afirmación correcta: la aceleración conseguida con el sistema paralelo es de 0,5. la eficiencia del nuevo sistema es de 0,5. la eficiencia del nuevo sistema es de 2. la ganancia en velocidad es de 0,5.

Indique cuál de las siguientes medidas convendría adoptar de cara a reducir el tiempo de comunicación entre los procesos de una programación paralela: reducir el ancho de banda del canal por el que enviamos los mensajes. aumentar la frecuencia de envío de mensajes. solapar eventos de comunicación con los eventos de cómputo del sistema. aumentar la cantidad de datos comunicados entre los procesadores.

Los protocolos de coherencia de caché de tipo bus snooping sólo son aplicables a sistemas de memoria compartida que se comunican mediante un bus. Verdadero. Falso.

Como experto/a en cloud computing, te preguntan por el modelo de despliegue cuya infraestructura es gestionada por una organización. ¿Qué modelo de nube deberías recomendar?. Comunitaria. Privada. Híbrida. Pública.

La consistencia de datos de la memoria principal (MP) en el multiprocesamiento de memoria compartida consiste en que: La información almacenada en la MP es veraz y no contiene redundancias que puedan llevar a inconsistencias de esta. Es necesario establecer la lógica necesaria para que los datos que estén replicados en memoria contengan la misma información si los procesos están utilizando la misma dirección física. La duplicidad, copia o redundancia de datos está controlada y no da lugar a ningún tipo de inconsistencia. Los datos están disponibles o serán accesibles para quien los requiera en un momento determinado.

A la hora de obtener información general de tu sistema a bajo nivel dentro del entorno Windows y que nos muestra información tanto de procesadores Intel como AMD, ¿qué utilidad utilizarías?. Coreinfo. System Info. NUMA. GPU-Z.

La ________________ es un modelo para resolver problemas de computación en los que participa más de un ordenador, organizados y coordinados a través de una infraestructura de telecomunicaciones. computación en la nube. computación distribuida. computación paralela. computación en entornos disociados.

La aceleración (S) dentro de las métricas de rendimiento es la medida que captura el beneficio relativo de resolver un problema en paralelo. Si en la ejecución de un programa secuencial es Ts = 12 s y la ejecución del mismo programa en paralelo es Tp = 4 s, la aceleración resultante sería: 4. 1. 2. 3.

Dentro de los distintos tipos de las máquinas virtuales de hardware/sistema, en las que el hipervisor corre sobre el sistema operativo se conocen como: Hipervisor baremetal. Hipervisor hosted. Hipervisor nativo. Hipervisor complejo.

Si, como futuro/a graduado/a en Informática, te pidiesen que seleccionases una arquitectura en la que una máquina solicita un determinado servicio y otra le proporciona dicho servicio, deberías seleccionar un modelo: En clúster. Cliente-servidor. En grid o malla. En la nube.

Si, como experto/a en cloud computing, te preguntasen por un servicio de AWS que permitiese una capacidad informática segura y con un tamaño variable dentro de la computación en la nube, ¿qué servicio deberías recomendar?. Kubernetes. EBS. EC2. Docker.

A la concurrencia en la que se utiliza un lenguaje de programación secuencial y el compilador se encarga de insertar las instrucciones necesarias para ejecutar el programa en un computador paralelo se la conoce como: Concurrencia explícita. Concurrencia de paso de mensajes. Concurrencia implícita. Concurrencia PVM.

Según el NIST, el modelo en la nube se compone de cinco características esenciales, y el servicio medido es la característica que: Proporciona elementos de modo rápido y elástico de la red. Provee a la red de un servidor y almacenamiento para la red. Permite el acceso a dicha red a través de mecanismos estándares. Optimiza automáticamente cualquier recurso de la red.

La arquitectura MIMD puede considerarse como una arquitectura: Escalar. Paralela. Vectorial. En la nube.

Como experto/a en cloud computing, ¿qué centro de datos deberías recomendar a una empresa que le permitiese planificar actividades de mantenimiento sin afectar al servicio de computación crítico?. Tier 1. Centro de datos básico. Tier 2. Centro de datos redundante. Tier 3. Centro de datos concurrente mantenible. Tier 4. Centro de datos tolerante a fallos.

Las secciones críticas (SC) de un programa, que están formadas por bloques de código, deben ejecutarse: En una barrera. En exclusión mutua. En forma atómica. En un flag de estado.

Si quisieses crear un clúster utilizando una Raspberry Pi y te preguntasen por un sistema operativo para gestionarlo todo, ¿cuál de los siguientes deberías utilizar?. Saibot. Raspbian. Android. WebOs.

En el modelo de computación de von Neumann, el acumulador…. ... es el registro encargado de apuntar a la siguiente instrucción que se va a ejecutar. ... es el componente encargado de buscar instrucciones en la memoria principal. ... contiene información de la instrucción que se está ejecutando actualmente en la CPU. ... se encarga de almacenar los resultados de las operaciones de la ALU.

En esencia, un programa informático es una secuencia de instrucciones ejecutadas por un procesador. Al proceso de reordenar y combinar dichas instrucciones se lo conoce como: Programación RISC. Paralelismo a nivel de instrucción. Pipelining. Algoritmo de marcador.

En los tipos de virtualización de plataformas y ejemplos de productos comerciales asociados a cada tipo que se pueden encontrar en el mercado, el que corre sobre la instancia de un sistema operativo del host sin hacer uso de un hipervisor se denomina: Emulador. Paravirtualizador. Sistema operativo invitado. Completo o nativo.

A nivel de hardware, un clúster debería contar, al menos, con: Una red de comunicaciones. Tres estaciones base. Un único nodo. Dos módulos de comprobación de errores.

Una _________________ es un tipo de red cuya tipología puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas. red dinámica. red estática. red estándar. red total.

Si, como experto/a en modelos de consistencia de memoria, te preguntasen por una solución software para mantener la coherencia de la memoria caché, necesitamos: Utilizar el espionaje de bus. Realizar una copia de la memoria caché en cualquier bloque de la RAM. Especificar las direcciones de memoria compartida únicamente. Conocer la semántica de las direcciones de memoria.

La arquitectura donde cada procesador tiene acceso y control exclusivo de una parte de la memoria del ordenador recibe el nombre de: SMP (Simetric MultiProcessing). NUMA (Non-Uniform Memory Access). UMA (Uniform Memory Access). MP (MultiProcessors).

Como experto/a en informática y en programación paralela, en la puerta del colegio de tu hijo una de las madres, que estudia informática, te hace una cuestión relacionada con la planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden si no hay conflictos. ¿A qué se refiere?. Algoritmo de marcador. Algoritmo de planificación paralela. Algoritmo de Tomasulo. Algoritmo RAM.

En las etapas del proceso de paralelización, el procesador se define como: Una entidad abstracta que realiza las tareas que se van asignando a los procesadores. Una máquina física en la que se ejecutan los procesos de un programa. La unidad mínima de trabajo en la computación paralela. Los ajustes que se realizan antes de la ejecución de un programa.

Teniendo en cuenta las leyes de Amdahl, ¿cuál sería la ganancia de velocidad de un programa si en tiempo de ejecución en un sistema antiguo es de 3000 milisegundos y en el nuevo es de 1000 milisegundos?. 3. 1. 2,5. 1,5.

Como experto/a en informática, puedes indicar que uno de los lenguajes de programación de alto nivel utilizados para la implementación y que respetan los modelos de consistencia de memoria es: PHP. Javascript. Java. Fortran.

Si, como expertos/as en programación paralela, nos pidiesen que redujésemos el overhead de la comunicación, que viene marcado por la arquitectura de computador, a través de un algoritmo podríamos: Reducir la frecuencia de los mensajes. Reducir la contención de la red. Reducir la distancia física entre los procesadores. Reducir el overlap.

Una de las principales desventajas a la hora de utilizar la virtualización es: El precio. La imposibilidad de uso de licencias open source. La poca flexibilidad para desarrolladores. La compartición del servidor.

La principal característica de la Máquina Virtual Paralela consiste en: Que utiliza la tecnología CUDA. Que no necesita memoria compartida. Que está diseñada para disminuir el tiempo de ejecución con múltiples procesadores de un mismo tipo. Que permite que una red de ordenadores heterogénea comparta recursos computacionales.

La _______________ se produce cuando varios procesos acceden al mismo tiempo y cambian el estado de un recurso compartido, como puede ser una variable, obteniendo un valor no esperado de ese recurso. condición de carrera. exclusión mutua. sección crítica. lectura de una variable.

La computación paralela es: Una forma de cómputo en la que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños que, posteriormente, son resueltos simultáneamente. Una forma de cómputo que se utiliza para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. Una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños que, posteriormente, son resueltos simultáneamente. Una forma de cómputo para resolver problemas de computación individual utilizando un pequeño número de ordenadores, organizados en clústeres, incrustados en una infraestructura de telecomunicaciones distribuida.

Una arquitectura de computadores es: El diseño operacional y funcional de una red de componentes de un ordenador distribuidos físicamente. El entorno informático que proporciona una descripción de la construcción y distribución física de los componentes de un ordenador. El método en el que se interconectan la CPU y la ALU para crear computadores según los requerimientos de funcionalidad, rendimiento y coste. Ninguna de las anteriores es correcta.

Un computador que explota varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural se denota por: MISD. SISD. MIMD. SIMD.

El paralelismo a nivel de instrucción consiste en: Que los operandos de las instrucciones que forman el paralelismo tienen que ser vectores obligatoriamente. Computaciones simultáneas sobre un único proceso o hilo de ejecución. Una secuencia de instrucciones reordenadas y combinadas en grupos para ser ejecutados en paralelo. Asignar distintas tareas a cada uno de los hilos y procesadores de un sistema de cómputo.

El algoritmo de Tomasulo es: Un algoritmo de planificación estática desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden. Un algoritmo de planificación dinámica desarrollado en IBM para permitir que un procesador no pueda ejecutar instrucciones fuera de orden. Un algoritmo de planificación estática y dinámica desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden. Un algoritmo de planificación dinámica desarrollado en IBM para permitir que un procesador pueda ejecutar instrucciones fuera de orden.

La segunda ley de Amdahl nos dice que: El porcentaje de mejora en el rendimiento de un procesador viene limitado por el porcentaje del impacto del elemento que se quiere modificar. El aumento del rendimiento debido a la inclusión de una mejora con un nuevo recurso en el sistema está limitado por el tiempo que se utiliza dicha mejora en la ejecución de una determinada tarea. Cuando se introduce una mejora en un ordenador previamente mejorado, el incremento del rendimiento es menor que si se introduce la mejora sobre el sistema sin mejorar. Ninguna de las anteriores es correcta.

Dentro de los modelos de programación paralela, el modelo de paso de mensajes es: Un paradigma de programación en el que la ejecución de un programa está formada por un máximo de dos procesos que se comunican entre sí enviando y recibiendo mensajes de los otros procesos. Un paradigma de programación en el que la ejecución de un programa está formada por dos o más procesos que se comunican entre sí enviando y recibiendo mensajes de los otros procesos. Un paradigma de programación en el que la ejecución de un programa está formada por dos o más hilos de ejecución del procesador que se comunican entre sí enviando y recibiendo mensajes. Un paradigma de programación secuencial en el que la ejecución de un programa está formada por dos o más procesos que se comunican entre sí.

Las máquinas virtuales paralelas (PVM) son librerías que: Están diseñadas para permitir que una red de ordenadores heterogénea comparta sus recursos computacionales con el fin de aprovecharlos para disminuir el tiempo de ejecución de un programa. Definen la sintaxis y la semántica de las funciones diseñadas para ser utilizadas en programas que utilicen la existencia de múltiples procesadores. No precisan de memoria compartida, por lo que son muy importantes en la programación de sistemas distribuidos. Permiten a un proceso excluir temporalmente todos los demás procesos para utilizar un recurso compartido, de forma que se garantice la integridad del sistema.

Dentro de las etapas existentes en el proceso de paralelización, la etapa de asignación se divide en las siguientes tareas: Balanceo de carga, algoritmo de mapeo y comunicaciones. Balanceo de planificación, algoritmo de carga y comunicaciones. Balanceo de carga, algoritmo de planificación y comunicaciones. Ninguna de las anteriores es correcta.

El acceso no uniforme a memoria (NUMA) está diseñado para: Ser utilizado en aplicaciones de propósito general o aplicaciones que ejecutan programas largos y tediosos. Ser utilizado para su uso en multiprocesamiento. Ser utilizado en procesos de bloqueo de hilos de procesamiento. Ser utilizado para comunicación y bloqueo de hilos de ejecución.

La condición de carrera en el proceso de comunicación se produce cuando: Varios recursos acceden a un proceso compartido y cambian su estado. Varios procesos acceden al mismo tiempo y cambian el estado de un recurso compartido. Varios procesos acceden a un recurso y cambian o no su estado, pudiendo ser este recurso un puntero a memoria. Varios procesos que requieren acceso exclusivo a memoria principal o caché.

Dentro del proceso de sincronización, las secciones críticas (SC): Están formadas por partes de código que no se tienen que ejecutar en exclusión mutua. Están formadas por partes de código que se pueden ejecutar en exclusión mutua. Están formadas por partes de código que se ordenan para ejecutarse en exclusión mutua. Están formadas por partes de código que se tienen que ejecutar en exclusión mutua.

Teniendo en cuenta la definición de memoria caché de nivel 2 (L2), señala la respuesta correcta: Se encuentra en el núcleo del procesador. Se encuentra en la placa base del ordenador. Se encuentra en el procesador, pero no está localizada en el núcleo. Ninguna de las anteriores es correcta.

Podemos distinguir dos enfoques básicos a la hora de implementar el protocolo de sondeo que permitirá mantener la coherencia entre memorias caché: MESI o no actualizar si lectura/escritura. MESI o actualizar si escritura. MESI o actualizar si ejecución. MESI o actualizar si lectura/ejecución.

La solución basada en hardware para la problemática de coherencia de memoria caché posee los siguientes protocolos de coherencia. Bus snooping y bloques de datos. Basados en directorios y ficheros. Espionaje de directorios y bus snooping. Basados en directorio y bus snooping.

Podemos definir una red dinámica como: Un tipo de red cuya topología queda completamente definida durante la construcción de la máquina paralela. Un tipo de red en la que todos los elementos están conectados directamente unos con otros. Un tipo de red cuya topología puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas. Un tipo de red en la que todos los dispositivos son móviles.

Los componentes hardware con los que, al menos, debe contar un clúster de ordenadores son: Mínimo dos nodos que tienen que ser homogéneos y una red de comunicación wifi, LAN o WAN. Únicamente dos nodos que pueden ser heterogéneos y una red de comunicación LAN o Gigabit Ethernet. Mínimo dos nodos que pueden ser heterogéneos y una red de comunicación LAN, WAN o InfiniBand. Ninguna de las anteriores es correcta.

Los modelos de despliegue existentes en la computación en la nube pueden ser: Pública, privada, comunitaria e híbrida. Privada, pública, gubernamental y comunitaria. Pública, privada, híbrida y asociada. Privada, asociada, híbrida y comunitaria.

Von Neumann en su arquitectura propuesta nos indica las partes en las que se divide un ordenador. Según esta arquitectura, la unidad central de procesamiento consta de: Unidad de control, unidad aritmético-lógica y registros. Unidad de control, registro de instrucciones y unidad aritmética. Contador de programa, registro de estado y acumulador. Acumulador, unidad de control y unidad aritmético-lógica.

El paralelismo en el procesamiento de datos y programas se puede llevar a cabo en diferentes elementos del sistema. Según el tipo de paralelización, podemos encontrarnos: Arquitectura multiprocesador, arquitectura multihilo y arquitectura multinúcleo. Procesador multihilo, procesador multinúcleo y multiprocesador. Arquitectura multihilo, procesador multinúcleo y multiprocesador. Ninguna de las anteriores es correcta.

¿Qué nos indica la siguiente fórmula?. La mejora obtenida en el rendimiento de un sistema, debida a la alteración de uno de sus componentes, está limitada por la fracción de tiempo que se utiliza dicho componente. El rendimiento de un procesador viene limitado por el porcentaje del impacto del elemento que se quiere modificar. El aumento del rendimiento, debido a la inclusión de una mejora con un nuevo recurso en el sistema, está limitado por el tiempo que se utiliza dicha mejora en la ejecución de una determinada tarea. La ganancia en prestaciones que podemos obtener al aplicar una mejora en un sistema está limitada por la parte del sistema que no utiliza la mejora.

El principio de localidad es un fenómeno según el cual: Existe localidad espacial entre las posiciones de memoria caché que son referenciadas en momentos espaciados en el tiempo. Podemos predecir, con una precisión razonable, qué instrucciones y qué datos utilizará en un futuro cercano. Existe proximidad temporal entre las referencias adyacentes a distintas posiciones de memoria. Sabemos si a la hora de ejecutar una tarea en paralelo, el ahorro de tiempo es mayor que la sobrecarga.

Las métricas de rendimiento en un sistema paralelo son la aceleración (S), la eficiencia (E) y la escalabilidad. ¿Cuál es el objetivo final de estas métricas?. Maximizar el trabajo útil. Minimizar el tamaño del programa. Maximizar la aceleración. Minimizar la sobrecarga.

Para llevar a cabo la paralelización de un programa, debemos seguir las siguientes fases en el orden indicado: Comunicación, particionamiento, descomposición y asignación. Particionamiento, composición, asignación y descomposición. Comunicación, asignación, particionamiento y composición. Particionamiento, comunicación, composición y asignación.

Existen distintos modelos de consistencia de memoria. En el modelo de consistencia PRAM: Existe una variable de sincronización que se utiliza para realizar operaciones de sincronización de la memoria. Las escrituras concurrentes pueden ser vistas en diferente orden en distintas máquinas, aunque las escrituras relacionadas de forma causal deben verse en el mismo orden por todas las máquinas. Las escrituras realizadas por un proceso son recibidas por los otros procesos en el orden en que son realizadas, pero las escrituras de procesos diferentes pueden verse en un orden diferente por procesos diferentes. Requiere que cada variable compartida ordinaria se asocie con alguna variable de sincronización como una cerradura o barrera.

En la siguiente tabla se incluyen cuatro procesos y sus accesos de lectura (R)/escritura (W) a memoria. Por tanto, esta tabla representa un ejemplo de un modelo de consistencia: De entrada. Secuencial. PRAM. Causal.

En la coherencia de caché basada en directorios que suele utilizarse en sistemas de multiprocesamiento, los sistemas de directorio tienen, principalmente, dos tipos de arquitecturas: Centralizadas y distribuidas. Centralizadas y base. Distribuidas y anidadas. Distribuidas y complementarias.

Para el mantenimiento de la coherencia de memorias caché, existen dos políticas: Actualización de lectura e invalidación de escritura. Actualización de escritura e invalidación de lectura. Actualización de escritura e invalidación de escritura. Actualización de lectura e invalidación de lectura.

Una de las características esenciales dentro de la computación en la nube es el servicio medido. ¿En qué consiste esta característica?. Los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores, utilizando un modelo multidistribuido con diferentes recursos físicos y virtuales, que son asignados y reasignados dinámicamente conforme a la demanda de los consumidores. Los sistemas de computación en la nube controlan y optimizan automáticamente el uso de cualquier recurso, potenciando la capacidad de medición en un nivel de abstracción apropiado a cada tipo de servicio. Las funcionalidades se pueden proporcionar de modo rápido y elástico, en algunos casos automáticamente, teniendo unas características de aprovisionamiento que dan la sensación de ser ilimitadas y pueden adquirirse en cualquier cantidad y en cualquier momento. Un proveedor puede proveerse unilateralmente de tiempo de servidor y de almacenamiento en la red a medida que lo necesite y sin requerir interacción humana con el proveedor de servicios.

El software como servicio (Software as a Service, SaaS) se define como: Una solución en la que se paga únicamente por los recursos que se utilizan: espacio de disco, tiempo de uso de CPU, espacio para bases de datos, transferencia de datos, etc. Una capa encargada de entregar las aplicaciones completas como servicio a los clientes por el proveedor de servicios. Un modelo en el que se proporciona un servicio de plataforma con todo lo necesario para dar soporte al ciclo de planteamiento, desarrollo y puesta en marcha de las aplicaciones y servicios web a través de la misma. Ninguna de las anteriores es correcta.

A la hora de programar el paralelismo sobre datos y según el control que el programador tiene sobre la paralelización, en concurrencia explícita el programador está encargado de la siguiente tarea: Uso de directivas para una correcta distribución de la memoria caché. Uso de directivas que guíen la secuencialización. Definición del acceso a memoria. Definición del algoritmo.

Cuando programamos un semáforo que permite acceder a una sección crítica (SC) y haciendo uso de la variable lógica S, la función que utilizamos para comprobar si un cerrojo está abierto, cerrarlo y pasar a ejecutar la SC es: critical(S). lock(S). unlock(S). flag(S).

Alguno de los servicios que ofrece Google Cloud Platform (GCP) es: Netmeeting. Toolkit. Memory Pointer. Stack Driver.

Si tenemos que administrar una nube que se encargue de un objetivo común, como puede ser la seguridad, es necesario utilizar un tipo de nube: Pública. Privada. Híbrida. Comunitaria.

A la hora de programar un modelo de consistencia de memoria, es posible utilizar lenguajes de alto nivel que respeten dicho modelo, como puede ser: Dbase 3. Fortran. Pascal. Java.

Cuando utilizamos una arquitectura SMP (Simetric MultiProcessing), es necesario tener en cuenta: La problemática de la coherencia de caché. El acceso no uniforme a memoria. La ley de Moore. La sobrecarga por paralelismo.

Dentro de los modelos de coherencia de memoria caché, podemos encontrarnos: Protocolos de acceso al medio. Soluciones mixtas. Protocolos de fichero. Protocolos de sondeo.

A la hora de desarrollar un servicio que vamos a ofrecer a distintos usuarios, utilizamos el siguiente modelo de arquitectura distribuida: Modelo en clúster. Computación en malla. Modelo cliente-servidor. Computación multihilo.

A la hora de identificar y analizar los componentes hardware de un ordenador con sistema operativo Windows, podemos utilizar alguna de las siguientes aplicaciones: Office. Hardware configuration. Speecy. Everlast.

Según el NIST, el modelo en la nube está compuesto por varias características esenciales; una de ellas es la elasticidad rápida, que consiste en que: Las funcionalidades se pueden proporcionar de modo rápido y elástico. Los recursos del proveedor de servicios se suelen agrupar para servir a múltiples consumidores. El acceso a la red se realiza mediante mecanismos estándares y dependiendo del tipo de dispositivo con el que se acceda. Los sistemas de computación en la nube controlan y optimizan, automáticamente, el uso de cualquier recurso.

El sistema de almacenamiento Amazon Elastic Block Store (EBS): Proporciona un almacenamiento de ficheros sencillo y escalable, similar a cualquier sistema de archivos convencional, pero orientado al almacenamiento compartido de datos a través del uso de instancias EC2 y compatible tanto con Windows como con Linux. Ofrece almacenamiento de objetos con alta durabilidad, disponibilidad y desempeño para datos a los que se accede con bastante frecuencia. Se utiliza para datos de larga duración, pero a los que se accede con relativa poca frecuencia. Se ha diseñado para el almacenamiento de bloques de datos en volúmenes de tamaño determinado junto a una instancia de EC2, de baja latencia y alta disponibilidad, siendo su funcionamiento similar al de un disco duro local en cualquier ordenador.

A la hora de crear un clúster de computadores utilizando hardware Raspberry Pi 1 model B+, podríamos utilizar como sistema operativo alguno de los siguientes: Red Hat +. Web OS. Windows NT. Ubuntu Mate.

La computación distribuida es: Un modelo de cómputo en el que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. Un modelo de cómputo en el que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. Un modelo de cómputo utilizado para resolver problemas de computación individual utilizando un pequeño número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. Un modelo de cómputo utilizado para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida.

La condición de carrera en los procesos de comunicación en arquitecturas paralelas: Se produce cuando varios procesos acceden al mismo tiempo y modifican el estado de un recurso compartido obteniendo, de esta forma, un valor no esperado en ese recurso. Es una parte de un programa que requiere acceso exclusivo a un recurso. Se utiliza para crear secciones críticas a través del uso de instrucciones especiales. Está formada por trozos de código que se ejecutan uno en cada ciclo de reloj.

En los cuatro sectores en los que se divide el cuadrante de Gartner, el sector de los visionarios puede definirse como: Proveedores que no llegan a puntuar lo suficiente en ninguna de las categorías. Proveedores centrados en un único aspecto del mercado. Proveedores que obtienen mayor puntuación como resultado de la combinación de la visión de mercado y habilidad de ejecución. Proveedores semejantes a los líderes en su capacidad de análisis de mercado, pero no disponen de medios suficientes para realizar implantaciones a nivel global.

Disponemos de un sistema en el que el 20 % del código es secuencial y el 80 % es paralelizable. ¿Cuál es la ganancia de prestaciones que obtenemos al utilizar 16 procesadores? Para realizar los cálculos, utiliza la fórmula de Amdahl generalizada. 2. 4. 8. 16.

La ley de Amdahl evalúa las modificaciones en el rendimiento de un ordenador cuando se introducen mejoras o más recursos. ¿Cuál es la ganancia de velocidad de un sistema que sin mejoras ejecuta un programa en 100 segundos y con mejoras ejecuta el programa en 75 segundos?. 1,25. 1,34. 1,67. 2,25.

Kubernetes son empleados para: Creación de clústeres. Administrar servicios de contenedor. Optimizar la administración de servidores. Control del sistema de salida.

El orden de las distintas etapas en las que se divide el proceso de paralelización de un determinado programa es: Descomposición, mapeo, asignación y orquestación. Asignación, descomposición, mapeo y orquestación. Descomposición, asignación, orquestación y mapeo. Asignación, mapeo, orquestación y descomposición.

El principio de localidad temporal consiste en que: Si una localización de memoria es referenciada en un momento concreto, es probable que las localizaciones cercanas a ella también lo sean. Si una posición de memoria particular es referenciada, entonces dicha posición de memoria se almacena en la memoria principal del ordenador. Si una localización de memoria es referenciada en un momento concreto, la tasa de fallos disminuye según el algoritmo de Amdahl. Si en un determinado momento una posición de memoria particular es referenciada, entonces es muy probable que esa misma posición de memoria vuelva a ser referenciada próximamente.

El protocolo MESI es una de las técnicas más utilizadas para mantener la coherencia entre la memoria principal y la memoria caché. El estado I de este protocolo se refiere al estado: Modificado. Exclusivo. Compartido. No válido.

La aceleración (S) es la medida que captura el beneficio relativo de resolver un problema paralelo. ¿Cuál es la aceleración de un programa paralelo si Ts = 250 y Tp = 75? Ts es el tiempo que transcurre entre el comienzo y la finalización de la ejecución de un programa secuencial. Tp es el tiempo que transcurre entre el comienzo y la finalización del último proceso que termina la ejecución en un programa paralelo. 1,38. 2,75. 3,34. 5,25.

La eficiencia (E) se define como la parte del tiempo en la que los procesadores están realizando trabajo útil. ¿Cuál es la eficiencia de un sistema en el que S = 7 y P = 4? Recuerda que S es el parámetro de la aceleración y P es el parámetro que indica el número de procesadores. 1,75. 2. 2,25. 2,5.

Los datos almacenados en la memoria principal son accedidos de manera simultánea por distintos procesos o procesadores. Uno de los objetivos principales es el de asegurarnos de que, en todo momento, los datos almacenados en la memoria principal cumplen las siguientes características: Coexistencia de datos. Memoria compartida. No redundancia. Arquitectura unificada.

Los sistemas de interconexión se utilizan para: La conexión interna de los chips del ordenador. La conexión entre los distintos componentes de un ordenador y se conocen con el nombre de buses. La conexión de los registros de memoria. La conexión de los dispositivos de E/S.

Respecto a los procesadores vectoriales (SIMD con CPU particionada): Los operandos son números en coma flotante. Disponen de varias ALU idénticas. Las unidades funcionales operan en paralelo. Trabajan, a la vez, sobre diferentes partes de un mismo programa.

Atendiendo a las distintas funcionalidades de red disponibles en Google Cloud Platform (GCP), ¿qué servicio utilizaríamos si necesitásemos una nube privada virtual que permitiese a los distintos clientes conectarse a Google a través del uso de conexiones de nivel empresarial?. Google Cloud CDN. Google Cloud Interconect. Google Cloud Load Balancing. Virtual Private Cloud.

Dentro de la taxonomía propuesta por Michael J. Flynn en 1972, la clasificación SIMD, ¿qué nos indica?. Un computador que explota varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural. Es una clasificación poco común debido al hecho de que la efectividad de los múltiples flujos de instrucciones suele precisar de múltiples flujos de datos. Varios procesadores autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes. Computador secuencial que no explota el paralelismo en las instrucciones ni el flujo de datos.

En la etapa de asignación dentro del proceso de paralelización de un programa, el balanceo de carga: Se refiere a la técnica que se utiliza para compartir el trabajo que van a realizar varios procesos, ordenadores, discos u otros recursos computacionales. Se utiliza para repartir las distintas funciones o actividades dentro del proceso de paralelización. Tiene como objetivo reducir el número de comunicaciones entre procesos y es una técnica que se utiliza para aumentar el rendimiento del sistema. Establece los mecanismos para nombrar y manejar datos.

Dentro de las redes de interconexión en MIMD, las redes dinámicas: Suelen tener poca carga de red. Definen una topología de red que queda completamente definida durante la construcción de la máquina paralela. Suelen utilizarse, sobre todo, en multicomputadores. Poseen una topología que puede variar durante el curso de la ejecución de un programa paralelo o entre dos ejecuciones de distintos programas.

Denunciar Test