Arquitectura 13322
|
|
Título del Test:
![]() Arquitectura 13322 Descripción: Arquitectura 3 |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Dentro de la categoría de red de Microsoft Azure, Express Route permite: La generación de conexiones entre distintos centros de datos en la nube o en la infraestructura local. Balancear el tráfico entrante entre diferentes servicios de la plataforma. Tener una o varias máquinas virtuales conectadas entre sí y todas dentro de la nube de Microsoft. Crear y ejecutar aplicaciones híbridas de forma coherente fuera de los límites de la nube. El esquema que mostramos en la figura se corresponde con un esquema de una arquitectura: NUMA. UMA. Secuencial. CUDA. Los datos almacenados en la MP son accedidos de manera simultánea por distintos procesos o procesadores. Uno de los objetivos principales es el de asegurarnos de que, en todo momento, los datos almacenados en la MP cumplen las siguientes características: Coherencia de memoria, no redundancia y disponibilidad de los datos. Consistencia de datos, coherencia de memoria y disponibilidad de los datos. Consistencia de datos, coherencia de memoria y no redundancia. Ninguna de las anteriores es correcta. El principio de localidad temporal es un fenómeno según el cual: Las posiciones de memoria caché que son referenciadas en momentos espaciados en el tiempo. Podemos predecir, con una precisión razonable, qué instrucciones y qué datos utilizará la memoria caché en un futuro cercano. Si en un determinado momento una posición de memoria particular es referenciada, entonces es muy probable que esa misma posición de memoria vuelva a ser referenciada en un futuro cercano. Sabemos, si a la hora de ejecutar una tarea en paralelo, el ahorro de tiempo es mayor que la sobrecarga. En la siguiente tabla, están representados cuatro procesos y sus accesos de lectura (R), escritura (W), adquisición (Acq) y liberación (Rel) a memoria. La siguiente tabla representa un ejemplo de un modelo de consistencia: De entrada. Secuencial. De liberación. Causal. El balanceo de carga presente en la 2.ª etapa del proceso de paralelización, conocida como etapa de asignación, consiste en: La técnica que se utiliza para compartir el trabajo que van a realizar varios procesos, ordenadores, discos u otros recursos computacionales. La técnica que se utiliza para reducir el número de comunicaciones entre procesos. La técnica que se utiliza para repartir las distintas funciones o actividades que necesita un algoritmo de planificación. La técnica que se utiliza para calcular los recursos que consumen otros algoritmos o el programa en su totalidad a la hora de realizar una determinada tarea. Los ordenadores paralelos se pueden clasificar según el nivel de paralelismo que admite su hardware en: Multinúcleo, multiproceso, MPP y clúster. Grids, multinúcleo y clúster. MPP, multiproceso y grids. Ninguna de las anteriores es correcta. La arquitectura de un computador consiste en: El diseño operacional y la estructura funcional fundamental de un sistema de computadora. El diseño arquitectónico y la estructura operacional fundamental de un sistema de computadora. El diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Ninguna de las anteriores es correcta. El protocolo MESI es una de las técnicas más utilizadas para mantener la coherencia entre la memoria principal y la memoria caché. El estado S de este protocolo se refiere al estado: Modificado. Exclusivo. Compartido. No válido. Selecciona la respuesta correcta sobre el multiprocesamiento de memoria compartida: NUMA puede mejorar el rendimiento utilizando una única memoria compartida por un factor de, aproximadamente, el número de procesadores. En el modelo UMA, todos los procesos acceden a la memoria de manera uniforme. En el modelo NUMA, a la memoria se accede en posiciones relativas de otro proceso o memoria compatible entre procesos. Todas las respuestas anteriores son correctas. La computación distribuida es: Un modelo de cómputo en el que una instrucción se ejecuta a la vez en los computadores de una red de ordenadores, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. Un modelo de cómputo utilizado para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. Un modelo de cómputo en el que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes a menudo se pueden dividir en problemas más pequeños, que posteriormente son resueltos simultáneamente. Un modelo de cómputo utilizado para resolver problemas de computación individual utilizando un pequeño número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. El proyecto en el que ha estado involucrada Google dentro de Google Cloud Platform para el uso de Kubernetes recibe el nombre de: Kubernetes Cloud. Google Kubernetes. Kubernetes Computer. Kubernetes Engine. El almacenamiento S3 estándar con acceso poco frecuente se define como: Acceso destinado a datos a los que se accede con poca frecuencia, pero que requieren un acceso rápido cuando es necesario utilizarlos. Los datos se almacenan en tres zonas distintas. Un servicio se utiliza para datos de larga duración, pero a los que se accede con relativa poca frecuencia. El almacenamiento de bloques de datos en volúmenes de tamaño determinado junto con una instancia de EC2, de baja latencia y alta disponibilidad. Servicio que se utiliza para el almacenamiento de datos a largo plazo y pensado para la realización de copias de seguridad. Los procesadores matriciales disponen de: Varios procesadores. Varias ALU. Varias memorias caché. Varios buses de datos. La escalabilidad de un sistema consiste en: Maximizar la aceleración de uno o varios sistemas. La habilidad de mantener la eficiencia cuando aumentan simultáneamente el tamaño del problema y el número de procesadores del sistema. Observar cómo los programas hacen uso de la máquina y así mejorar el diseño para aumentar el rendimiento. La medida que captura el beneficio relativo de resolver un problema en paralelo. Teniendo en cuenta la definición de memoria caché de nivel 3 (L3), selecciona la respuesta correcta: Se encuentra en el núcleo del procesador. Se encuentra en la placa base del ordenador. Se encuentra en el procesador, pero no está localizada en el núcleo. Ninguna de las anteriores es correcta. En la arquitectura CISC (complex instruction set computer), los distintos pasos que se llevan a cabo para la ejecución de una instrucción son los siguientes: Microinstrucciones máquina, conversión de microcódigo, microinstrucciones y ejecución de microinstrucciones. Instrucciones en ensamblador, conversión de microcódigo, microinstrucciones y ejecución de instrucciones en ensamblador. Instrucciones máquina, conversión de código, instrucciones y ejecución de instrucciones. Instrucciones máquina, conversión de microcódigo, microinstrucciones y ejecución de microinstrucciones. En el modelo de paso de mensajes, la principal característica de MPI es que: Precisa de memoria compartida. No permite su uso con memorias concurrentes. Precisa de la intervención del programador para el uso de memoria. No precisa de memoria compartida. La paralelización es un proceso que consiste en transformar un programa secuencial en una nueva versión concurrente semánticamente equivalente. El proceso se puede realizar de dos formas: Automática o manual. Mapeo o secuenciación. Transformación y compilación. Secuencial o paralela. En el método de coherencia de caché basada en directorios, en la arquitectura de directorio centralizado, los protocolos existentes son: De mapeo completo y de mapeo limitado. De mapeo completo y de mapeo ilimitado. De mapeo incompleto y de mapeo limitado. De mapeo incompleto y de mapeo ilimitado. Un acceso a memoria atómico se refiere a accesos: Con interferencias, para poder realizar correctamente la sincronización de procesos. Sin interferencias, para poder realizar correctamente la sincronización de hilos de ejecución. Sin interferencias, para poder realizar correctamente la sincronización de procesos. Sin interferencias predefinidas por el sistema para poder realizar correctamente la sincronización de procesos. La plataforma Microsoft Azure proporciona: IaaS, PaaS y MaaS. WaaS, IaaS y SaaS. RaaS, PaaS e IaaS. IaaS, PaaS y SaaS. El servicio de cómputo Amazon EC2 puede trabajar con contenedores y servicios de tipo: Fargate. Kubernetes. Docker. Todas las respuestas son correctas. La principal diferencia entre el modelo de computación en clúster y el modelo de computación en grid consiste en el uso que se les da a las distintas máquinas que forman cada uno de los modelos. Selecciona la respuesta correcta: En la computación en grid, las máquinas no están al 100 % dedicadas a una tarea. En la computación en clúster, las máquinas no están al 100 % dedicadas a la ejecución de una tarea específica. En la computación en grid, las máquinas están al 100 % dedicadas a una tarea. En la computación en clúster, las máquinas están al 50 % dedicadas a la ejecución de una tarea específica y al 50 % dedicadas a una tarea particular. El algoritmo de marcador o scoreboarding es: Un método de planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware está disponible. Un método de planificación de tareas que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware está disponible. Un método de planificación de instrucciones que permite que estas puedan ser ejecutadas fuera de orden cuando no existen conflictos y el hardware no está disponible. Un método de planificación de tareas que permite que estas puedan ser ejecutadas dentro de orden cuando no existen conflictos y el hardware está disponible. El uso de la arquitectura RISC (reduced instruction set computer) busca: Aumentar la velocidad de procesamiento y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones de la memoria. Aumentar la velocidad de procesamiento, pero sin intentar reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador. Aumentar la velocidad de la memoria y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador. Aumentar la velocidad de procesamiento y reducir el tiempo de ejecución al simplificar el conjunto de instrucciones del procesador. La coherencia de caché basada en directorios suele utilizarse en sistemas de multiprocesamiento en los que la red de interconexión: Es una red multipunto. Es una red wifi. No es un bus. Es una red bus snooping. En el protocolo de invalidación MESI, cuando ocurre una transacción BusRd, el bloque que se encuentre en un estado E pasará a un estado: M. E. S. I. Selecciona la opción correcta para la concurrencia explícita para programar el paralelismo de datos: Se utiliza un lenguaje de programación secuencial y el compilador se encarga de insertar las instrucciones necesarias para ejecutar el programa en un computador paralelo. Descubrir el paralelismo potencial del algoritmo, utilizar punteros para asignar los datos y carga de trabajo en los procesadores y manejar la sincronización y comunicación entre procesos. El programador se encarga de definir el algoritmo, utilizar directivas para la correcta distribución de los datos y utilizar directivas para que guíen la paralelización. El compilador analiza y entiende las dependencias existentes para asegurar un mapeo eficiente. Von Neumann en su arquitectura propuesta nos indica las partes en las que se divide un ordenador. La CPU posee una serie de registros con una determinada función. El registro de instrucciones (IR) es: El registro encargado de apuntar a la siguiente instrucción que se va a ejecutar. El registro que nos indica el resultado obtenido por la última operación realizada por la ALU. El registro que contiene la instrucción que se está ejecutando actualmente en la CPU. El registro encargado de almacenar los resultados de las operaciones aritméticas y lógicas. |





