DISM 2018
![]() |
![]() |
![]() |
Título del Test:![]() DISM 2018 Descripción: daypo de los huevos |




Comentarios |
---|
NO HAY REGISTROS |
La ley de Moore dice que el número de transistores que se puede integrar en un dispositivo: Con un coste determinado se duplica cada 18 meses. Se reduce cada 18 meses. Se duplica cada 12 meses con un coste inferior. No tiene límite. ¿Cuál de las siguientes afirmaciones sobre las arquitecturas es verdadera?. Un proceso viene definido por un conjunto ordenado de instrucciones. Si hablamos de procesos, todos los procesos activos comparten recursos (memoria). Los hilos de un proceso comparten los recursos (memoria). Hilos y procesos son exactamente lo mismo no se diferencian en nada. En la segmentación se pueden representar varias situaciones que impiden a la siguiente instrucción que se ejecute en el ciclo que le corresponde y son: Riesgos estructurales y por dependencia de datos. Riesgos estructurales y por dependencia de control. Riesgos estructurales por dependencia de datos y por dependencia de contro. No existe ninguna de esas situaciones para la segmentación. Según Flynn, la clasificación de las arquitecturas MIMD para memoria distribuida quedaría como: Memoria compartida distribuida y multicomputadores de memoria distribuida. Fuertemente acoplados. Débilmente acoplados. Memoria compartida distribuida y multicomputadores de memoria distribuida y multiprocesadores de memoria compartida. Los procesadores fuertemente acoplados presentan los siguientes modelos de acceso a memoria: UMA, NUMA, COMA. UMA, NUMA. UMA, COMA. UMA, NUMA, COMA Y CLUSTER. Dentro de la arquitectura VLIW ¿cuál de las siguientes afirmaciones es verdadera?. Presenta como ventaja la simplificación de la arquitectura HW al no tener que planificar el código. Comparado con otras arquitecturas paralelas presenta un mayor consumo y potencia. Requiere de compiladores muy sencillos. No son adecuados para sistemas embebidos. ¿Cuál de las siguientes afirmaciones es falsa respecto a los procesadores débilmente acoplados?. El diseño de clusters puede resultar más sencillo y económico que el de un multiprocesador. Es necesario un sistema de gestión de cluster, middleware. Suelen compartir memoria. Se realiza un reparto de la carga computacional entre los diferentes nodos. El Cluster, es un sistema multiprocesador : Débilmente acoplado, el cual es un conjunto de computadores interconectados con una red alta velocidad. Cuyo diseño es mucho más costoso que un multiprocesador. No es necesario ningún sistema extra para su gestión. De bajo rendimiento y difícil o pocas escalabilidad. La unidad mínima de ejecución paralela dentro de una arquitectura GPU CUDA es: Bloque. Malla. Warp. Hilo. El fenómeno conocido como register spilling consiste en: Las variables de un hilo que no caben en registros del SM pasan a memoria global. Las variables de un hilo que no caben en registros del SM pasan a memoria local. Las variables de un hilo que no caben en registros del SM pasan a memoria compartida. Las variables de un libro que no caben en registros del SM pasan a memoria caché. Dentro de un kernel, por defecto, las variables declaradas son alojadas en: Memoria global. Registros. Memoria local. Memoria compartida. Asumiendo que un kernel es invocado con 128 bloques con tamaño de 256 hilos cada uno, si una variable es definida para alojarse en memoria compartida ¿cuántas copias de esta variable serán creadas a lo largo de la ejecución del mismo?. 32768. 1. 256. 128. Asumiendo que un kernel es invocado con 128 bloques con tamaño de 256 hilos cada uno, considerando una variable típica declarada como int a=0 ¿cuántas copias de esta variable serán creadas a lo largo de la ejecución del mismo?. 32768. 1. 256. 128. Para una suma de vectores en paralelo asumiendo que el tamaño de los vectores es 16000 y que cada hilo calcula un elemento del vector resultado, ¿cuántos hilos habrá como mínimo en el grid de ejecución en CUDA si utilizamos un tamaño de bloque de 512?. 16000. 16384. 16512. 16385. (Problema) Si un kernel enviado a la GPU se ejecuta 8 veces más rápido que en la CPU, pero el 20% restante de la aplicación no es compatible con esta implementación paralela, ¿cuál es la aceleración global obtenida?. 8 x. 3.33 x. 6.66 x. 2 x. (Problema) Suponiendo una arquitectura de GPU Fermi con sus consecuentes limitaciones de hardware específicas, ¿cuál de las siguientes configuraciones de tamaño de bloque ofrecería mejor rendimiento?. 8 x 8. 16 x 16. 32 x 32. no se ve bien (supongo que el dato). |