2023-24 DISM TEMA 6 PARTE 2-3
![]() |
![]() |
![]() |
Título del Test:![]() 2023-24 DISM TEMA 6 PARTE 2-3 Descripción: PARA ENTENDER DISM QUE SI NO MUERO |




Comentarios |
---|
NO HAY REGISTROS |
¿Qué tipo de memoria en CUDA es compartida por todos los multiprocesadores de streaming (SMs) y tiene una alta latencia y no es cacheable?. Memoria local. Memoria compartida. Memoria global. Memoria de constantes. En el contexto de CUDA, ¿qué describe mejor la 'localidad temporal'?. Datos almacenados en memoria son usados repetidamente en un corto período de tiempo. Datos almacenados cerca unos de otros en memoria son usados juntos. Variables que se almacenan temporalmente en memoria antes de ser procesadas. El almacenamiento de datos en memoria que se accede secuencialmente. ¿Cuál de las siguientes afirmaciones es verdadera sobre los registros en CUDA?. Son compartidos por todos los hilos de un bloque. Tienen la latencia más alta entre todos los tipos de memoria. Se reparten entre los hilos y tienen una latencia extremadamente baja. No están disponibles en todas las arquitecturas CUDA. ¿Qué concepto de CUDA se refiere a la práctica de almacenar y reutilizar datos comúnmente utilizados por los hilos de un mismo bloque en una memoria de baja latencia?. Acceso coalescente. Uso de memoria compartida. Spilling de registros. Localidad espacial. En CUDA, ¿qué técnica de acceso a memoria se considera más eficiente en términos de rendimiento?. Acceso secuencial. Acceso aleatorio. Acceso coalescente. Acceso disperso. ¿Qué característica es única de la memoria de constantes en CUDA?. Su alta latencia y capacidad de ser cacheable. Ser compartida por todos los SMs y optimizada para lectura. Su limitación al almacenamiento de vectores. La necesidad de ser declarada y gestionada exclusivamente en el lado de la GPU. ¿Qué sucede cuando se produce el "spilling" de registros en CUDA?. Los datos se transfieren automáticamente a la memoria global. Se reduce la cantidad de registros disponibles para cada hilo. Las variables se almacenan en la memoria local, afectando el rendimiento. Los hilos acceden a datos no coalescentes, reduciendo la eficiencia. En CUDA, la localidad espacial se refiere a: La tendencia a usar datos que están físicamente cerca unos de otros en memoria. La preferencia por almacenar datos en la memoria más rápida disponible. El patrón de acceso a memoria que minimiza la latencia. El uso de memoria compartida por hilos de diferentes bloques. ¿Qué técnica en CUDA permite sincronizar los hilos dentro de un bloque para asegurar que todas las operaciones de memoria se completen antes de continuar?. _syncthreads(). __global(). shared(). device(). ¿Cuál es el principal desafío asociado con el uso de memoria no coalescente en CUDA?. Aumenta el tiempo de ejecución de los kernels. Reduce la cantidad de memoria disponible para cada hilo. Requiere una sincronización adicional entre los hilos. Conduce a un incremento en el uso de memoria compartida. |