CCAA T6
|
|
Título del Test:
![]() CCAA T6 Descripción: computadores avanzados |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Indica cuál es la afirmación verdadera: Uno de los objetivos de la fase de asignación es reducir la comunicación. En general, una asignación realizada de forma heurística ofrece los mejores resultados. Las tareas obtenidas mediante descomposición funcional no pueden usar los mismos datos. En la fase de descomposición de un problema en tareas, se debe tener en cuenta el tipo de clúster que se va a usar. El modelo de organización del código paralelo SPMD. No se suele usar en computadores MIMD. Permite ahorrar memoria con respecto al modelo MPMD. Permite distinguir qué datos usa cada proceso pero no las instrucciones que ejecuta cada proceso. Ninguna de las demás afirmaciones es cierta. La función de isoeficiencia: Determina el número de procesadores que permite mantener constante la eficiencia al aumentar el tamaño del problema. Es la función de eficiencia establecida por la ISO. Es la relación entre el speedup y la eficiencia. Permite obtener el tamaño de la entrada para el cual la eficiencia se mantiene constante al aumentar el número de procesadores. La descomposición de tareas: Es independiente del lenguaje y la arquitectura subyacente. Tiene como objetivo mantener el mayor número de tareas posible. Es única para cada tipo de problema. Sólo tiene en cuenta los datos que se manejan. La eficiencia de un programa paralelo: Da idea del nivel de aprovechamiento de los recursos del sistema paralelo. Se acerca a su valor óptimo al aumentar el número de procesadores. Se aleja de su valor óptimo, el número dee procesadores, al aumentar el número de procesadores. Se mueve entre 1 y -1. Con respecto a la granularidad de las tareas de un problema se cumple que: Grano fino implica mucha menos comunicación que grano grueso. Grano fino implica peor balanceo de la carga que grano grueso. Grano grueso implica mucha más comunicación que grano fino. Grano grueso implica peor balanceo de la carga que grano fino. Tres quintas partes del trabajo a realizar son paralelizables, ¿cuántos procesadores son necesarios para obtener un speedup de 2?. 8. 6. 4. Infinitos. La versión secuencial de un programa ejecutada en un único procesador tarda 25 días, y la versión paralela ejecutada en un computador con 1000 procesadores tarda 2 horas. ¿Cuál es la eficiencia?. 0.5. 0.3. 0.6. 0.4. En la ejecución de un programa paralelo hay una fracción secuencial que supone el 20% del total. ¿Cuál es el speedup para 8 procesadores?. 5.5. 3.3. 6.6. 4.4. En el estilo de programación de paso de mensajes: Cada proceso tiene acceso sólo a su espacio local formado por cachés. Los procesos no tienen acceso directo al espacio total de memoria del sistema. Todos los procesos ven un único espacio global de memoria. Sólo un proceso maestro tiene acceso a toda la memoria del sistema. ¿Cuál de los siguientes factores NO es una limitación de la computación paralela?. Parte secuencial del programa. Latencia de comunicaciones. Número de procesadores infinito. Desequilibrio de carga. Según la ley de Amdahl, si la fracción secuencial es 0.1, el speedup máximo teórico es: 5. 10. 1/0.1. 3. En la fase de descomposición, el objetivo principal es: Reducir la comunicación. Obtener suficientes tareas sin que sean demasiadas. Evitar operaciones de E/S. Asignar procesos a procesadores. ¿Qué modelo requiere el uso de 'locks' para garantizar la exclusión mutua?. Paso de mensajes. Paralelismo de datos. Memoria compartida. SPMD. En el modelo de paso de mensajes, la comunicación se caracteriza por ser: Implícita. Innecesaria. Explícita mediante send/receive. Exclusivamente síncrona. La eficiencia de un programa paralelo se define como: S(n,p)/p. t(n,p)/p. p / S(n,p). 1/S(n,p). El uso de filas fantasma en el modelo de paso de mensajes sirve para. Reducir la memoria del sistema. Evitar el uso de send/receive. Permitir cálculos que dependen de vecinos. Garantizar la exclusión mutua. El speedup superlineal puede aparecer debido a: La parte secuencial aumenta. Menor latencia de red. Mayor memoria agregada o mejor orden de búsqueda. Más sincronizaciones. En el ejemplo de la malla 2D para simulación oceánica, el paralelismo puede explotarse. Sólo en una dimensión. En cada punto y entre mallas. Solo sobre diagonales. No es paralelizable. |




