option
Cuestiones
ayuda
daypo
buscar.php

aaaaaaaaaaaaaaa

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
aaaaaaaaaaaaaaa

Descripción:
asdf asdf asdfa sdfasd fasdf asdfasdf asd fasdf

Fecha de Creación: 2022/11/30

Categoría: Otros

Número Preguntas: 30

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál es el máximo speedup esperado si el 60% del trabajo es paralelizable?: 5/3. 10/7. 2. 5/2.

El speedup: Tiene como cota superior el número de procesadores. Mide la ganancia en velocidad del programa paralelo con respecto al secuencial. Es la relación entre el tiempo secuencial y el paralelo cuando el número de procesadores tiende a infinito. Se indica en unidades de tiempo por número de procesadores.

La computación paralela, con respecto a la secuencial: Es mucho más sencilla de gestionar. Permite reducir el tiempo de ejecución. Reduce siempre la cantidad de trabajo a realizar. No introduce nuevas sobrecargas temporales.

En el estilo de programación de memoria compartida: Los procesos esclavo no pueden comunicar entre sí. Sólo un proceso maestro tiene acceso a toda la memoria del sistema. Todos los procesos ven un único espacio global de memoria. Cada proceso tiene acceso sólo a su espacio local formado por caches.

La computación paralela tiene su origen:La computación paralela tiene su origen: En las limitaciones en la complejidad del software. En las limitaciones de la capacidad de almacenamiento de los nuevos sistemas. En las limitaciones de rendimiento de los sistemas on-chip. En las limitaciones del ancho de banda off-chip.

La función de isoeficiencia: Permite obtener el tamaño de la entrada para el cual la eficiencia se mantiene constante al aumentar el número de procesadores. Es la función de eficiencia establecida por la ISO. Determina el número de procesadores que permite mantener constante la eficiencia al aumentar el tamaño del problema. Es la relación entre el speedup y la eficiencia.

Con respecto a la granularidad de las tareas de un problema se cumple que: Grano fino implica mucha menos comunicación que grano grueso. Grano grueso implica peor balanceo de la carga que grano fino. Grano fino implica peor balanceo de la carga que grano grueso. Grano grueso implica mucha más comunicación que grano fino.

En el cálculo del speedup: Se debe considerar el tiempo paralelo obtenido con el número de procesadores mayor posible. Se debe considerar como tiempo secuencial el tiempo del programa paralelo usando un procesador. Se debe considerar el tiempo de la mejor versión secuencial que realice lo mismo que el programa paralelo. Se debe considerar el tiempo de la versión secuencial del mismo programa.

El estilo de programación basado en paso de mensajes es el más indicado para: Servidores de bases de datos. Ninguno de los anteriores. Sistemas multiprocesador simétrico (SMP). Clúster de computadores.

¿Qué speedup se podría alcanzar según la ley de Amdahl para un número infinito de procesadores si el 5% del trabajo es secuencial y el resto es paralelizable de una manera ideal?: 20. 5. 50. Infinito.

En el proceso de creación de un programa paralelo: El número de tareas obtenidas debe ser siempre menor que el número de procesadores. La comunicación no depende en absoluto de la arquitectura subyacente. La descomposición de tareas está determinada por el lenguaje de programación utilizado. No es cierto nada de lo anterior.

El estilo de programación basado en variables compartidas es el más indicado para: Ninguno de los anteriores. Sistemas multiprocesador simétrico (SMP). Clúster de GPUs. Clústers de computadores.

La computación paralela: Ofrece a veces un speedup igual o incluso superior al número de procesadores usados. Permite obtener siempre reducciones de tiempo respecto a la computación secuencial. No es conveniente para problemas secuenciales originalmente recursivos. Puede aplicarse con éxito a cualquier tipo de problema.

La comunicación generada por un programa paralelo: Siempre se puede conseguir que no suponga sobrecarga temporal. Debe tener un coste temporal menor que el debido a la computación. No depende del tipo de aplicación. Tiene una dependencia con el tamaño de las tareas.

El rendimiento de un programa paralelo: Puede reducirse significativamente por la sobrecarga de las comunicaciones. Aumenta de manera proporcional al número de procesadores usados. Depende únicamente de la componente no paralelizable del problema. Es insensible a la distribución de la carga entre los procesadores.

El estilo de paralelismo de datos: Crea tantos flujos de instrucciones como elementos de proceso tiene el sistema. Es muy adecuado para arquitecturas SIMD. No resulta adecuado en GPUs. Es el más usado en arquitecturas tipo clúster.

La asignación de tareas a procesos: Depende significativamente del lenguaje de programación. No tiene por objetivo balancear la carga. Debe realizarse siempre antes de la ejecución del programa paralelo. Puede servirse de la localidad que presente el problema.

La descomposición de tareas: Es independiente del lenguaje y la arquitectura subyacente. Es única para cada tipo de problema. Sólo tiene en cuenta los datos que se manejan. Tiene como objetivo obtener el mayor número de tareas posible.

En el estilo de programación de paso de mensajes: Todos los procesos ven un único espacio global de memoria. Sólo un proceso maestro tiene acceso a toda la memoria del sistema. Cada proceso tiene acceso sólo a su espacio local formado por caches. Los procesos no tienen acceso directo al espacio total de memoria del sistema.

Las tareas en las que se divide un trabajo: Son todas del mismo tamaño. Ninguna de las anteriores es correcta. No pueden superar un tercio del tamaño del problema. Deben tener un tamaño determinado.

Dos tercios del trabajo a realizar son paralelizables. ¿Cuántos procesadores son necesarios para obtener un speedup de 2?: 4. Infinitos. 8. 16.

El coste de un programa paralelo: La diferencia entre el tiempo secuencial y él es siempre constante. Es la relación entre speedup y eficiencia multiplicado por el tiempo paralelo. En general es menor que el tiempo secuencial. Representa el trabajo de diseño en horas que le ha supuesto al programador.

La sobrecarga debida a las comunicaciones: No supone un gran problema en el rendimiento. Debe ser totalmente eliminada para mejorar a la versión secuencial. Se puede eliminar replicando trabajo. Puede reducirse solapando comunicación con computación.

El tiempo de ejecución de un programa paralelo: Depende sólo del tamaño de la entrada. Es siempre menor cuanto mayor es el número de procesadores. Es la única medida de rendimiento de interés. Está influenciado por el sistema de interconexión de la máquina.

Respecto a la distribución de procesos entre procesadores: Debe apostar siempre por la migración de procesos. Debe conseguir que cada proceso esté ligado al mismo procesador durante toda la ejecución. Ninguna de las anteriores es cierta. Debe conseguir que todos los procesadores tengan asociado el mismo número de procesos.

Un mal balanceo de la carga: En ningún caso es responsabilidad del programador. Se debe a un exceso de paralelismo implícito. Puede originarse por una mala elección en la granularidad de las tareas. Impide mejorar las prestaciones con respecto a la versión secuencial.

La eficiencia de un programa paralelo: Se aleja de su valor óptimo, el número de procesadores, al aumentar el número de procesadores. Se mueve entre 1 y -1. Se acerca a su valor óptimo al aumentar el número de procesadores. Da idea del nivel de aprovechamiento de los recursos del sistema paralelo.

El valor del speedup: Es siempre menor que el número de procesadores considerado. Tiene una cota máxima de uno. Aumenta al aumentar el tamaño del problema para un tamaño del sistema dado. Se acerca al valor óptimo al aumentar el número de procesadores.

El grafo de dependencia de tareas: Es un grafo cíclico que recoge las dependencias entre tareas. Es un grafo dirigido acíclico formado por las tareas independientes. Es único para cada problema. Es un grafo dirigido que recoge las dependencias entre tareas.

Respecto a las herramientas de programación paralela: Las bibliotecas de funciones de comunicación OpenMP se usan en clústers y SMPs. POSIX-thread y OpenMP fueron creadas para su uso en clústers de GPUs. Los compiladores obtienen los mejores programas paralelos. La implementación de las funciones de MPI suele ser distinta para cada plataforma hardware.

Denunciar Test