Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESETest_Tema_1

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Test_Tema_1

Descripción:
Test_Tema_1

Autor:
AVATAR

Fecha de Creación:
24/06/2019

Categoría:
Informática

Número preguntas: 20
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
En una arquitectura escalable: La escalabilidad solo mide la eficiencia de un sistema a la hora de utilizar un incremento de los recursos no de decrementarlos En escalabilidad incremental el coste de escalado se espera que este comprendido entre N y NlogN, siendo N el numero de recursos incrementados En escalabilidad incremental se espera un aumento de potencia computacional próximo a logN, siendo N el numero de recursos incrementados.
Se define la escalabilidad de heterogeneidad como: La capacidad del sistema para aceptar recursos de nueva o posterior generacion Maximo numero de recursos que acepta el sistema Capacidad del sistema a integrar componentes hardware y software de diferentes fabricantes .
Las tendencias actuales en computacion paralela son usar: Clusters y computacion en grid Clusters y maquinas con arquitecturas paralelas Clusters, computacion en grid y maquinas con arquitecturas paralelas.
Dentro del paralelismo funcional podemos distinguir diferentes niveles: Nivel de instrucciones (ILP), nivel de funciones y nivel de programas Nivel de instrucciones (ILP), nivel de bucle, nivel de funciones y nivel de programas Nivel de instrucciones (ILP) y nivel de datos.
En la taxonomia o clasificacion de Flynn: Cualquier tipo de paralelismo queda reflejado en dicha clasificacion Esta clasificacion no recoge adecuadamente el paralelismo a nivel de bucle Esta clasificacion no recoge adeacuadamente el paralelismo a nivel de instruccion (ILP).
Si suponemos tiempos de ejecución iguales para todas las operaciones que aparecen en el siguiente código y que utilizamos un procesador matricial (SIMD) para su ejecución, ¿cuántos intervalos de tiempo serán necesarios para ejecutarlo? for all UPi (i := 1 to 4) do begin C[i]:=A[i]+B[i]; F[i]:=D[i] - E[i]; G[i]:=K[i]*H[i]; end 4 intervalos de tiempo 12 intervalos de tiempo 3 intervalos de tiempo.
En un multiprocesador: Todos los procesadores comparten el mismo espacio de direcciones. Cada procesador tiene su propio espacio de direcciones. El programador necesita conocer donde están almacenados los datos.
En arquitecturas paralelas: En sistemas multiprocesadores en general, la latencia esperada es menor debido a la localidad de la memoria principal y porque no hay que distribuir código y datos. En sistemas multiprocesadores en general, la latencia esperada es menor debido a que la comunicación se realiza mediante paso de mensajes. En sistemas multiprocesadores en general, la latencia esperada es mayor debido a que la comunicación se realiza mediante variables compartidas.
La ley de Amdahl establece: La ganancia en prestaciones del sistema tiene un límite que viene determinado solamente por la parte no paralelizable del problema. Si mantenemos constante el tiempo de ejecución en paralelo Tp (y despreciamos el tiempo de overhead), el tamaño del problema puede aumentar indefinidamente si aumentamos el número de procesadores de forma adecuada. Si suponemos las condiciones para que la ganancia en prestaciones sea lineal la velocidad de resolución del problema aumenta conforme aumentamos el número de procesadores.
En computadores paralelos: Se utilizan los benchmarks para medir las prestaciones de un sistema. La escalabilidad y el consumo de potencia son dos medidas fundamentales cuando medimos las prestaciones de un sistema. La escalabilidad evalúa si las prestaciones ofrecidas por un sistema se acercan a las que idealmente debiera ofrecer debido a sus recursos.
La ley de Gustafson establece: La ganancia en prestaciones del sistema tiene un límite que viene determinado solamente por la parte no paralelizable del problema. Si mantenemos constante el tiempo de ejecución en paralelo Tp (y despreciamos el tiempo de overhead), el tamaño del problema puede aumentar si aumentamos el número de procesadores de forma adecuada Si suponemos las condiciones para que la ganancia en prestaciones sea lineal la velocidad de resolución del problema aumenta conforme aumentamos el número de procesadores.
Un programa tarda 40 seg. en ejecutarse. El 70% de su código es perfectamente paralelizable. Si se utilizan 10 procesadores para su ejecución, ¿cuál será la eficiencia del programa? 2,7 0,27 0,14.
La taxonomía o clasificación de Flynn: Permite hacer una clasificación de los computadores en función de los flujos de instrucciones que procesa y los flujos de datos sobre los que actúan dichas secuencias de instrucciones. No recoge adecuadamente el paralelismo a nivel de funciones. Divide a los computadores en tres clases, SISD (Single Instruction, Single Data), SIMD (Single Instruction, Multiple Data) y MIMD (Multiple Instruction, Multiple Data).
En un sistema paralelo se pretende conseguir una ganancia en prestaciones S(8)=4,8. Si se utilizan 8 computadores para su ejecución, ¿cuál debe ser el porcentaje de código paralelizable? 99,9% 88,7% 90,5%.
Se define la escalabilidad temporal como: La capacidad del sistema para aceptar recursos de nueva o posterior generación. Máximo número de recursos que acepta el sistema. Capacidad del sistema a integrar componentes hardware y software de diferentes fabricantes.
Si suponemos tiempos de ejecucion iguales para todas las operaciones que aparecen en el siguiente codigo y que utilizamos un procesador matricial (MIMD) con 4 procesadores para su ejecucion ¿Cuantos intervalos de tiempo seran necesarios para ejecutarlo? for i := 1 to 4 do begin C[i]:=A[i]+B[i]; F[i]:=D[i]-E[i]; G[i]:=K[i]*H[i]; end 4 intervalos de tiempo 12 intervalos de tiempo 3 intervalos de tiempo.
La taxonomía o clasificación de Flynn: Permite hacer una clasificación de los computadores en función de los flujos de instrucciones que procesa y los flujos de datos sobre los que actúan dichas secuencias de instrucciones. No recoge adecuadamente el paralelismo a nivel de funciones. Divide a los computadores en cuatro clases, SISD (Single Instruction, Single Data), SIMD (Single Instruction, Multiple Data), MIMD (Multiple Instruction, Multiple Data) y MISD (Multiple Instruction, Single Data).
Si suponemos tiempos de ejecución iguales para todas las operaciones que aparecen en el siguiente código y que utilizamos un procesador matricial (MIMD) con 3 procesadores para su ejecución, ¿cuántos intervalos de tiempo serán necesarios para ejecutarlo? for i := 1 to 4 do begin C[i]:=A[i]+B[i]; F[i]:=D[i]-E[i]; G[i]:=K[i]*H[i]; end 4 intervalos de tiempo 12 intervalos de tiempo 3 intervalos de tiempo.
Se desea mejorar el rendimiento de un computador introduciendo un coprocesador matemático que realice las operaciones en la mitad de tiempo. Calcular la ganancia en velocidad del sistema para la ejecución de un programa si el 70% del mismo se dedica a operaciones aritméticas. Si el programa tarda 10 segundos en ejecutarse sin la mejora, ¿cuánto tardará con la mejora? 8,5 segundos 4 segundos 6,5 segundos.
La siguiente figura representa el modo de programación paralelo: SPMD MPMD Sistema híbrido SPMD-MPMD.
Denunciar test Consentimiento Condiciones de uso