tema 8
![]() |
![]() |
![]() |
Título del Test:![]() tema 8 Descripción: tema 8 arquitectura |




Comentarios |
---|
NO HAY REGISTROS |
¿Qué tipos de servicios ofrece la computación en la nube (CLOUD)?. Ninguna es correcta. Servicios de infraestructura, de plataforma y de software. Servicios de infraestructura, búsqueda y almacenamiento. Servicios de infraestructura, programación y búsqueda. Cloud computing es: Una colección de computadoras completas interconectadas mediante una red de altas prestaciones. Una colección de recursos autónomos distribuidos geográficamente permitiendo su compartición, selección y agregación dependiendo de su disponibilidad, capacidad, coste y requerimientos de QoS de los usuarios. Un buscador que atiende más de 5,000 millones de búsquedas cada mes. Ninguna es correcta. Cloud es: Una colección de computadoras completas físicamente interconectados mediante una red de altas prestaciones o LAN. Una computación basada en internet en la que se proporcionan como servicios recursos virtualizados escalados. Ninguna de las anteriores. Una infraestructuras de dedicada para actividades de diseminación y entrenamiento. En las GPU no hay penalización por los cambios de contexto porque: Todos los núcleos ejecutan una misma instrucciones simultáneamente pero con distintos datos. Todas las anteriores son ciertas. La ejecución se alterna entre warps activos y warps temporalmente inactivos. Cada hilo tiene sus propios registros. En los multicomputadores siempre: Se usa memoria compartida. Existe un único espacio de dirección lógico. Se programa haciendo uso de las extensiones SSEE. Ninguna es correcta. En un multiprocesador siempre: No existe un único espacio de direcciones. Ninguna es correcta. Se emplea virtualización para mejorar el rendimiento energético. Cada nodo ejecuta su propio SO. En un sistema SMP siempre: El tiempo de acceso a memoria es variable. Se emplea un bus propietario para conectar sus nodos. Ninguna es correcta. Cada nodo ejecuta una copia independiente del sistema operativo. La técnica multi-threading: Ninguna de las anteriores. Reduce el tiempo de ejecución de las instrucciones. Usa múltiples streams de instrucciones e incrementa el throughput del computador. Reordena y optimiza un stream de instrucciones en tiempo de compilación. Los multicomputadores: Tienen varios espacios lógicos de direcciones. Todas son correctas. No necesitan técnicas de coherencia. Son sistemas de memoria distribuida. Los multicomputadores: Hacen uso de técnicas de coherencia. Ninguna es correcta. Tienen un único espacio de direcciones lógico. Son sistemas de memoria distribuida. MPI: Ninguna de las anteriores. Indica al compilador la región del programa a paralelizar mediante directivas de compilación. Habilita servicios optimizados para calculo con valores en coma flotante, predominantes en los gráficos 3D. Proporciona las herramientas para comunicar procesos situados en diferentes procesadores. Según la taxonomía de Flynn las GPUs son máquinas: SISD. SIMD. MISD. MIMD. Según la taxonomía de Flyn los multiprocesadores son sistemas: SISD. SIMD. MIMD. MISD. Según la taxonomía de Flynn ,un procesador monociclo es: MIMD. SISD. MISD. SIMD. Según la taxonomía de Flynn una infraestructura Cloud (IaaS) es: MIMD. SIMD. MISD. SISD. Un cluster es: Ninguna de las anteriores. Una colección de computadoras completas físicamente interconectadas mediante una red de altas prestaciones o LAN que trabajan juntos colectivamente https://www.daypo.com/images/down.pngcomo un recurso de computación integrado. Un procesador con varios núcleos que pueden ejecutar instrucciones de forma simultanea. Una colección de recursos autónomos distribuidos geográficamente permitiendo su compartición, selección y agregación dependiendo de su disponibilidad, capacidad, coste y requerimientos de QoS de los usuarios. Un computador vectorial: Ninguna de las anteriores. Explota el paralelismo a nivel de datos. Explota el paralelismo a nivel de instrucciones. Explota el paralelismo a nivel de threads. Un computador vectorial. Todas son ciertas. Necesita menor ancho de banda de instrucciones para el mismo trabajo. Proporcionan gran paralelismo con un control relativamente sencillo. Optimizan el uso de la memoria con accesos predecibles que se pueden solapar. Un sistema NUMA: Ninguna es correcta. Usa memoria compartida. Tiene una latencia de acceso a memoria variable. Usa internet para conectar sus procesadores. Un sistema SMP (que es UMA): Usa memoria compartida. Ninguna es correcta. Usa internet para conectar sus procesadores. Tiene una latencia de acceso a memoria variable. Las arquitecturas actuales multicore son máquinas de: Memoria cache distribuida. Memoria compartida de acceso a memoria uniforme. Memoria compartida de acceso a memoria no uniforme. Memoria distribuida. Los multicores actuales en general tienen arquitectura: De acceso no uniforme a memoria. Con todos los niveles de cache compartidos. De acceso uniforme a memoria. Ninguna de las anteriores. EL multithreading está pensando para: Todas son ciertas. Mejorar la utilización de un único procesador. Mejorar el tiempo de ejecución de un programa. Optimizar los acceso a los bloques de memoria. Los procesadores que procesan a nivel de matriz, en vez de escalar o vectorialmente son: Ninguna de las anteriores. CPU. GPU. TPU. Los procesadores que procesan a nivel de matriz, en vez de escalar o vectorialmente son: Ninguna de las anteriores. CPU. GPU. DPU. En un procesador multi-threading se replican: El puntero de pila. El contador de programa. Todas son ciertas. El banco de registros. La librería de Comunicaciones MPI utiliza instrucciones: Send, Receive para comunicarse entre procesadores. Load,Store para counicarse a través de memoria. Load,Store para comunicarse entre procesadores. Send,Receive para counicarse a través de memoria. El proyecto SETI (Search for ExtraTerrestrial Intelligence) es un ejemplo de: GRID computing. Cloud computing. Cluster computing. MPP computing. El MPI es: Un lenguaje de programación paralelo. Un estándar de comunicaciones paralelas. Una especificación de una librería de paso de mensajes. Todas son falsas. MPI: Ninguna de las anteriores. Indica el compilador la región del programa a paralelizar mediante directivas de compilación. Habilita servicios optimizados para cálculo con valores en coma flotante, predominantes en los gráficos 3D. Proporciona las herramientas para comunicar procesos situados en diferentes procesadores. En una arquitectura CC-NUMA: Cada procesador tiene una visión local de su espacio de memoria. Todas son falsas. No existe coherencia de cache. El tiempo de acceso a memoria puede variar. En los SMP: Todo el tráfico debido a los fallos en la cache atraviesa la red. La latencia de acceso a memoria es alta. Una sola copia del sistema operativo se ejecuta en el sistema. Todas son ciertas. ¿Cuál de las siguientes afirmaciones es falsa?: El modelo de programación en la GPGPU es SIMT (Single Instrution Multiple Thread). El hardware de la GPU maneja los threads. El modelo de ejecución en la GPGPU es homogéneo. Todas son ciertas. El modelo hardware de CUDA está basado en: La capacidad de procesamiento de las DPUs. La capacidad de procesamiento de las TPUs. La capacidad de procesamiento de las GPUs. Todas ellas son ciertas. La relación rendimiento/consumo es mejor en: FPGAs. TPUs. GPUs. Superescalares. En las GPU NVIDIA GTX480 hay 512 núcleos. ¿Cuál de las siguientes afirmaciones es cierta?: El programador puede decidir libremente cuantos núcleos dedica a cada tarea. Hay una estructura en unidades de núcleos y en cada unidad se debe ejecutar la misma instrucción en el mismo instante temporal. Todos los núcleos deben ejecutar la misma instrucción en el mismo instante temporal. Todas son falsas. Analiza las siguientes afirmaciones y di cuál es cierta: Las GPUs tienen más registros que un procesador convencional. Las GPUs tiene cache multinivel a diferencia de un procesador convencional. Todas son ciertas. Las GPUs tienen menos ancho de banda a memoria principal que un procesador convencional. Un thread se ejecuta hasta que algún evento genere un retraso en los procesadores multi-threading de: Grano fino. Grano grueso. Simultáneos. Chip multiprocessing. Cuando en CLOUD se dice que tienes servicios relacionados a Saas quiere decir que el proveedor te da servicios a nivel de: Sistemas operativo. Instancia virtualizada. Aplicación. Framework. Cuál los siguientes niveles no participa en las políticas de scheduling de las máquinas multithread: Todas son ciertas. Controladas por el compilador. Controladas por el hardware. Controladas por el sistema operativo. Cuando en procesadores multithread decimos que cada thread requiere su propio estado quiere decir que: Requiere su propio estado de usuario: instrucciones, datos, PC, GPR, puntero pila... y su propio estado del sistema: virtual-memory page-table-base register, Exception-handling registers. Requiere su propio estado de usuario: instrucciones, datos, PC, GPR, puntero pila... pero no su propio estado del sistema: virtual-memory page-table-base register, Exception-handling registers. No requiere su propio estado de usuario: instrucciones, datos, PC, GPR, puntero pila... pero si su propio estado del sistema: virtual-memory page-table-base register, Exception-handling registers. Ninguna es cierta. ¿Cuál de las siguientes afirmaciones es cierta: Todas son falsas. En las GPUs no hay penalización por cambio de contexto. Las extensiones MMX de los procesadores Intel son extensiones MISD. Una arquitectura SIMD es menos eficiente energéticamente que una MIMD. Cuál de los siguientes procesadores no es una máquina SIMD: Todos los son. GPU. Procesador de comunicaciones. Vectorial. En una TPU los resultados de cada unidad aritmético lógica se envían a: Su memoria cache. La siguiente Unidad Aritmético Lógica. Su banco de registros. La Memoria Principal compartida. ¿Qué es CUDA?: Un tipo especifico de GPU. Una arquitectura de tensorflow. Ninguna de las anteriores es cierta. Un lenguaje C con mínimas extensions. Un paradigma en que la información está permanentemente almacenada en internet y sólo temporalmente se encuentra en memoria de clientes como desktops, centros de computación, tablets...¿qué tipo de computación puede ser?. En GRID. En CLUSTER. En CLOUD. Cualquiera de las tres. Los procesadores que procesan a nivel de vectorial, en vez de escalar o matricialmente son: Ninguna de las anteriores. CPU. GPU. TPU. La GPGPU tiene: Un modelo de ejecución homogéneo. Los thread son manejados por el Sistema Operativo. Todas son falsas. El modelo de programación es SIMT (Single Instruction Multiple Thread). Cuál de las siguientes afirmaciones es falsa: Cada thread rquiere su propio estado del sistema. Todas son ciertas. Cada thread requiere su propio estado de usuario. Cada thread requiere su propia memoria cache de primer nivel. La computación sobre Tensor Processor es apropiada para: Todas son ciertas. Deep Learning. Reconocimiento del habla. computación matricial. Cuál de las siguientes no es una máquina MIMD: Cuál de las siguientes no es una máquina MIMD: Procesador Multicore. Multicomputadores. Todas son MIMD. Multiprocesadores de memoria compartida. Un conjunto de computadores, de diversos propietarios en múltiples ubicaciones y que el usuario puede hacer uso de los mismos es computación en: Cluster. CLOUD. GRID. Ninguno de los propuestos. Los servicios GRID incluyen: Asignación y gestión de recursos. Descubrimiento y monitorización de recursos. Infraestructura de seguridad transferencia de ficheros. Todas son ciertas. GRID es: Una colección de recursos autónomos distribuidos geográficamente permitiendo su compartición, selección y agregación dependiendo de su disponibilidad, capacidad, coste y requerimientos de QoS de los usuarios. Una colección de computadoras completas que están físicamente interconectados mediante una red de altas prestaciones. Una infraestructura segura que permite el intercambio de ficheros. Ninguna es correcta. El GRID es: Sistema paralelo y distribuido que permite la compartición, selección y agregación de los recursos “autónomos”. Una colección de computadoras completas que están físicamente interconectados mediante una red de altas prestaciones. Un sistema de Computación basada en Internet en la que se proporcionan como servicio recursos virtualizados escalados. Un modelo de computación paralela. Se lanzan (issues) simultáneamente varias instrucciones de distintos threads para ser ejecutados en las unidades de un procesador superescalar en los procesadores multi-threading: Simultáneos. De grano fino. Chip multiprocessing. De grano grueso. La principal desventaja de los computadores vectoriales es: Un control complejo. El ancho de banda necesario para las instrucciones. Los acceso a memoria son más impredecibles. Todas son falsas. Skype o Gmail son ejemplos de: Cloud PaaS. Cloud SaaS. Cloud JaaS. Cloud IaaS. En un cluster actual con CPUs y GPUs puede haber paralelismo a nivel de: Todas son falsas. ILP,TLP,DLP y CPUs. Sólo CPUs. TLP,DLP,CPUs pero no hay ILP. Las arquitecturas SIMD: Son apropiadas para la computación científica matricial. Todas son correctas. Son más eficientes enérgicamente que las MIMD. Permiten al programador seguir pensando secuencialmente. ¿Cuál de las siguientes afirmaciones es cierta?. En las GPUs no hay penalización por cambio de contexto. Una arquitectura SIMD es menos eficiente energéticamente que una MIMD. Las extensiones MMX de los procesadores Intel son extensiones MISD. Todas son falsas. |