Tema 5 AC UJA
|
|
Título del Test:
![]() Tema 5 AC UJA Descripción: Test épico |



| Comentarios |
|---|
NO HAY REGISTROS |
|
La categoría SIMD (Single Instruction Multiple Data) implica que se capta una instrucción y se aplica sobre un dato escalar, utilizando múltiples unidades de control. V. F. Los procesadores superescalares se ajustan a la arquitectura Von Neumann y se clasifican dentro de la categoría SISD (Single Instruction Single Data). V. F. El Paralelismo de Datos evita los riesgos de control origen del conocido como cuello de botella de Flynn al operar sobre múltiples datos con una sola instrucción, sin requerir bucles. V. F. La mayoría de cálculos científicos y matemáticos operan sobre matrices y vectores de datos de idéntico tamaño, haciendo que las arquitecturas SIMD resulten de gran interés para estas tareas. V. F. En el enfoque de procesadores vectoriales "Memoria-Memoria", como el usado por el CDC STAR-100, los operandos origen y destino residen en memoria principal y su rendimiento es superior al de los que usan registros vectoriales. V. F. Una característica fundamental de los procesadores vectoriales es que cuentan con unidades funcionales altamente segmentadas (segmentación profunda o deep pipelining), lo que permite operar en paralelo sobre múltiples elementos de un vector. V. F. En un procesador vectorial, el parámetro VLEN/ELEN indica la longitud total en bits del registro vectorial, mientras que VLEN indica el número de elementos que es posible almacenar en dicho registro. V. F. El encadenamiento de operaciones (chaining) en procesadores vectoriales permite realizar múltiples operaciones consecutivas sobre los registros, reduciendo el número de esperas y mejorando el rendimiento. V. F. Las extensiones SIMD (como MMX o AVX) permiten operar sobre vectores de longitud fija, ya que carecen de registros de control para establecer la longitud arbitraria del vector. V. F. En la arquitectura SIMD, las cargas y almacenamientos de datos pueden realizarse paso a paso en cada ciclo de reloj gracias a la segmentación profunda, de manera similar a los procesadores vectoriales. V. F. La última versión de las extensiones SIMD de Intel, AVX-512, duplica el número de registros y su tamaño respecto a AVX, teniendo 32 registros ZMMn de 512 bits. V. F. Las GPU cuentan con decenas de Unidades de Cómputo (SM en NVidia) que operan en paralelo y de forma sincronizada, ejecutando una instrucción sobre múltiples hilos de ejecución (SIMT). V. F. El cuello de botella actual es la transferencia de datos entre la RAM y las unidades funcionales. La computación en memoria busca integrar estas unidades en los propios circuitos de memoria para evitar esta transferencia. V. F. |




