option
Cuestiones
ayuda
daypo
buscar.php

Segundo parcial de Algoritmos concurrentes y paralelos

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Segundo parcial de Algoritmos concurrentes y paralelos

Descripción:
2° parcial US21

Fecha de Creación: 2026/04/22

Categoría: Otros

Número Preguntas: 209

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué es la computación paralela ?. Es el uso simultaneo de múltiples recursos computacionales para resolver un problema computacional. Es el sistema de almacenamiento distribuido que replica datos en varios servidores para evitar la pérdida de información. Es la ejecución secuencial de diversos algoritmos complejos para optimizar un único núcleo de procesamiento.

¿Qué es la computadora de Von Neumann ?. Es una computadora teórica que procesa de forma serial. Es una arquitectura de red que permite el procesamiento de datos en paralelo. Es un sistema operativo moderno que gestiona la memoria de forma dinámica.

El procesamiento paralelo, tecnológicamente hablando, se impulsa debido a que la reducción de los transistores en los circuitos integrados se dificulta porque: Al aumentar la integración y la velocidad, se disipa más calor y se vuelve poco confiable el circuito. Al disminuir el tamaño físico, el flujo de electrones se detiene por completo y se pierde la capacidad de conducir electricidad. Al reducirse la superficie del chip, el costo de los materiales semiconductores se eleva demasiado para la producción masiva.

La ley de Moore es: La observación empírica que plantea que cada dos años se duplica la densidad de transistores en un microprocesador. La norma técnica que establece que cada cinco años se reduce a la mitad el consumo energético de los circuitos integrados. El principio teórico que dicta que la velocidad de procesamiento de un chip aumenta de forma lineal según su tamaño físico.

Si hablamos de que necesitamos el uso de cerrojos en los datos para impedir que se modifiquen simultáneamente por dos procesadores, estamos hablando de: Memoria Compartida. Memoria Distribuida. Memoria Virtual.

¿Cuál de los siguientes es un claro ·ámbito de la programación paralela ?. Análisis de Big Data. Diseño de interfaces UX. Gestión de redes locales.

El multicomputador: Comprende varios nodos de Von Neumann conectados por una red de interconexión. Constituye una sola unidad de control que gestiona múltiples flujos de datos de manera centralizada. Representa un conjunto de procesadores que acceden a un único espacio de direccionamiento global.

Cuando hablamos de poder realizar cálculos completamente diferentes en cualquiera de los conjuntos de datos o diferentes conjuntos de datos, estamos hablando de: Paralelismo a nivel de tareas. Paralelismo a nivel de datos. Paralelismo a nivel de hilos.

Cuando hablamos del aumento del tamaño de la palabra (direccionamiento) del procesador, estamos hablando de: Paralelismo a nivel de bits. Paralelismo a nivel de control. Paralelismo a nivel de memoria.

Cuando hablamos de ILP, nos referimos a: Paralelismo a nivel de instrucción. Protocolo de enlace interprocesador. Procesamiento de lógica integrada.

Un procesador segmentado es: Un tipo de procesador que usa pipelines de instrucciones de varias etapas. Un modelo de CPU que divide la memoria caché en sectores independientes de acceso rápido. Un diseño de arquitectura que fragmenta el bus de datos para evitar cuellos de botella.

¿Cuál de los siguientes procesadores se caracteriza por separar la ejecución de cada instrucción en varias etapas para poder procesar una instrucción diferente en cada una de ellas?. Un procesador segmentado. Un procesador superescalar. Un procesador de flujo de datos.

¿Cuál es la limitante de los procesadores superescalares?. Las instrucciones pueden agruparse solo si no hay dependencia de datos entre ellas. Las instrucciones deben ejecutarse estrictamente en el orden en que fueron escritas por el programador. Los registros del procesador deben ser duplicados físicamente para cada una de las etapas del pipeline.

El Multithreading de grano fino…. Asigna un número fijo de ciclos a un thread detrás de otro con una política Round Robin. Ejecuta un thread de forma continua hasta que este encuentra un evento de alta latencia o un fallo de caché. Distribuye dinámicamente la carga de trabajo basándose en la prioridad de ejecución definida por el sistema operativo.

El poder ejecutar en más de un ciclo consecutivo, haciendo que se reduzca la necesidad de múltiples bancos de registros, es una característica de: Multithreading de grano grueso. Multithreading simultáneo. Multithreading de bloque.

La reducción del "horizontalwaste" es una característica de: Simultáneos Multithreading. Speculative Multithreading. Vertical Multithreading.

¿A qué nos referimos cuando hablamos de SIMD?. Paralelismo a nivel de datos. Paralelismo a nivel de registros. Paralelismo a nivel de control.

¿Qué paradigma aplica el mismo conjunto de instrucciones a distintos grupos de datos?. Paralelismo a nivel de datos. Paralelismo a nivel de instrucciones. Paralelismo a nivel de algoritmos.

Cuando hablamos de DLP, nos referimos a: Paralelismo a nivel de datos. Procesamiento de lógica distribuida. Protección de pérdida de datos.

Los procesadores vectoriales están categorizados en la taxonomía de Flynn como…. SIMD. MIMD. SISD.

Dado un Grafo de tareas, decimos que Span es: El tiempo mínimo necesario para poder acabar todas las tareas ejecutándose con un número infinito de procesadores. El tiempo promedio requerido para completar el conjunto de tareas utilizando una arquitectura de memoria distribuida. La cantidad máxima de procesadores necesarios para finalizar la ejecución de todas las tareas en el menor tiempo posible.

El tiempo de la ejecución secuencial de todos los nodos del grafo esta dado por: T1. Tp. T∞.

Seleccione la sentencia correcta sobre paralelismo. El paralelismo en un programa es independiente del número de procesadores de los que se dispone. El paralelismo de un algoritmo aumenta de forma proporcional y lineal al número de procesadores utilizados. El paralelismo efectivo de una aplicación está limitado estrictamente por el ancho de banda del bus de datos.

¿Cuál es la métrica que nos indica un límite inferior al del número de procesadores…paralelismo potencial?. Holgura. Latencia. Amplitud.

¿Qué determina el paralelismo potencial que se podría explotar en la estrategia de paralelización?. El grano de paralelización. El modelo de interconexión. El ancho de banda del bus.

¿Cómo definimos a SP?. La relativa reducción de tiempo de ejecución al procesar un tamaño fijo de datos cuando usamos P procesadores, con respecto al tiempo de ejecución del programa secuencial. La relación directa entre el consumo energético y el rendimiento obtenido al procesar un conjunto de datos variable utilizando una cantidad determinada de núcleos. El incremento absoluto de la capacidad de procesamiento al dividir una tarea compleja en múltiples hilos de ejecución dentro de un mismo entorno compartido.

¿Cuál es la medida de la fracción de tiempo en la que cada procesador es usado para resolver el problema en cuestión de forma útil?. La eficiencia. La escalabilidad. La ocupación.

El speedup esta dado por: SP = T1 / TP. SP = TP / T1. SP = T1 * TP.

¿Qué planteó Gene Amdahl en la década de 1960?. El cálculo de la aceleración potencial de un algoritmo en una plataforma de cómputo en paralelo. La definición de los principios básicos para la interconexión de redes de computadoras de alto rendimiento. El modelo de jerarquía de memoria para optimizar el acceso a datos en sistemas de procesamiento centralizado.

La Ley de Amdahl dice que: La fracción de tiempo invertida en la parte secuencial va a limitar la mejora de rendimiento que vamos a obtener de la paralelización. La capacidad máxima de procesamiento de un sistema está definida exclusivamente por el número total de núcleos físicos disponibles en el hardware. El rendimiento de un algoritmo paralelo mejora de manera indefinida siempre que se incremente el tamaño de los datos de entrada al sistema.

Cuando analizamos la intersección de variables cuyo valor es accedido durante la ejecución con el conjunto de variables cuyo valor cambia durante la ejecución, ¿Qué estamos analizando?. Las condiciones de Bernstein. Las regiones de exclusión. Las barreras de consistencia.

John L. Gustafson enunció por primera vez la ley que lleva su nombre en 1988. Esta ley plantea: Que cualquier problema suficientemente grande puede ser eficientemente paralelizado. Que la velocidad de un procesador se duplica cada dieciocho meses independientemente de la carga de trabajo. Que el costo de comunicación entre nodos crece de forma exponencial según la complejidad del algoritmo aplicado.

Las condiciones de Bernstein son: Las que nos determinan si dos procesos se pueden ejecutar de forma paralela. Las que establecen el orden jerárquico de prioridad para la asignación de recursos en un sistema operativo. Las que definen el límite máximo de memoria que puede direccionar un hilo de ejecución en un entorno compartido.

El concepto de StrongScalability se relaciona a una medida que: Mantiene el tamaño fijo del problema a tratar para cualquier número de procesadores. Incrementa el tamaño del problema de forma proporcional al aumento del número de procesadores disponibles. Reduce el tiempo de comunicación entre nodos al optimizar el ancho de banda para una carga de trabajo variable.

El concepto de WeakScalability se relaciona a una medida que: Mantiene fijo el tamaño que le toca a cada procesador. Reduce la carga de trabajo individual a medida que se incorporan nuevos nodos de procesamiento. Establece un tiempo de ejecución constante sin importar la cantidad de datos que se procesen.

La escalabilidad permite medir cómo se comporta un programa paralelo cuando…. Se aumenta el tamaño del problema relacionado con el número de procesadores o se aumenta el número de procesadores, independientemente del problema. Se optimiza el uso de la memoria caché mediante la reducción de fallos de página o se mejora la velocidad del bus de interconexión para evitar cuellos de botella. Se disminuye el número de instrucciones por ciclo de reloj en cada núcleo o se reduce la frecuencia de sincronización entre los hilos que acceden a datos.

Un valor grande de N1/2 (N sub Ìndice un medio) indica: Que el problema es difícil de paralelizar con la estrategia usada. Que el algoritmo alcanza su máxima eficiencia con un tamaño de datos relativamente pequeño. Que la latencia de la red de interconexión es despreciable para el volumen de cómputo actual.

¿Cuál es la arquitectura en donde las computadoras tienen varios procesadores que funcionan de forma asíncrona e independiente, pudiendo los procesadores estar ejecutando diferentes instrucciones en diferentes datos en cualquier momento dado?. MIMD (Multiple instruction, multiple data). MISD (Multiple instruction, single data). SIMD (Single instruction, multiple data).

¿Cuál es la arquitectura en la que los procesadores de una computadora ejecutan más tareas a la vez que el número de procesadores que tiene?. SIMT (Single instruction, multiple thread). VLIW (Very long instruction word). SPMD (Single program, multiple data).

¿Cuál es la arquitectura que se propuso en 1983 por Michel Auguin y Francois Larbey en la computadora paralela OPSILA y luego en 1984 por Frederic Darema en IBM para máquinas altamente paralelas como el RP3?. SPMD (Single program multiple data). MPMD (Multiple program, multiple data). ASMP (Asymmetric multiprocessing).

¿Cuál es la arquitectura que se usó en 1966 en el ILLIAC IV que luego fue la base…vectoriales de principios de la década de 1970 como el CDC Star-100 y el Texas Instrument…vector de datos con una sola instrucción?. SIMD (Single instruction, multiple data). SISD (Single instruction, single data). MISD (Multiple instruction, single data).

¿Cómo se llama la clasificación de arquitecturas de computadora que se basa en el número de flujos de instrucciones (o control) concurrentes y en el flujo de datos usados para procesar la información?. Taxonomia de Flynn. Jerarquía de Von Neumann. Clasificación de Stallings.

¿Cuál es la categoría en la que cada unidad de procesamiento tiene instrucciones y flujos de datos diferentes capaces de cualquier tipo de aplicación?. Multiple instruction streams, multiple data streams. Single instruction streams, multiple data streams. Multiple instruction streams, single data streams.

¿Cuál es la categoría poco usada, debido a que no es útil en la mayoría de las aplicaciones? Un ejemplo de estrategia serían las computadoras de control de vuelo del transbordador espacial y las usadas en la navegación aérea, donde es necesario contar con sistemas redundantes de respaldo. Multiple instruction streams, single data stream. (MISD). Single instruction streams, single data stream. (SISD). Multiple instruction streams, multiple data streams. (MIMD).

La categoría de computadoras adecuadas para la computación científica, en donde cada unidad de procesamiento puede procesar un conjunto de datos, es: Single instruction stream, multiple data streams. (SIMD). Multiple instruction streams, single data stream. (MISD). Single instruction stream, single data stream. (SISD).

Una maquina con un solo procesador que es capaz de ejecutar una sola instrucción, operando en un solo flujo de datos en cada ciclo de reloj, es: Una single instruction stream, single data stream. (SISD). Una multiple instruction stream, single data stream. (MISD). Una single instruction stream, multiple data streams. (SIMD).

¿Cómo se llama a la arquitectura de sistemas distribuidos que intenta que siempre esté disponible?. High Availability Computing Cluster. Distributed Load Balancing Cluster. Fault Tolerant Storage System.

¿Cómo se llama la arquitectura distribuida en la que cada nodo resulta en la agregación de potencia de cálculo para resolver problemas complejos en ciencia, ingeniería o gestión?. High Performance Computing. High Availability Computing. Distributed Cloud Computing.

¿Cuál es la tecnología que permite utilizar de forma coordinada recursos heterogéneos que no están sujetos a un control centralizado?. Grid Computing. Cloud Computing. Cluster Computing.

La descomposición de dominio se refiere a: Paralelizar el flujo de datos de entrada. Paralelizar el flujo de control del programa. Paralelizar la jerarquía de memoria compartida.

La descomposición de especulativa se refiere a: Evaluar varias y continuar con la primera opción correcta. Analizar todas las rutas posibles y ejecutar únicamente la que consume menos recursos. Dividir el problema en subtareas fijas y esperar a que todas finalicen antes de continuar.

La descomposición funcional se refiere a: Dividir el problema en distintas fases (diferentes sub-cálculos), y estos a su vez pueden ser manejados con diferentes estrategias. Fragmentar el conjunto de datos de entrada en bloques uniformes para que cada uno sea procesado por el mismo algoritmo de forma aislada. Asignar dinámicamente las tareas a los procesadores disponibles basándose exclusivamente en la prioridad de ejecución y el orden de llegada.

La descomposición geométrica se refiere a: Dividir en pequeños subdominios y asignar a cada procesador el subdominio que le corresponde. Agrupar las tareas según su complejidad computacional y distribuirlas en una red de topología jerárquica. Organizar las funciones del programa en capas lógicas para que cada procesador ejecute una fase distinta del flujo.

La descomposición iterativa se refiera a: Dividir un bucle y procesar todo de forma independiente. Fragmentar una estructura de control en bloques secuenciales y ejecutar cada paso de forma ordenada. Replicar la lógica del algoritmo en cada nodo y sincronizar los estados globales al finalizar cada ciclo.

La descomposición Maestro/Esclavo se refiere a: Que el sistema posee un proceso principal que es el responsable de descomponer el problema entre sus procesos dependientes. Que el sistema distribuye la carga de trabajo de forma equitativa entre todos los nodos sin necesidad de una entidad de control. Que el sistema utiliza una estructura jerárquica donde cada nodo decide de forma autónoma qué parte del problema va a resolver.

La descomposición recursiva se refiere a: Partir el problema en subproblemas pequeños independientes y luego combinarlos en un resultado final. Repetir una misma operación lógica sobre un flujo de datos continuo hasta alcanzar un estado de convergencia definido. Ejecutar una secuencia de instrucciones de forma cíclica en un único procesador hasta que se agoten los recursos asignados.

¿Cuál es la capa del modelo OSI encargada de la transferencia libre de errores de los datos entre emisor y receptor?. Capa de transporte. Capa de enlace de datos. Capa de presentación.

¿Cuál es la capa del modelo OSI que proporciona los mecanismos para controlar el dialogo entre las aplicaciones de los sistemas?. Capa de sesión. Capa de aplicación. Capa de red.

El paso de mensajes es: Una técnica para ejecutar un programa en una computadora determinada. Un protocolo para sincronizar el reloj físico de diferentes procesadores. Un método para optimizar la compilación de código en lenguajes de alto nivel.

Un server Web (Como Apache o ISS), ¿a qué arquitectura…. Client / Server. Peer-to-Peer (P2P). Master / Slave.

¿Cómo se llama la arquitectura de sistemas distribuidos en las que el hardware y software no solo están vinculados entre sí, sino que también dependen entre sí?. Tight coupling. Loose coupling. Shared nothing.

¿Qué arquitectura de aplicación distribuida es la que divide las tareas o cargas de trabajo con privilegios equipotentes entre los participantes?. Peer to peer. Master / Slave. Client / Server.

¿Qué arquitectura de sistemas distribuidos es en el que cada uno de sus componentes tiene, o hace uso de, pocos o ningún conocimiento de las definiciones de otros componentes separados?. Loose coupling. Tight coupling. Global coupling.

La arquitectura que desdobla cosas como presentación, lógica, datos y otros se llama: Multitier architecture. Monolithic architecture. Microservices architecture.

¿Cómo se llama la técnica en donde a pesar de haber un grupo, la co…mediante la transmisión de paquetes individuales a cada uno de los miembros de…. Unicast. Multicast. Broadcast.

¿Cómo se llama la técnica en la cual se crea una dirección especial de red donde todas las computadoras del sistema pueden escuchar los mensajes que recibe esa dirección?. Multicast. Broadcast. Anycast.

Una característica de la arquitectura basada en Mensajes para desarrollar aplicaciones es: Que es asincrónica. Que es determinística. Que es centralizada.

Ejemplos de Código Móvil son: Los applets de java. Los scripts de bash. Los servicios de red.

La habilidad de que un programa o parte de él pueda ser transferido de un computador a otro y ser ejecutado en el computador destino se llama: Código Móvil. Migración de hilos. Transferencia de estado.

Dentro de la metodología PCAM, ¿Cuál es la etapa que combina tareas en tareas…rendimiento o reducir los costos?. Aglomeración. Partición. Asignación.

Cuando un programa realiza operaciones concurrentes de forma activa, pero esas operaciones no producen avances en el estado del programa, estamos ante un: Livelock. Deadlock. Race condition.

El patrón que especifica la descomposición de un problema en tareas independientes para ser procesadas en paralelo se llama: Task Parallelism. Data Parallelism. Pipeline Parallelism.

El patrón que sirve para distribuciones de datos donde los datos están en estructuras de datos lineales (no recursivas) se llama: GeometricDescomposition. RecursiveDescomposition. FunctionalDescomposition.

El patrón que tiene como característica no tener una distribución lineal y utiliza como estrategia dividir en subproblemas, y así sucesivamente, hasta llegar a un caso base se llama: Divide & Conquer. Pipeline & Filter. Branch & Bound.

El patrón que es una clase de pipeline, pero irregular y en donde no hay una secuencia de etapas una detrás de otra conectadas de dos en dos se llama: EventBased. StreamProcessing. LayeredPattern.

¿Por qué se dice que la programación secuencial es determinista?. Porque mediante una misma secuencia de datos de entrada, se ejecutará la misma secuencia de instrucciones y se producirá el mismo resultado. Porque el sistema operativo asigna una prioridad fija a cada proceso, garantizando que el tiempo de ejecución sea siempre el mismo. Porque los recursos de hardware están reservados de forma exclusiva para un único hilo de control desde el inicio hasta el fin.

Se necesita procesar una gran cantidad de datos para llevarla a análisis y mejor de un software de inteligencia artificial de acceso mundial. Principalmente, ¿Qué tipo de programación será la indicada para su procesamiento?. Programación paralela. Programación lógica. Programación reactiva.

Pretendes desarrollar un software para resolver problemas que requieren tiempo elevado de cómputo. Para esto, te decidiste por la programación paralela. ¿Cuál sería tu justificación como ingeniero?. Porque se busca como objetivo mejorar el rendimiento de la aplicación y la productividad en el momento de programar. Porque se intenta garantizar la portabilidad absoluta del código entre diferentes arquitecturas de hardware sin necesidad de realizar ajustes. Porque se requiere simplificar la lógica del algoritmo mediante el uso de estructuras de control que eviten la concurrencia de datos.

¿Cuáles son los enfoques principales del paralelismo a nivel de instrucción? Selecciona la opción correcta. Pipelining y multiple issue. Multithreading y context switching. Data striping y load balancing.

¿Cómo se denominan los procesadores que permiten lanzar a ejecutar más de una instrucción en el mismo ciclo a nivel de hardware?. Superescalares. Multithreading y context switching. Data striping y load balancing.

¿Qué es la ratio de ejecución?. El número medio de instrucciones que acaban por ciclo. El tiempo total transcurrido desde el inicio hasta el fin de una tarea. El porcentaje de uso de la unidad aritmética lógica por segundo.

¿Cuáles de los siguientes procesadores a nivel de instrucción son independientes del hardware?. Los procesadores VLIW. Los procesadores superescalares. Los procesadores segmentados.

¿En qué consiste la segmentación en un procesador?. Divide la ejecución de una instrucción en varias etapas, donde cada etapa normalmente se realizar en un ciclo de CPU. Fragmenta la memoria principal en sectores lógicos, permitiendo que cada proceso acceda a un bloque de datos en un ciclo de bus. Distribuye la carga de trabajo entre varios núcleos físicos, donde cada núcleo resuelve una tarea completa en un ciclo de reloj.

Si en un procesador VLIW tienes 5 instrucciones, el código generado por el compilador específico debe estar organizado en palabras de 5 instrucciones que se puedan ejecutar en paralelo. En caso de no poder obtener 5 instrucciones, ¿Cómo se rellenarán dichas instrucciones?. Se rellenarán con NOP (no operation). Se rellenarán con JMP (jump to next). Se rellenarán con HLT (halt processor).

¿Para qué se utiliza el paralelismo a nivel de thread?. Para explotar mejor el paralelismo a nivel de instrucción ocultando los fallos de acceso a memoria. Para garantizar que cada hilo de ejecución tenga acceso exclusivo a los registros del procesador sin interrupciones. Para reducir el consumo energético del núcleo mediante la desactivación de las unidades funcionales que no se usan.

¿Qué son las medidas de rendimiento?. Métricas que nos ayudan a analizar el paralelismo potencial de un programa. Estándares de calidad que certifican la portabilidad de un algoritmo en diferentes sistemas operativos. Protocolos de comunicación que aseguran la integridad de los datos transmitidos en una red distribuida.

¿Qué podemos realizar a partir del grafo de dependencias de tareas?. Análisis del programa paralelo y qué paralelismo potencial podemos obtener en comparación con el programa secuencial. Diseño de la topología de red física y determinación de los protocolos de enrutamiento necesarios para la interconexión de nodos. Estimación del consumo eléctrico del hardware y cálculo de la disipación de calor generada por cada unidad de procesamiento.

Como responsable del ·rea de ingeniería, debes explicar a la gerencia los resultados obtenidos sobre la eficiencia obtenida al paralelizar un programa, analizando su speedup. La eficiencia alcanzada es inferior a 1. ¿Qué justificaciones la correctas para presentar a la gerencia?. Es una situación normal en nuestros programas, una vez paralelizados, ya que los costes de comunicación, sincronización y creación/destrucción de tareas suelen hacer que el coste de paralelización no sea a coste cero. Es un indicador de que el hardware presenta fallas críticas de redundancia, por lo que se debe invertir en procesadores de mayor frecuencia para alcanzar una eficiencia superior a la unidad. Es una métrica que demuestra que el programa ha alcanzado el límite teórico de la Ley de Moore, imposibilitando cualquier tipo de optimización adicional mediante la división de tareas.

Completa el siguiente enunciado. La eficiencia se encuentra definida por: Aceleración sobre cantidad de procesadores. Latencia sobre ancho de banda del bus. Tiempo secuencial sobre tiempo de comunicación.

Completa el siguiente enunciado. La eficiencia en programas paralelos en condiciones ideales es igual a: 1. 0. P (número de procesadores).

Completa el siguiente enunciado. Si el tiempo de ejecución en serie es Tserial=20 segundos y quieres realizar una mejora…resultante es: 0.99. 0.50. 1.01.

Si posees un speedup de 10 y 130 procesadores, ¿Cuál es la eficiencia alcanzada?. 0.07. 0.13. 0.76.

Si tienes un speedup de 3 y 6 procesadores, ¿Cuál es su eficiencia alcanzada?. 0.5. 0.2. 2.0.

Completa el siguiente enunciado. Si el tiempo de ejecución en serie es Tserial=10 segundos y quieres realizar una mejora del 30 % con 300 procesadores, el speedup resultante es: 1,4. 1,1. 2,3.

Deseas recodificar el 30% del programa para que corra 2 veces más rápido. ¿Cuál sería su aceleración?. 1.176. 1.333. 1.052.

¿Cuál es el speedup de mejora de un programa, si la mejora hace que la parte que tardaba 60 segundos ahora tarde 10?. 6. 5. 10.

Deseas recodificar el 80% del programa para que corra 5 veces más rápido. ¿Cuál sería su aceleración?. 2,77. 3,25. 1,94.

Si el tiempo de ejecución original de un programa es de 60 segundos y el tiempo de ejecución con la mejora es de 52 segundos, ¿Cuál es el speedup global?. 1.15. 1.08. 1.25.

Tienes un servidor web y le cambias la CPU por una que es 10 veces más rápida que la antigua. La CPU antigua estaba 40% del tiempo haciendo cálculos y 50% ociosa esperando I/0. ¿Cuál es el speedup global con la nueva CPU?. 1.56. 2.38. 1.12.

Tienes un servidor web y le cambias la CPU por una que es 5 veces más rápida que la antigua. La CPU antigua estaba 30% del tiempo haciendo cálculos y 70% ociosa esperando I/0. ¿Cuál es el speedup global con la nueva CPU?. 1.31. 1.15. 2.10.

Quieres mejorar un programa que hace ciertos cálculos. Hay dos opciones: 1. Comprar un chip que acelera el 20 % del programa 10 veces. 2. Recodificar el 50 % del programa para que corra 1.6 veces más rápido. ¿¿Qué opción ofrece mejor speedup?. La opción 2 con 1.231 de aceleración global. La opción 1 con 1.520 de aceleración global. Ambas opciones ofrecen el mismo speedup de 1.111.

La ley de Amdahl dice que no podemos obtener una aceleración mejor que 1/t, ¿Qué es?. Es la fracción que, en el programa en serie, permanece sin paralelizar. Es el tiempo total que tarda un proceso en realizar una operación de lectura/escritura en la memoria caché. Es el coeficiente que determina el número máximo de procesadores que pueden trabajar de forma síncrona.

La consigna aparece según lo descrito: “X + 100”. 200. 100. 300.

Completa el siguiente enunciado. Si necesitamos realizar, en el paralelismo de datos, varias instancias de las mismas tareas, en donde cada nodo ejecuta el código de forma independiente. Entonces, según la clasificación de Flynn, el modelo que debemos utilizar es: MIMD. SISD. MISD.

Este es uno de los modelos más ampliamente usados. En él los programadores organizan sus programas como una colección de tareas con variables locales privadas. Como disponemos de paralelismo explícito, es el programador quien de forma directa controla el flujo de las operaciones y los datos. EI medio más usado para implementar este modelo programación es a través de una librería estándar. ¿A qué modelo hace referencia esta definición?. Modelo de memoria compartida. Modelo de paso de mensajes. Modelo de paralelismo de datos.

Las siguientes características en sistemas de internet: réplica de servidores, diseminación de datos, gestión del sistema y aplicaciones de seguridad corresponden ¿A qué modelo de interacción?. Multiservidor y/o grupos de procesos. Cliente / Servidor tradicional. Modelo de Proxy centralizado.

Se necesita realizar la arquitectura de un sistema, el cual debe soportar la replicación de datos y la replicación de cómputo para maximizar la alta disponibilidad y mejorar prestaciones. Como responsable del proyecto, ¿Qué método de interacción recomendarías?. Servicio multiservidor. Servicio de proxy inverso. Servicio de terminal remoto.

Si decimos que el servicio es implementado con diferentes servidores que se ejecutan en varias computadoras y que interactúan para proporcionar un servicio a los procesos clientes, repartiéndose, por ejemplo, las diferentes tareas que componen el servicio, ¿De qué modelo de interacción estamos hablando?. Servicio multiservidor. Servicio de servidor único. Servicio de mediación (Proxy).

En el contexto de las computadoras paralelas con arquitectura de memoria distribuida (tal como pueden considerarse los clusters) …rendimiento de la red de interconexión de procesadores ha sido el de los mensajes ping-pong. En sí mismo, el método es muy sencillo, dado que…comunicación entre dos procesadores P1 y P2, los pasos a seguir son: 1. Enviar un mensaje desde el procesador P1 al procesador P2. 2. Enviar…al procesador P1 nuevamente. En este caso, ¿A qué tipo de comunicación nos estamos refiriendo?. Punto a punto. Comunicación colectiva. Comunicación por difusión (Broadcast).

EI middleware orientado a mensajes (MOM) es una infraestructura de software o hardware que admite el envío y la recepción de mensajes entre sistemas distribuidos. ¿Qué modelo de interacción incluye principalmente?. Arquitecturas basadas en mensajes. Arquitecturas basadas en llamadas a procedimientos remotos (RPC). Arquitecturas basadas en memoria compartida global.

EI web proxy server, ¿A qué modelo de interacción corresponde?. Servidor proxy. Servidor de aplicaciones. Servidor de nombres.

El gobierno provincial ha implementado la itinerancia en redes wifi, es decir, el dispositivo wifi del cliente puede desplazarse e ir registrándose…inalámbricas. En este caso, la identificación normalmente se hace a través de un usuario y contraseña personal compartido por distintas redes. Para el caso…refiriendo ¿A qué modelo de interacción concreto?. Código móvil. Proxy inverso. Acceso multicliente.

En este modelo, consideramos entornos muy dinámicos, donde posiblemente el conjunto de usuarios, los…y los elementos software se esperan que cambien de forma frecuente. ¿De qué modelo de interacción estamos hablando?. Código móvil. Modelo Cliente/Servidor tradicional. Modelo de Servicios Indirectos.

¿A qué hace referencia la buena práctica de simplicidad y de la distribución de tareas en la concurrencia de algoritmos?. A realizar una paralelización que sea fácil de mantener y de depurar si se diera el caso. A priorizar la reducción del uso de memoria caché sobre la velocidad de ejecución de las subtareas. A utilizar el mayor número posible de procesadores disponibles independientemente de la carga de trabajo.

¿Qué se debe analizar una vez que se realice la distribución en tareas?. Orden y sincronización de tareas. Jerarquía de almacenamiento y caché. Capacidad de direccionamiento de los nodos.

“Dado el siguiente código, determina si existe alguna falencia para ejecutar la línea 4: línea 1: var p =new…ejecutar línea 5::}}”. Se produce un interbloqueo. Se produce una condición de carrera (race condition). Se genera un error de desbordamiento de memoria (stack overflow).

Si tenemos un programa concurrente, en donde una variable global es compartida por múltiples procesos, ¿Qué debemos tener en cuenta para mantener el determinismo?. Tener algún mecanismo para ordenar/sincronizar los accesos a la variable global. Asegurar que cada proceso tenga una copia local idéntica de la variable en su propia memoria caché. Utilizar un sistema de recolección de basura (garbage collector) que elimine la variable una vez que el primer proceso termine.

Dos personas, al encontrarse en un pasillo angosto avanzando en sentidos opuestos, tratan de ser amables, por lo que se mueven a un lado para dejar a la otra persona pasar, pero terminan moviéndose de lado a lado sin tener ningún progreso, pues ambos se mueven hacia el mismo lado, al mismo tiempo. ¿Cómo se llamaría esta situación en ciencias de la computación?. Livelock. Deadlock. Starvation.

Se poseen 3 transacciones en cola de espera y todas ellas deben procesarse. El proceso de autorización de estas transacciones se ejecuta mediante varios pasos. Se pudieron realizar 2 transacciones, mientras que una de ellas quedó de manera indefinida en cola de espera. ¿Con qué problema de concurrencia nos estamos enfrentando?. Starvation. Deadlock. Livelock.

Completa el siguiente enunciado. Si a un proceso o un hilo de ejecución se le deniega el recurso compartido, la tarea a ejecutar no puede ser nunca finalizada. Estamos en la presencia de: Starvation. Race condition. Mutual exclusion.

“Dado el siguiente código, determina si existe alguna falencia. linea 1: Queue q =…..linea 2: while (q.Count>0); linea 3: { var c = q.Dequeue(); linea 4: //Alg˙n mÈtodo en un hilo diferente accidentalmente vuelve a poner c en lacola dos veces dentro del mismo tiempo, linea 5: q.Enqueue(c); lÌnea 6: q.Enqueue(c); lÌnea 7:…..}”. Se produce STARVATION. Se produce una excepción de desbordamiento de pila (StackOverflow). Se genera un error de acceso inválido a memoria (Segmentation Fault).

Si dos procesos trabajan sobre un mismo recurso compartido; y cada uno le otorga prioridad…recursiva y sin tener ningún progreso en su ejecución, estamos en la presencia de un problema de concurrencia…¿…problema?. Livelock. Inanición (Starvation). Exclusión mutua (Mutual Exclusion).

Si utilizamos un patrón event-basedcoordination, ¿Por qué sería necesario el control de interbloqueos?. Porque puede haber ciclos y puede haber dos sentidos en la conexión entre dos nodos del grafo de tareas. Porque el sistema requiere una sincronización global de reloj para asegurar que todos los eventos se procesen en el mismo ciclo. Porque el tamaño de la cola de mensajes es limitado y el desbordamiento de datos detiene la ejecución de los hilos productores.

Como tester, has realizado, mediante software y sobre un sistema de ventas online, múltiples solicitudes…simultánea. Realizaste 100 solicitudes simultáneas y todas retirarán 10.000 productos (la cantidad total del stock…) el programa, puedes ver que 9 solicitudes retiraron 10.000 productos. Esto quiere decir que retiraste90.000 productos de un stock de solo 10.000. Si refrescamos el sitio, veremos en el historial que se “vendieron”10.000productos…ocasiones, a pesar de no tener el suficiente stock para hacerlo. ¿Qué ocurrió?. Se produjo un race condition. Se produjo un error de Sincronización de Base de Datos. Se produjo una Validación de Stock Asíncrona.

¿En qué consiste la predicción de salto?. Aprovechar al máximo el paralelismo de la segmentación, para no parar la ejecución de las instrucciones. Ajustar la frecuencia del reloj del procesador para sincronizar la velocidad de los buses de datos con la memoria. Reordenar las instrucciones de forma secuencial para evitar que el programa realice llamadas a funciones externas.

¿De qué otra forma se denomina a la dependencia de salto?. Dependencia de procedimientos. Dependencia de registros. Dependencia de recursos.

¿Cómo se encuentra formada la unidad central de procesamiento?. Una unidad de control y una unidad aritmética y lógica. Un bus de datos externo y una unidad de gestión de periféricos. Un bus de datos externo y una unidad de gestión de periféricos.

Completa el siguiente enunciado. Si en un procesador superescalar se ejecutan 4 threads en las diferentes unidades funcionales del procesador superescalar, en cada ciclo de ejecución, se cambia de thread. Nos encontramos: Multithreading de grano fino. Multithreading de grano grueso. Multithreading simultáneo (SMT).

Completa el siguiente enunciado. Si, al tener una curva de speedup igual a una función lineal con pendiente 1, en donde P es la cantidad de procesadores, esto nos indica: Que la velocidad de ejecución es P veces más rápido con P procesadores. Que la eficiencia del sistema disminuye de forma logarítmica a medida que aumenta el número de procesadores. Que el costo de comunicación entre los procesadores iguala al tiempo de cómputo, generando un cuello de botella constante.

“En el paralelismo a nivel de instrucción, ¿Cómo podemos conseguir que el procesador continúe ejecutando instrucciones, ocultando los fallos de acceso a memoria?. Implementando on-chip-multithreading. Implementando una jerarquía de memoria virtual con paginación bajo demanda. Implementando un sistema de predicción de saltos dinámico en la unidad de control.

Si se pretenden procesar en paralelo más de una secuencia de datos con una ˙nica secuencia de instrucciones, ¿Qué modelo de la taxonomía de Flynn sería el indicado?. SIMD. SISD. MISD.

Imaginemos que una persona accede a la cuenta desde un cajero. Otra persona accede desde otro cajero a la misma cuenta al mismo tiempo, por lo que se queda bloqueado mientras que la primera persona piensa los movimientos que quiere realizar. En este caso, la persona que se ha quedado bloqueada puede mantenerse a la espera por un tiempo indeterminado. ¿Cómo solucionaría este problema?. Mecanismos de control del tiempo. Aumento del ancho de banda de la red de cajeros. Implementación de una estructura de datos tipo LIFO.

Con una segmentación de 5 etapas, ¿Cuántas instrucciones podemos ejecutar en paralelo?. 5. 1. Depende del número de núcleos físicos del procesador.

Un sistema de discos en un centro de cómputo tiene varios componentes, entre ellos la fuente de poder, con fracción de mejora del 22%. Un estudio determina que, instalando otra fuente de poder, se eleva la confiabilidad (tiempo medio entre fallas) de las fuentes de poder 4150 veces. ¿Qué tanto se eleva la confiabilidad de todo el sistema de discos?. Aplica la ley de Amdahl. La confiabilidad del sistema con dos fuentes de poder es 1.28 veces que con una sola fuente de poder. Aplica la ley de Amdahl. La confiabilidad del sistema con dos fuentes de poder es 2.15 veces que con una sola fuente de poder. Aplica la ley de Amdahl. La confiabilidad del sistema con dos fuentes de poder es 0.78 veces que con una sola fuente de poder.

¿Qué significa round robin?. Es la política de asignación de ciclos del procesador en la que se le da un número fijo de ciclos a un thread detrás de otro. Es un algoritmo de enrutamiento estático que prioriza el envío de paquetes según el tamaño de la carga útil. Es un mecanismo de exclusión mutua que bloquea todos los hilos hasta que el último proceso termina su ejecución.

Dado el siguiente gráfico, como analista funcional, debes determinar si existe interbloqueo, siendo Ri los recursos y Ti los procesos. No hay interbloqueo. Existe un interbloqueo (deadlock) que afecta a los procesos T1 y T3. Existe un interbloqueo circular que involucra a todos los procesos y recursos del sistema.

Como las máquinas tipo MIMD, las del tipo multiprocesadores son denominadas también máquinas basadas en paso de mensajes. Falso. Verdadero.

Los procesadores Very Long Instruction Word (VLIW), que tienen como objetivo el paralelismo a nivel de instrucción, precisan del compilador para explotar adecuadamente este paralelismo: Verdadero. Falso.

El starvation es cualquier situación en la que un proceso concurrente no puede obtener todos los recursos que necesita para realizar el trabajo. Verdadero. Falso.

Una situación de interbloqueo o deadlock se presenta cuando en un programa dos o más procesos concurrentes se esperan uno a otro. Verdadero. Falso.

En el Multithreading de grano fino, se puede ejecutar más de una instrucción de un thread en ciclos consecutivos. Habitualmente un thread continúa la ejecución de instrucciones hasta que se produce un bloqueo causado por un salto, un conflicto de datos, etc. Verdadero. Falso.

La ley de Gustafson coincide con la ley de Amdahl al considerar que la cantidad total de trabajo que se hará· en paralelo varía linealmente con el número de procesadores. Verdadero. Falso.

El patrón pipeline (tubería) es un tipo de patrón para distribución de datos donde las estructuras de datos son estructuras de datos recursivas, como, por ejemplo, grafos, arboles, etcétera. Verdadero. Falso.

Cuando hacemos referencia a una máquina SISD, nos referimos a ejecutar una única secuencia de instrucciones sobre una secuencia de datos, tratados de uno en uno. Verdadero. Falso.

Los procesadores VLIW no tienen soporte hardware para detectar paralelismo entre las instrucciones en tiempo de ejecución, por lo que no dependen de la compilación realizada. Falso. Verdadero.

Si hablamos de escalabilidad en programación paralela, en términos generales, nos referimos a si físicamente a un sistema se le pueden poner más módulos(más memorias, más procesadores,….). Verdadero. Falso.

Los principios de la programación paralela constan de 2 objetivos principales. Estos son mejorar el rendimiento de la aplicación y aumentar la productividad en el momento de programar. Verdadero. Falso.

Tienes un procesador superescalar y necesitas resolver la dependencia de verdad entre 2 instrucciones que se ejecutan en paralelo, por lo que, antes de le ejecución, debes realizar una segmentación por etapas con un compilador que sea consiente del hardware para que pueda mejorar el rendimiento reordenando las instrucciones. Falso. Verdadero.

El speedup global esta limitado por la fracción del programa que se puede mejorar: Falso. Verdadero.

¿Con que enfoque escribimos programas paralelos ? Seleccione 2 opciones correctas. Paralelismo de tareas. Paralelismo de datos. Paralelismo de registros. Paralelismo de memoria.

¿Qué enfoque principal utiliza el paralelismo a nivel de instrucción en las CPU modernas ? Seleccione las 2 opciones correctas. Multiple Issue (problema múltiple). Pipelining (canalización). Context Switching (cambio de contexto). Virtual Memory (memoria virtual).

Las maquinas MIMD según el programa que ejecutan las unidades de procesamiento, se subclasifican en: (seleccione 2 opciones correctas). Multiple Programs, multiple data streams. Single Programs, multiple data streams. Multiple Instruction, single data streams. Single Instruction, single data streams.

Las maquinas MIMD según la forma en que las unidades de procesamiento se acoplan a la memoria principal, se subclasifican en: Seleccione 2 opciones correctas. MIMD de memoria distribuida. MIMD de memoria compartida. MIMD de memoria virtual. MIMD de memoria asociativa.

Seleccione 3 opciones correctas. ¿Cuáles son los tres niveles de paralelismo?. A nivel de datos. A nivel de instrucción. A nivel de tareas. A nivel de registros.

En una arquitectura Three-tier. ¿Cuáles son las capas que existen ? Seleccione 3 opciones correctas. Servicios de notificación de eventos. Servicios de nombres. Servicios de persistencia. Servicios de interconexión física.

Seleccione las 4 (cuatro) opciones correctas. ¿Cuáles computadoras permiten procesamiento paralelo?. Computadora con MPS. Computadoras monoprocesador con placas graficas con procesador. Computadoras con procesadores multinúcleo. Computadoras monoprocesador con Matriz FPGA. Computadoras monoprocesador con arquitectura Von Neumann básica sin segmentación.

Seleccione las 4 (cuatro) opciones correctas. ¿Cuáles son aplicaciones de algoritmos paralelos?. Big data. Predicción del clima. Modelización financiera y económica. Diagnóstico por imagen médico. Edición de texto plano en un solo documento.

Seleccione las 4 (cuatro) opciones correctas. Indique los costes que deben pagarse al realizar la paralelización de una aplicación. La creación y terminación de procesos/threads. La sincronización. La granularidad. La compartición de datos. La capacidad de almacenamiento del disco rígido.

¿Cuáles son las capas del modelo OSI? Seleccione las 4 (cuatro) opciones correctas. Capa de transporte. Capa de red. Capa de presentación. Capa de enlace de datos. Capa de interfaz de usuario.

En la transferencia de mensajes en los sistemas distribuidos, para que los diferentes procesos puedan interpretar dela misma forma el significado de los bits que se envían, se acuerdan algunos aspectos de interpretación. Seleccione las 4 (cuatro) opciones correctas. Aspectos Físicos. Aspectos Lógicos. Detección y corrección de errores. Estructuras y representación de datos iguales. Topología de la red física.

¿Qué arquitecturas se utilizan para la computación distribuida? Seleccione las 4 (cuatro) opciones correctas. Peer to peer. Multitier architecture. Client / Server. Tightcoupling. Fit in Communication.

¿Cuáles son etapas de la conocida metodología para creación de aplicaciones paralelas y/o distribuidas? Seleccione las 4 (cuatro) opciones correctas. Comunicación. Aglomeración. Partición. Mapeo. Depuración.

¿Cuáles son las condiciones de Coffman? Seleccione las 4 (cuatro) opciones correctas. Espera circular. Espera la condición. Sin preferencia. Exclusión mutua. Jerarquía de prioridades.

¿Cuáles son los modelos más relevantes usados de programación distribuida/paralela? Seleccione 3 (tres) opciones correctas. Modelo de memoria compartida. Modelo de paralelismo de datos. Modelo de paso de mensajes. Modelo de topología en estrella.

¿Cuáles son las estrategias más comúnmente usadas en la descomposición de problemas? Seleccione 2 (dos) opciones correctas. Descomposición funcional. Geométrica e iterativa. Descomposición por capas y de servicios. Descomposición por estados y de prioridades.

Seleccione las 2 (dos) opciones correctas. ¿Cuáles son las características de un modelo UMA?. Son multiprocesadores en los que todos los accesos a memoria tardan el mismo tiempo. Ayuda a que el programador pueda predecir el comportamiento de su programa en los accesos de memoria y programe códigos eficientes. Son sistemas donde el tiempo de acceso a la memoria depende de la distancia física entre el procesador y el módulo de memoria. Permiten que cada procesador gestione su propio espacio de direccionamiento privado sin compartir el bus de datos principal.

Seleccione las 3 (tres) opciones correctas. ¿Cuáles de las siguientes pertenecen al paralelismo a nivel de instrucción?. Procesador Very Long Instruction Word. Procesador superescalar. Procesador segmentado. Procesador MIMD.

Seleccione las 3 (tres) opciones correctas. ¿Cuáles de las siguientes características corresponden al modelo cliente/servidor?. La idea básica de esta arquitectura es partir el software en una aplicación para un conjunto de servicios, que proporcionan una serie de operaciones a sus usuarios; y los programas cliente, que implementan aplicaciones y envían las peticiones a los servicios para llevar a cabo las tareas de las aplicaciones. Los procesos de aplicación no cooperan directamente con otros, pero comparten datos y coordinan acciones, interactuando con un conjunto común de servidores. Dentro del modelo de interacción cliente-servidor, podemos encontrar diferentes entornos de invocación remota, con mecanismos de codificación binaria de los datos y mecanismos donde se usan codificaciones textuales basadas en XML y el transporte por HTTP. Los nodos participantes poseen el mismo nivel de privilegios y responsabilidad, actuando simultáneamente como proveedores y consumidores de recursos.

Seleccione las 4 (cuatro) opciones correctas. øCu·les de las siguientes caracterÌsticas se corresponden con un procesador Very Long Instruction Word?. No dispone de predicción de saltos basada en la historia de la ejecución del programa. Tiene la ventaja de ahorrarse el hardware dedicado a la reordenación en tiempo de ejecución de las instrucciones. No tiene soporte hardware para detectar paralelismo entre las instrucciones en tiempo de ejecución. Le es muy difícil detectar situaciones de fallos de acceso en la cache. No dispone de instrucciones dedicadas para controlar el flujo de ejecución del programa.

Seleccione las 4 (cuatro) opciones correctas. ¿Qué afirmaciones son correctas con respecto a la taxonomía de Flynn?. Sirve para identificar tipos de aplicaciones y sistemas en función de los flujos de instrucciones. Es una clasificación de sistemas arquitecturales muy usada en cómputo científico. Es una clasificación de sistemas arquitecturales muy usada en paralelismo. Es una clasificación de las máquinas en función del paralelismo que se explote. Es una clasificación basada en la complejidad ciclomática y el número de líneas de código de un algoritmo paralelo.

Seleccione las 4 (cuatro) opciones correctas. ¿Cuáles afirmaciones son correctas respecto al patrón event-basedcoordination?. No hay una secuencia de etapas una detrás de la otra. Puede haber ciclos. Puede haber dos sentidos en la conexión entre dos nodos del grafo de tareas. Es una clase de pipeline, pero irregular. Hay predicción de cómo irá evolucionando la comunicación entre los nodos.

Seleccione las 4 (cuatro) opciones correctas. ¿Cuáles de las siguientes características están relacionadas con la ley de Amdahl?. No tiene en cuenta el tamaño del problema. Dice que no podemos obtener una aceleración mejor que 1/t. Se mide en unidades genéricas, es decir, los resultados no son porcentajes, ni unidades de tiempo. No escala la disponibilidad del poder de cómputo a medida que el número de máquinas aumenta. Propone que los programadores establezcan el tamaño de los problemas para utilizar el equipamiento disponible en su solución en un tiempo práctico.

Seleccione las 4 (cuatro) opciones correctas. Características de la arquitectura Von Neumann: Coordina las operaciones de forma secuencial. Obtiene datos de la memoria. Obtiene instrucciones de la memoria. Decodifica las instrucciones. Realiza operaciones aritméticas básicas.

Selecciona las 4 (cuatro) opciones correctas. Un procesador superescalar de dos Vías o pipelines tiene la habilidad de empezar a ejecutar dos instrucciones en cada ciclo (two-way). ¿Cuáles de todas las siguientes opciones son correctas?. Inconveniente de dependencia de saltos. Puede llegar a tener una ratio de ejecución de hasta 2 instrucciones por ciclo. Inconveniente de dependencia de recursos. Inconveniente de dependencia de verdad. Garantiza una ejecución de 2 instrucciones por ciclo independientemente del tipo de dependencias en el código.

Selecciona las 4 (cuatro) opciones correctas. Teniendo en cuenta la clasificación de las arquitecturas según Andrew S. Tanenbaum, basada en la de Flynn, ¿Cuáles son las subcategorías en las que se clasifica la arquitectura MIMD?. Clúster. NUMA. UMA. MPP. SIMD de memoria compartida.

Selecciona las 4 (cuatro) opciones correctas. ¿Cuáles de las siguientes opciones corresponden a problemas que aparecen en la concurrencia?. Livelock. Deadlock. Race condition. Starvation. Liveness.

Selecciona las 4 (cuatro) opciones correctas. ¿Cuáles de los siguientes modelos de máquinas, según la taxonomía de Flynn, actualmente son los más comúnmente utilizados?. SIMD. MIMD. SPMD. SISD. MISD.

Completa el siguiente enunciado. Como analista funcional, recabaste el requerimiento de que un sistema pueda soportar transmisiones de datos a grupos de participantes… dinámica o con modelo publish-subscribe. Esta característica es propia de un modelo de grupos de procesos, pero debes indicar con precisión el nombre en el plan de requerimiento que lo describes como: Diseminación de datos. Fragmentación de paquetes. Encapsulamiento de servicios.

¿Por qué se dice que la programación paralela es también concurrente?. Por que en la programación paralela se hace uso simultaneo de múltiples elementos de procesamiento para resolver un problema a través de un software.. Porque ambos términos se refieren exclusivamente al uso de un único procesador que alterna rápidamente entre tareas mediante cambios de contexto. Porque la programación paralela requiere obligatoriamente que todos los procesos se ejecuten en diferentes nodos de una red distribuida.

Completa el siguiente enunciado. La programación a la que estamos acostumbrados, la secuencial se encuentra basada en la arquitectura básica de... Von Neumann. Harvard. Flynn.

Selecciona las 4 (cuatro) opciones correctas ¿Dónde podemos encontrar al modelo básico de interacción cliente/servidor?. En sistemas de ficheros. En sistemas de bases de datos. En servicios de correo. En servidores de nombres. En sistemas de distribución de contenidos para video en línea.

Se da una situación de livelock cuando un thread A esta trabajando para un thread B que a su vez esta trabajando para el thread A y así sucesivamente . Es una especie de…. Verdadero. Falso.

Como programador de aplicaciones distribuidas , implementas la aplicación como una colección de tareas que normalmente son asignadas a thread de ejecución …acceso al espacio compartido de memoria , con los mecanismos de control conocidos. Es decir, ver tus programas como una colección de procesos accediendo a varias…. Compartidas. En este caso estas implementando un modelo de descomposición ¿Cuál de ellos es el que implementan?. Modelo de memoria compartida. Modelo de paso de mensajes. Modelo de paralelismo de datos.

Selecciona las 4 (cuatro) opciones correctas ¿Cuáles son las características base que presenta la programación secuencial, influenciada por las arquitecturas de un ….?. Los procesadores se dedican básicamente a obtener un determinado flujo de instrucciones desde la RAM. Los programas y los datos que están almacenados en memoria RAM. Un único procesador (CPU). El procesador ejecuta una instrucción por unidad de tiempo. No son deterministas.

De que patrón se distribución paralela estamos hablando si decimos que este patrón es para distribuciones de datos en los que los datos a tratar son vectores u… recursivos?. Patron geometric descomposition. RecursiveDecomposition. FunctionalDecomposition.

El web proxy server. ¿A que modelo de interacción corresponde?. Servidor proxy. Peer-to-Peer. Código Móvil.

¿Qué modelo de interacción podemos decir que tiene relación con que la computación móvil y ubicua ha surgido principalmente a partir de los factores de miniaturización y las conexiones wireless?. Código móvil. Proxy inverso. Servidor de archivos.

Las tres opciones correctas para clasificar las arquitecturas según el contenido del módulo son: Taxonomía de Flynn. Clusters y grid. Por control y comunicación. Por jerarquía de caché y buses.

Tenemos en ejecución 4 threads en un sistema simultaneous multithreading . ¿Cuántos threads diferentes pueden ejecutarse en el mismo ciclo de procesador?. 4. 1. Depende únicamente de la cantidad de registros físicos.

¿De que patrón de distribución paralela estamos hablando si decimos que este patrón es consecuencia de una solución recursiva secuencial a un determinado problema?. Patrón divide & conquer. Patrón Pipelin. Patrón Geometric Decomposition.

¿Cómo se denomina el caso en donde el pipeline del procesador queda vacío durante varios ciclos en los procesadores superescalares?. Vertical waste. Horizontal waste. Internal fragmentation.

Según la …. De flynn .¿Qué modelo puede verse como una extensión de SIMD o bien una restricción del MIMD?. SPMD. MPMD. MISD.

La distinción básica entre un clúster y un grid es que , en este ultimo , no hay punto común de administración de los recursos. Verdadero. Falso.

Un objeto proporciona un método sincronizado que, a menudo , tarda mucho en retomar, si un subproceso invoca este método con frecuencia , se bloquearan otros subprocesos que también necesitan acceso sincronizado frecuente al mismo objeto. ¿Qué problema es el que deberemos solucionar?. Starvation. Interbloqueo (Deadblock). Condición de carrera (Race condition).

¿Cuáles son las funciones de la unidad de control de la arquitectura clásica de von Neumann?. Obtiene datos de la memoria. Obtiene instrucciones de la memoria. Decodifica las instrucciones. Coordina las operaciones de forma secuencial. Realiza operaciones aritméticas básicas.

Los procesadores en orden son aquellos procesadores que reordenan la ejecución de las instrucciones con tal de evitar dependencias. Verdadero. Falso.

…. De oxidación electroquímica de betanidina mediante métodos computacionales se utilizo una colección de ordenadores conectados por red, para trabajar concurrentemente …..esta este controlado por una entidad administrativa simple ( normalmente centralizada)que tiene el control completo sobre cada sistema final . Según el estudio . ¿En que sistema fue realizado este?. Clúster. Grid Computing. Mainframe System.

Dado el siguiente gráfico, como analista funcional, debes determinar si existe interbloqueo, siendo Ri los recursos y Ti los procesos. No hay interbloqueo. Existe un interbloqueo total porque el proceso T1 depende indirectamente de la liberación de recursos por parte de T4. Se produce un interbloqueo circular entre los procesos T1, T2 y T3 al compartir instancias de los recursos R1 y R2.

Las maquinas paralelas con procesadores vectoriales . ¿En que categoría o clasificación según Flynn se encuadran?. SIMD. SISD. MISD.

En la compartición de datos de memoria compartida , al hacer una exclusión mutua , nos podemos encontrar que hemos provocado . ¿Que problema de concurrencia?. Deadlock. Race condition. Context switching.

¿Qué tienen en común las estructuras de soporte fork/join y master/workers?. Ambas tienen un proceso principal que creara un conjunto de procesos para realizar una porción de trabajo. Ambas garantizan que todos los procesos secundarios se ejecuten de forma estrictamente secuencial para evitar el uso de semáforos. Ambas requieren que los procesos trabajadores compartan el mismo espacio de direccionamiento físico mediante una red de interconexión en malla.

En este modelo, consideramos entornos muy dinámicos, donde posiblemente el conjunto de usuarios, los dispositivos y los elementos software se esperan que cambien de forma frecuente. ¿De qué modelo estamos hablando?. Código Móvil. Cliente/Servidor tradicional. Servicios Indirectos.

Pretende analizar una gran cantidad de datos, los cuales se procesarán en diferentes procesadores y con las mismas estrategias de análisis, es decir, cada procesador efectuara la misma secuencia de operaciones……Cual modelo de descomposición de problemas utilizarías para llevar a cabo dicho requerimiento de manera…?. Paralelismo de datos. Paralelismo de control. Paralelismo de registros.

Selecciona las 4 (cuatro) opciones correctas. ¿Qué características entre las siguientes opciones están relacionadas con la ley de Gustafson?. Aborda las limitaciones de la ley de Amadahl. Se conoce también como la ley de Gustafson-Barsis. Establece que cualquier problema suficientemente grande puede ser eficientemente paralelizado. Ofrece una visión positiva de las ventajas del procesamiento paralelo. Establece que el speedup de un programa está limitado principalmente por su parte secuencial, independientemente del tamaño del problema.

Buscas determinar la estrategia de paralelización según algún patrón, porque necesitas que se procesen por etapas cada uno de los datos. Estás etapas se encuentran bien definidas y conectadas unas con otras…de los posibles errores que se tengan que propagares decir, la distribución se da por flujo de datos. Debes determinar que patrón será el mejor y que mas se adapte a tal situación. ¿Qué respondes?. Patrón pipeline. Patrón Master/Worker. Patrón Geometric Decomposition.

“Dos clientes de un banco realizan, cada uno, una operación en cajeros diferentes al mismo tiempo y a la misma cuenta. El usuario A quiere hacer un depósito. El B un retiro……El error pudo ser al revés, de manera que quede el saldo final…. ¿Qué se debería corregir en el sistema informático de los cajeros automáticos para que no ocurra esta inconsistencia”?. Race condition. Deadlock. Livelock.

*Fragmento de codigo* Synchronized(A), Synchronized(B), Synchronized(B), Synchronized(A)…. Interbloqueo. Inanición. Condición de carrera.

Procesador superescalar con dos pipelines, pero una sola unidad funcional de coma flotante, que tipo de dependencia representa: De Recursos. De datos. De control.

...bloquear las cuentas de origen y destino para actualizar ambas cuentas. ¿Qué condición es?. De Bloqueo. De Inanición. De Suspensión.

Denunciar Test