option
Cuestiones
ayuda
daypo
buscar.php

Arquitectura de Computadores

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Arquitectura de Computadores

Descripción:
Tema 1: Arquitectura de Computadores

Fecha de Creación: 2024/10/21

Categoría: Otros

Número Preguntas: 105

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

El resultado de las operaciones realizadas por un computador digital siempre es un número. V. F.

Los datos de entrada en un computador digital pueden ser tanto numéricos como no numéricos. V. F.

Un computador digital no puede operar automáticamente; requiere intervención humana para cada operación. V. F.

El computador digital debe tener un medio de salida para poder presentar los resultados de las operaciones realizadas. V. F.

La arquitectura de computadores solo se refiere a los componentes físicos (hardware). V. F.

La organización de la memoria es parte fundamental de la arquitectura de computadores. V. F.

El paralelismo en la arquitectura de computadores permite que las tareas se ejecuten de manera más rápida y eficiente. V. F.

Un diseño eficiente de arquitectura de computadores no afecta la velocidad del procesamiento de datos. V. F.

La interconexión entre las unidades de un sistema informático no es relevante para la arquitectura de computadores. V. F.

Una arquitectura bien diseñada puede optimizar tanto el consumo energético como el rendimiento de un sistema. V. F.

El conjunto de instrucciones en una arquitectura de computadores es el único factor que determina su rendimiento. V. F.

La arquitectura de computadores no evoluciona con el tiempo, ya que los avances en hardware son suficientes para mejorar el rendimiento. V. F.

La mejora del rendimiento en una arquitectura de computadores se logra únicamente mediante avances en el hardware. V. F.

El objetivo principal de la arquitectura de computadores es únicamente incrementar la velocidad de procesamiento. V. F.

Las arquitecturas de computadores han sido fundamentales para el desarrollo tecnológico, influyendo en dispositivos móviles, computadoras personales y supercomputadoras. V. F.

El desarrollo de relés, válvulas de vacío, transistores y microprocesadores son ejemplos de avances en las causas físicas que han impulsado la evolución de la arquitectura de computadores. V. F.

Los transistores y circuitos integrados marcaron una etapa clave en el desarrollo de computadoras más potentes y eficientes. V. F.

Las causas no físicas, como la reorganización de componentes internos y lógica de funcionamiento, no tienen un impacto en el rendimiento de la arquitectura de computadores. V. F.

La arquitectura de computadores se mantiene estática en cuanto a su diseño lógico, sin necesidad de modificaciones significativas a lo largo del tiempo. V. F.

Los avances en la arquitectura de computadores permiten una programación más amigable, facilitando la interacción del usuario con el sistema. V. F.

La nanotecnología ha sido un paso clave en la evolución de las computadoras modernas, permitiendo mayores capacidades de procesamiento en menor espacio físico. V. F.

El rendimiento en los sistemas embebidos no depende de la arquitectura de computadores. V. F.

Los sistemas de supercomputadoras dependen del diseño de la arquitectura para alcanzar niveles altos de procesamiento y eficiencia energética. V. F.

Los avances en la arquitectura de computadores solo benefician a los dispositivos de alta gama, como supercomputadoras. V. F.

El paralelismo es una técnica que utiliza la arquitectura de computadores para mejorar la eficiencia energética y el rendimiento. V. F.

El diseño de arquitecturas más sofisticadas ha mejorado la interacción entre el usuario y el computador, haciendo la programación más eficiente e intuitiva. V. F.

La estrategia de estudio de sistemas complejos consiste en analizar todo el sistema a la vez, sin dividirlo en niveles de abstracción. V. F.

Cada nivel de abstracción se caracteriza por elementos de entrada que provienen del nivel inmediato inferior y elementos de salida que son objetivos para el nivel inmediato superior. V. F.

La metodología de análisis y síntesis se aplica únicamente en los niveles más bajos de abstracción, como el nivel físico. V. F.

El nivel de aplicaciones está en el nivel más bajo de la jerarquía de abstracción en un computador. V. F.

El nivel de abstracción más bajo en el estudio de un computador es el nivel físico. V. F.

El proceso de síntesis consiste en partir de la implementación de un sistema en un nivel inferior y determinar su función. V. F.

El nivel de Instruction Set Architecture (ISA) se encuentra por debajo del sistema operativo en la jerarquía de abstracción. V. F.

El nivel de transferencia de registros es un nivel más alto que el nivel de lenguajes de alto nivel. V. F.

El análisis y la síntesis son procesos complementarios que permiten la comprensión y diseño de sistemas en diferentes niveles de abstracción. V. F.

El nivel lógico es un nivel superior al nivel electrónico en la jerarquía de abstracción de un computador. V. F.

El sistema operativo pertenece al nivel físico de abstracción de un computador. V. F.

La arquitectura de conjunto de instrucciones (ISA) define cómo se conectan los transistores en un nivel físico. V. F.

El nivel de algoritmos es un nivel de abstracción superior al nivel de lenguajes de alto nivel. V. F.

El proceso de síntesis parte de la especificación de un sistema y genera su implementación a partir de los elementos del nivel inferior. V. F.

El proceso de análisis permite obtener la especificación de un sistema partiendo de su implementación en el nivel inferior. V. F.

En el nivel físico, se utilizan como elementos de entrada las formas geométricas que representan dispositivos electrónicos, como transistores y resistencias. V. F.

El nivel físico utiliza como herramienta principal el análisis matemático de ecuaciones diferenciales. V. F.

En el nivel electrónico, los biestables y las puertas lógicas son los elementos de salida obtenidos a partir de resistencias y transistores. V. F.

En el nivel lógico, los biestables y las puertas lógicas son los elementos de entrada, y los módulos combinacionales y secuenciales son los elementos de salida. V. F.

El álgebra de conmutación, basada en el álgebra de Boole, se utiliza para representar el comportamiento de circuitos secuenciales en el nivel lógico. V. F.

En el nivel de transferencia de registros (RT), los registros mantienen el estado del sistema, mientras que los buses permiten el intercambio de información. V. F.

En el nivel de transferencia de registros (RT), se suelen utilizar lenguajes de programación de alto nivel para expresar con precisión los elementos de salida. V. F.

En la Instruction Set Architecture (ISA), los elementos de salida son el repertorio de instrucciones y la memoria referenciada por las instrucciones. V. F.

El computador digital solo puede realizar operaciones aritméticas, pero no lógicas. V. F.

El modelo CISC (Complex Instruction Set Computer) simplifica el número de instrucciones, haciéndolas más rápidas y reducidas. V. F.

El sistema operativo (SO) no es considerado un nivel similar a los demás niveles de descripción, sino un gestor de recursos del nivel máquina. V. F.

En las máquinas modernas, el sistema operativo debe gestionar recursos como la CPU, memoria, archivos y mecanismos de protección. V. F.

Los lenguajes de alto nivel permiten expresar problemas de manera más cercana a la máquina que el lenguaje ensamblador. V. F.

Los lenguajes declarativos, como Prolog o SQL, permiten que el programador declare relaciones lógicas o funcionales sin especificar una secuencia de órdenes. V. F.

El proceso de compilación traduce un lenguaje de alto nivel a lenguaje ensamblador para ser ejecutado en la máquina. V. F.

En el nivel algorítmico, los algoritmos son dependientes de un lenguaje de programación específico. V. F.

Las aplicaciones se corresponden con dominios de actividad que pueden automatizarse utilizando un computador digital. V. F.

Un inconveniente de la descripción por niveles es que a veces no permite optimizar la implementación al contemplar solo los niveles frontera. V. F.

La arquitectura von Neumann se basa en una estructura secuencial que ejecuta datos escalares. V. F.

La memoria de un computador según la arquitectura von Neumann se divide en memoria de datos y memoria de instrucciones. V. F.

El procesador (CPU) es responsable de leer y ejecutar las instrucciones almacenadas en la memoria. V. F.

Las líneas de control en un bus se utilizan para transmitir datos de transferencia, como lectura y escritura. V. F.

El bus es un medio dedicado de comunicación entre las unidades del computador, donde cada unidad tiene acceso exclusivo. V. F.

El sistema de arbitraje en un bus establece prioridades cuando varias unidades intentan acceder al bus simultáneamente. V. F.

La unidad que inicia una transferencia en un bus se conoce como slave, mientras que la que recibe los datos se llama master. V. F.

El sistema de interrupciones permite que un programa en ejecución sea interrumpido por señales externas, mejorando la sincronización de E/S. V. F.

La memoria caché se utiliza para aumentar el tiempo de acceso a la memoria principal. V. F.

El sistema de memoria virtual permite ejecutar programas que exceden el tamaño de la memoria principal. V. F.

En la arquitectura von Neumann, la unidad de control es responsable de generar las señales que gobiernan todos los dispositivos del sistema. V. F.

Las líneas de direcciones en un bus determinan qué unidad actúa como master durante la transferencia. V. F.

El sistema de memoria caché se basa en la localidad de referencia, almacenando los bloques más referenciados de la memoria principal. V. F.

El sistema de memoria virtual requiere que todas las páginas de un programa se mantengan en la memoria principal al mismo tiempo. V. F.

En la arquitectura von Neumann, el flujo de instrucciones y datos es independiente y no se interrelaciona. V. F.

La ejecución secuencial de las instrucciones es una característica fundamental de la arquitectura von Neumann. V. F.

En la arquitectura von Neumann, el paralelismo puede lograrse mediante la multiplicidad de unidades funcionales. V. F.

La segmentación encauzada (pipelining) es una técnica de paralelismo que permite ejecutar varias instrucciones al mismo tiempo. V. F.

El paralelismo funcional solo puede ser explotado por el sistema operativo. V. F.

El paralelismo de datos se consigue mediante el uso de estructuras de datos que permiten operaciones paralelas sobre sus elementos, como vectores y matrices. V. F.

En la taxonomía de Flynn, un sistema de Flujo de Instrucciones Múltiple (MI) tiene múltiples unidades de control, cada una produciendo un flujo distinto de instrucciones. V. F.

Los sistemas SISD representan a la mayoría de los ordenadores actuales y ejecutan instrucciones secuencialmente, aunque pueden tener más de una unidad funcional. V. F.

En una arquitectura SIMD, cada procesador recibe instrucciones diferentes pero opera sobre el mismo conjunto de datos. V. F.

La arquitectura MISD es utilizada en máquinas comerciales comunes. V. F.

Los sistemas MIMD permiten que cada unidad de procesamiento ejecute sus propios programas de manera independiente y asíncrona. V. F.

En la ejecución de SIMD, todos los procesadores ejecutan el mismo código de forma asíncrona, lo que puede llevar a una ineficiencia en el uso de los recursos. V. F.

La velocidad de procesamiento de un computador está determinada por la arquitectura, organización y tecnología. V. F.

El tiempo de ejecución de un programa puede ser expresado como el producto del número de instrucciones, el número medio de ciclos por instrucción y el tiempo de ciclo. V. F.

La mejora en el rendimiento de un computador no está influenciada por el paralelismo de datos y funcional. V. F.

El TOP500 clasifica a los 500 supercomputadores más potentes del mundo en función de su rendimiento. V. F.

La ley de Amdahl afirma que el rendimiento global de un sistema mejorado es ilimitado. V. F.

La aceleración global de un sistema se puede calcular usando la relación G= (T con)/(T sin). V. F.

Si el 100% del tiempo de ejecución de un programa se beneficia de una mejora, la aceleración global es igual a la mejora del recurso. V. F.

Un sistema que mejora un componente en un factor de 𝑘 durante una fracción del tiempo 𝑓 del programa original verá su ganancia de velocidad limitada. V. F.

La lista TOP500 se actualiza dos veces al año y muestra información sobre arquitecturas y eficiencia energética. V. F.

Si se mejora un componente que ocupa el 90% del tiempo de ejecución y se acelera 10 veces, el rendimiento global siempre mejorará en un 10%. V. F.

Las áreas estratégicas en la arquitectura de computadores se centran únicamente en mejorar el rendimiento. V. F.

El paralelismo permite la ejecución simultánea de múltiples procesos, mientras que la concurrencia permite que varios procesos progresen de manera intercalada. V. F.

Optimizar el acceso a la memoria y las jerarquías de caché es clave para mejorar la eficiencia, pero no afecta los tiempos de latencia. V. F.

Los procesadores ARM son conocidos por su eficiencia energética en comparación con arquitecturas x86. V. F.

HiPEAC es una iniciativa centrada exclusivamente en la programación de aplicaciones de escritorio. V. F.

La eficiencia energética se ha convertido en un factor limitante en el desarrollo de todos los sistemas. V. F.

El concepto de "silicio negro" se refiere a que todas las partes de un dispositivo deben estar encendidas para funcionar de manera óptima. V. F.

Según expertos, se espera que para el 2040 las máquinas consumirán más energía de la que se genera a nivel global. V. F.

La lista Green500 mide la eficiencia energética de los computadores en términos de operaciones por segundo por vatio. V. F.

El consumo energético de los programas es una medida de rendimiento que siempre se incluye en las métricas de rendimiento de los programas. V. F.

Denunciar Test