option
Cuestiones
ayuda
daypo
buscar.php

Sistemas Operativos

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Sistemas Operativos

Descripción:
Tema 3: Memoria. GESTIÓN DE MEMORIA

Fecha de Creación: 2025/06/15

Categoría: Otros

Número Preguntas: 520

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál es la principal característica de la gestión de memoria en los sistemas de monoprogramación?. Utiliza técnicas avanzadas como paginación y segmentación. Cada proceso tiene su propio espacio de direcciones virtuales. No requiere mecanismos complejos de organización de memoria. Permite ejecutar múltiples programas simultáneamente.

¿Qué ventaja fundamental aporta la virtualización de la memoria?. Permite a cada proceso tener la ilusión de una memoria exclusiva y continua. Aumenta el rendimiento de la CPU. Elimina por completo los fallos de página. Elimina la necesidad de un sistema operativo.

¿Cuál fue una de las principales motivaciones para pasar de monoprogramación a multiprogramación?. Reducir el coste del hardware. Evitar el uso de interrupciones. Mejorar la utilización del procesador y otros recursos. Simplificar la estructura del sistema operativo.

¿Qué técnica permite dividir la memoria física en bloques de tamaño fijo?. Segmentación. Fragmentación dinámica. Paginación. Swapping.

En un sistema multiprogramado, ¿qué componente decide qué proceso debe acceder a la CPU en un momento dado?. El gestor de memoria. El planificador (scheduler). El compilador. La tabla de páginas.

¿Qué problema soluciona la segmentación en la gestión de memoria?. Fragmentación interna. Fragmentación externa. La necesidad de traducción de direcciones. La representación lógica de estructuras de datos.

¿Cuál es uno de los principales retos al gestionar memoria en sistemas multiprogramados?. Evitar el uso de memoria RAM. Compartir espacio de direcciones entre procesos sin protección. Asegurar protección y aislamiento entre procesos. Impedir la ejecución concurrente.

En la asignación contigua con particiones estáticas, ¿qué característica es cierta respecto a la memoria disponible?. La memoria se divide dinámicamente a medida que llegan los procesos. Cada partición puede contener múltiples procesos a la vez. Las particiones se definen antes de la ejecución y tienen tamaño fijo. No hay fragmentación externa.

¿Qué problema se presenta principalmente en la asignación contigua con particiones dinámicas?. Fragmentación interna. Fragmentación externa. Imposibilidad de reutilizar memoria. Asignación aleatoria de procesos a marcos.

En los métodos de asignación no contigua, como la paginación, ¿qué sucede si no hay suficiente espacio en memoria principal?. Se bloquean los procesos hasta liberar espacio. El sistema termina el proceso más grande. Se utiliza la memoria virtual y puede producirse swapping. La CPU deja de ejecutar instrucciones.

¿Qué ventaja clave ofrece la segmentación paginada sobre los modelos de segmentación o paginación por separado?. Elimina la necesidad de tablas de páginas. Combina la organización lógica de la segmentación con la eficiencia de la paginación. Simplifica el direccionamiento lógico. No requiere traducción de direcciones.

¿Cuál de las siguientes técnicas facilita la protección frente a accesos ajenos a la memoria de un proceso?. Asignación contigua con particiones dinámicas. Segmentación con uso de bits de protección. Uso de punteros directos en el código fuente. Carga de procesos directamente en direcciones físicas.

¿Qué criterio se usa generalmente para decidir cuánto tiempo permanece un proceso en memoria?. El tamaño del proceso. El uso del teclado por parte del usuario. Las políticas del planificador y el estado del proceso. El tipo de tabla de páginas usada.

¿Cuál de los siguientes métodos asigna memoria de forma no contigua y divide el espacio lógico del proceso en bloques del mismo tamaño?. Asignación contigua. Segmentación. Paginación. Particiones fijas.

¿Qué componente hardware es fundamental para la traducción de direcciones en esquemas de paginación?. ALU (Unidad aritmético-lógica). MMU (Unidad de gestión de memoria). DMA (Acceso directo a memoria). Scheduler (Planificador de procesos).

¿Cuál de los siguientes esquemas de gestión de memoria permite una mayor compartición controlada de código entre procesos?. Paginación. Asignación contigua con particiones fijas. Segmentación. Swapping.

En sistemas con paginación, ¿qué impacto tiene el uso de una TLB (Translation Lookaside Buffer)?. Aumenta la fragmentación externa. Mejora el tiempo efectivo de acceso a memoria. Impide la segmentación. Disminuye el tamaño de las páginas.

¿Qué esquema de gestión de memoria proporciona el mayor nivel de protección entre procesos?. Asignación contigua. Segmentación paginada. Particiones dinámicas. Swapping sin MMU.

En un sistema con paginación simple sin TLB, si el acceso a memoria tarda 100 ns y se necesita acceder a la tabla de páginas antes del dato, ¿cuál es el tiempo efectivo de acceso?. 100 ns. 150 ns. 200 ns. 50 ns.

¿Qué elemento se introduce en los sistemas modernos para mejorar el rendimiento del esquema de traducción de direcciones?. Un segundo nivel de cache de instrucciones. Una tabla de páginas invertida. La ejecución especulativa. El modo usuario del procesador.

Qué esquema de gestión de memoria puede presentar problemas de rendimiento si la TLB tiene un bajo índice de aciertos?. Asignación contigua. Segmentación pura. Paginación. Swapping.

¿Qué componente del procesador determina la dirección de la próxima instrucción a ejecutar?. ALU. MMU. Contador de programa (PC). Registro de estado.

¿Cómo se denomina el conjunto de direcciones que genera un programa en ejecución?. Tabla de páginas. Espacio físico de direcciones. Espacio lógico de direcciones. Buffer de memoria.

¿Por qué es fundamental que el sistema operativo conozca qué partes de la memoria están libres u ocupadas?. Para poder aumentar el tamaño del procesador dinámicamente. Para poder liberar la memoria caché constantemente. Para asignar y liberar memoria de manera eficiente y segura. Para ejecutar más instrucciones por ciclo.

¿Qué sucede cuando varios procesos comparten la memoria física sin una gestión adecuada?. Se reduce el tamaño de las instrucciones. Aumenta la velocidad del bus de datos. Se puede producir acceso indebido a datos de otros procesos. Se activa el reloj del sistema.

¿Qué estructura utiliza el sistema operativo para rastrear el uso de la memoria?. Árbol AVL. Cola circular. Mapa de bits o listas enlazadas. Buffer LRU.

¿Cuál es una forma en que el sistema operativo garantiza que la CPU accede solo a la memoria válida para el proceso actual?. Eliminando la pila del programa. Comprobando las direcciones lógicas con la MMU. Sincronizando el reloj del procesador. Ejecutando procesos solo en modo kernel.

¿Qué responsabilidad tiene el sistema operativo respecto a la secuencia de direcciones generadas por un programa en ejecución?. Debe crear una nueva instrucción por cada dirección generada. Debe traducirlas directamente al lenguaje máquina. Debe asegurar que esas direcciones sean válidas y estén mapeadas a memoria física. Debe reiniciar el contador de programa tras cada instrucción.

¿Qué condición es indispensable para que un proceso pueda comenzar su ejecución?. Debe estar en el disco duro. Debe estar completamente compilado. Debe estar cargado en la memoria principal. Debe estar en estado bloqueado.

¿Cuál es una de las funciones principales del sistema operativo en relación con la memoria?. Comprimir datos de los procesos. Monitorear la velocidad del procesador. Gestionar qué zonas de memoria están libres u ocupadas. Eliminar procesos inactivos automáticamente.

¿Qué sucede si dos procesos acceden simultáneamente a la misma zona de memoria sin control del sistema operativo?. Mejora el rendimiento del sistema. Se reduce el uso de memoria virtual. Puede producirse corrupción de datos o fallos del sistema. Se libera espacio para otros procesos.

¿Cuál es una estructura común que usa el sistema operativo para llevar el control del uso de la memoria?. Árbol de expansión. Cola de procesos. Mapa de bits o tabla de asignación. Pila de interrupciones.

¿Qué significa que una zona de memoria esté libre?. Que contiene datos listos para ser leídos. Que puede ser asignada a un nuevo proceso. Que solo puede ser utilizada por el sistema operativo. Que fue previamente ocupada por la CPU.

¿Por qué es importante para el sistema operativo saber qué proceso ocupa cada zona de memoria?. Para reducir el número de interrupciones. Para eliminar procesos que usan demasiada memoria. Para poder liberar memoria cuando el proceso termina. Para evitar el uso de memoria caché.

¿Qué nombre recibe la técnica que permite que un proceso se ejecute sin estar completamente en memoria?. Segmentación física. Multiprogramación. Memoria virtual. Caché compartida.

¿Qué responsabilidad tiene el sistema operativo en un sistema con memoria virtual?. Obligar al usuario a cargar sus datos manualmente. Gestionar automáticamente el traslado de datos entre memoria y disco. Comprimir los datos antes de almacenarlos. Limitar el uso de disco a procesos privilegiados.

¿Qué término describe la transferencia de parte de un proceso desde la memoria al disco o viceversa?. Cacheo. Paginación en línea. Swapping. Segmentación lógica.

¿Cuál de las siguientes afirmaciones es verdadera respecto al usuario en sistemas con memoria virtual?. Debe seleccionar manualmente qué partes de su proceso se cargan en memoria. Tiene que sincronizar la carga desde el disco. No necesita preocuparse por la localización del código y datos. Puede elegir qué páginas quedan permanentemente en RAM.

¿Qué estructura usa el sistema operativo para determinar qué parte del proceso debe permanecer en memoria y cuál puede ir al disco?. Tabla de inodos. Tabla de paginación o de segmentos. Registro del contador de programa. Árbol de expansión de procesos.

¿Qué ventaja principal ofrece al usuario la gestión automática del intercambio entre disco y memoria?. Reduce el uso de la CPU. Elimina la necesidad de compilar el programa. Aumenta la percepción de capacidad de memoria. Duplica el tamaño físico de la memoria RAM.

¿Por qué es necesaria la protección de la memoria en sistemas multiprogramados?. Para reducir la latencia de acceso a disco. Para evitar que un proceso acceda o modifique la memoria de otro. Para que los procesos compartan variables globales. Para permitir la ejecución simultánea de instrucciones.

¿Qué podría suceder si un proceso accede a una dirección de memoria que pertenece a otro proceso?. Se mejora el rendimiento del sistema. Se generan variables compartidas automáticamente. Se podrían modificar datos ajenos y generar errores de ejecución. El sistema se apaga por seguridad.

¿Qué objetivo cumple el sistema operativo en relación con la protección de memoria?. Comprimir el espacio de direcciones físicas. Sincronizar los accesos entre procesador y disco. Establecer límites y permisos de acceso a las direcciones de memoria. Eliminar procesos que usan demasiada memoria.

¿Qué mecanismo hardware suele utilizarse para apoyar la protección de memoria en tiempo de ejecución?. El bus de datos. El controlador DMA. La unidad de gestión de memoria (MMU). El reloj del sistema.

¿Qué estructura puede usar el sistema operativo para impedir accesos indebidos a ciertas páginas de memoria?. Árbol binario de búsqueda. Tabla de saltos condicionales. Tabla de páginas con bits de acceso y protección. Registro de pila de llamadas.

¿Cuál de las siguientes acciones sería una violación de la protección de memoria?. Un proceso accede a una variable en su propio stack. Un proceso intenta ejecutar código del kernel. Un proceso solicita memoria mediante malloc. Un proceso accede a su propia tabla de símbolos.

¿Qué se intenta evitar con la protección de memoria entre procesos?. Que varios procesos accedan a la misma entrada de teclado. Que un proceso consuma todos los ciclos de CPU. Que un proceso cause efectos colaterales en otros procesos por modificar su memoria. Que los procesos compartan variables estáticas.

¿Qué ventaja se obtiene al impedir que un proceso lea direcciones de memoria que no le pertenecen?. Se reduce el uso de memoria RAM. Se mejora la velocidad de acceso a disco. Se garantiza la privacidad del código y datos de otros procesos. Se acelera el intercambio de contexto.

¿Qué determina principalmente el método de gestión de memoria que se utilizará en un sistema?. El número de procesos activos. La cantidad de RAM disponible. El tipo de máquina virtual y el hardware subyacente. El sistema de archivos usado.

¿Qué es una “máquina virtual” en el contexto de gestión de memoria?. Un disco duro lógico compartido por todos los procesos. Un entorno simulado que abstrae los detalles del hardware real. Un tipo especial de compilador. Un gestor de dispositivos de entrada/salida.

¿Qué busca el sistema operativo al elegir una estrategia de gestión de memoria?. Reducir el número de procesos simultáneos. Minimizar el tamaño de los ejecutables. Optimizar el rendimiento del sistema. Eliminar la memoria secundaria.

¿Por qué puede ser diferente la forma de gestionar la memoria entre distintos sistemas?. Porque todos los sistemas usan memorias ópticas. Porque cada sistema operativo tiene su propio lenguaje de programación. Porque la gestión depende del hardware y del tipo de máquina virtual deseado. Porque el usuario define manualmente la tabla de páginas.

¿Qué nivel de protección puede ofrecer un sistema operativo en un sistema bien diseñado?. Solo impide escribir en memoria ajena, pero permite leer. Permite compartir sin restricción. Puede impedir tanto la lectura como la escritura fuera del espacio asignado. Solo protege las direcciones de sistema, no las de otros procesos.

¿Qué define una estrategia de gestión de memoria en un sistema operativo?. El orden de las instrucciones del procesador. El tamaño de los discos duros. El comportamiento de la organización de memoria según distintas políticas. El tipo de compilador utilizado.

¿Qué política está relacionada con decidir el momento en que se carga un programa en la memoria principal?. Política de reemplazo. Política de asignación. Política de carga. Política de compartición.

¿Qué implica una política de carga por demanda?. Que se cargan todos los programas al inicio del sistema. Que el programa se carga cuando el usuario enciende el ordenador. Que un programa se carga en memoria solo cuando el sistema lo necesita. Que se almacenan los programas en caché para su futura ejecución.

¿Qué ventaja busca una política de carga anticipada?. Aumentar el uso de disco. Reducir el tiempo de espera del usuario al predecir futuras ejecuciones. Forzar al usuario a esperar menos. Impedir la ejecución de múltiples procesos.

¿Cómo se llama la política que decide en qué parte de la memoria colocar un nuevo proceso?. Política de expulsión. Política de ubicación. Política de prefetching. Política de escalado.

¿Cuál de los siguientes aspectos es evaluado por las estrategias de gestión de memoria?. Qué sistema de archivos usar en disco. Qué proceso tendrá más prioridad de CPU. Cuándo cargar un programa y dónde ubicarlo en memoria. Qué temperatura tiene el procesador.

¿Cuál es el objetivo común de las estrategias de carga y ubicación en la memoria?. Maximizar el uso del disco duro. Minimizar los accesos al sistema de archivos. Optimizar el uso de la memoria y mejorar el rendimiento del sistema. Facilitar el acceso directo del usuario a la RAM.

¿Qué ventaja tiene colocar los programas lo más cerca posible unos de otros en memoria?. Se mejora la seguridad del sistema. Se reduce el desperdicio de espacio de memoria. Se acelera la ejecución del programa. Se facilita la paginación.

¿Qué objetivo tiene colocar programas en memoria lo más rápidamente posible, sin buscar el hueco más óptimo?. Reducir el uso de disco. Reducir el tiempo empleado en la toma de decisiones de ubicación. Evitar la fragmentación interna. Aumentar la segmentación.

¿Qué tipo de memoria caracteriza a los sistemas actuales?. Memoria cache. Memoria física directa. Memoria virtual. Memoria óptica.

¿Cuál es el valor actual de muchas de las técnicas tradicionales de gestión de memoria?. Siguen siendo ampliamente utilizadas sin cambios. Son obsoletas y ya no se enseñan. Aunque tienen valor histórico, sientan las bases de los sistemas modernos. Solo se usan en sistemas empotrados.

¿Qué problema puede surgir si solo se busca reducir al máximo el espacio ocupado en memoria?. Aumento de la velocidad del sistema. Se puede ralentizar el proceso de carga por complejidad en la búsqueda de huecos óptimos. Se reduce la protección de memoria entre procesos. Aumenta el tamaño de los programas.

¿Qué técnica permite abstraer la memoria física y ofrecer a los procesos una vista lógica y aislada de la memoria?. Asignación dinámica. Fragmentación externa. Memoria virtual. Segmentación fija.

¿Qué condición deben cumplir los programas y datos para poder ser ejecutados o referenciados?. Estar guardados en la memoria secundaria. Estar en la caché de disco. Estar ubicados en la memoria principal. Estar en el sistema de archivos.

¿Qué ocurre con los datos o programas que no se necesitan de inmediato?. Se eliminan para liberar espacio. Se archivan manualmente por el usuario. Se mantienen en la memoria secundaria hasta que se requieran. Se guardan en caché permanentemente.

¿Qué característica tiene la memoria secundaria en comparación con la principal?. Es más cara y más rápida. Es más lenta y más cara. Es más barata y de mayor capacidad. Es más pequeña y volátil.

¿Cuál es una desventaja principal de la memoria secundaria respecto a la memoria principal?. No permite guardar datos permanentemente. Requiere electricidad constante para conservar datos. Tiene un tiempo de acceso significativamente más lento. No se puede reutilizar.

¿Por qué existe una jerarquía de memoria en los sistemas de cómputo?. Para hacer más sencillo el diseño de hardware. Para evitar la sobrecarga del procesador. Para equilibrar velocidad, coste y capacidad de almacenamiento. Para mantener toda la información en caché.

¿Qué tipo de soporte puede considerarse parte de la memoria secundaria?. Memoria caché. Memoria RAM. Disco duro (HDD) o estado sólido (SSD). Registro del procesador.

¿Qué consecuencia tienen las transferencias frecuentes entre niveles de memoria en un sistema jerárquico?. Aumentan la seguridad del sistema. Consumen recursos del sistema, como el tiempo de CPU. Reducen la necesidad de gestionar la memoria. Evitan el uso de memoria virtual.

¿Qué mejora introdujo la inclusión de la memoria caché en la jerarquía de memoria?. Reducción del tamaño del sistema operativo. Mejora del rendimiento general del sistema. Eliminación de la memoria principal. Sustitución de la memoria secundaria.

¿Cuál es una característica destacada de la memoria caché frente a la memoria principal?. Es más lenta pero más estable. Es más barata y más grande. Es más rápida pero mucho más cara. Se encuentra en la memoria secundaria.

¿Por qué la memoria caché suele tener un tamaño reducido?. Porque solo guarda procesos del sistema. Porque tiene un acceso más lento. Porque es extremadamente cara. Porque no es necesaria en sistemas modernos.

¿Qué función cumple principalmente la memoria caché en la jerarquía de memoria?. Sustituir a la memoria RAM. Actuar como respaldo de la memoria secundaria. Almacenar de forma temporal los datos más usados para acelerar el acceso. Dividir la CPU en procesos paralelos.

¿Desde cuándo se comenzó a implementar el uso de la memoria caché en la jerarquía de memoria de los sistemas?. A partir de los años 40. A partir de los años 50. A partir de los años 60. A partir de los años 80.

¿Cuál es el objetivo principal de introducir la memoria caché en la jerarquía de memoria?. Reducir el uso de memoria secundaria. Aumentar la capacidad total del sistema. Mejorar la velocidad de ejecución de los programas. Almacenar archivos temporales.

¿Desde dónde se transfieren los programas antes de ejecutarse en la memoria caché?. Desde la CPU. Desde la memoria secundaria. Desde la memoria principal. Desde la red.

¿Cuál es la esperanza de los diseñadores al introducir una memoria caché entre la CPU y la memoria principal?. Que reduzca el uso de la CPU. Que el esfuerzo por transferir datos sea inferior al aumento de rendimiento conseguido. Que elimine la necesidad de segmentación. Que reemplace la paginación.

¿Por qué los programas se ejecutan más rápido en la memoria caché que en la memoria principal?. Porque la caché está optimizada para almacenar discos duros. Porque evita que el sistema operativo intervenga. Porque tiene menor latencia y mayor velocidad de acceso. Porque se encuentra más cerca del sistema de archivos.

¿Qué implica el uso de la memoria caché en términos de arquitectura del sistema?. Añadir complejidad por la gestión de niveles de memoria. Eliminar la necesidad de programación estructurada. Evitar el uso de memoria secundaria. Desactivar la multitarea en el sistema operativo.

¿Qué ocurre si el trabajo de transferencia de información a la caché es mayor que el rendimiento obtenido?. El sistema se estabiliza automáticamente. Se reduce el consumo energético. Se pierde la ventaja de usar memoria caché. Aumenta la eficiencia del sistema.

¿Cuál es una característica principal de los sistemas monoprogramados?. Pueden ejecutar múltiples procesos de usuario simultáneamente. Requieren paginación para gestionar la memoria. Sólo existe un proceso de usuario que ocupa casi toda la memoria. Requieren una tabla de segmentación compleja.

¿Por qué la gestión de memoria en sistemas monoprogramados es más sencilla?. Porque se ejecuta desde disco directamente. Porque sólo se usa la memoria caché. Porque no hay necesidad de compartir la memoria entre múltiples procesos. Porque el sistema operativo no reside en memoria.

En un sistema monoprogramado, ¿qué partes suelen ocupar la memoria principal?. Memoria virtual y tabla de páginas. Disco duro y caché. Sistema operativo y único proceso de usuario. Segmentos compartidos y procesos en paralelo.

Según el diseño del sistema, ¿en qué parte de la memoria puede residir el sistema operativo?. Siempre en disco duro. En la parte baja de la RAM o en la parte alta de la ROM. En el buffer de la tarjeta gráfica. En la memoria caché únicamente.

¿Qué componente NO es necesario en la gestión de memoria de sistemas monoprogramados?. Registro de base y límite. Tablas de paginación. Partición del S.O. y del proceso. Dirección absoluta.

¿Qué ventaja ofrece la gestión de memoria en sistemas monoprogramados frente a sistemas multiprogramados?. Menor velocidad de ejecución. Mayor protección entre procesos. Simplicidad en la asignación y control de la memoria. Mejor gestión de la caché.

¿Dónde ubica el PC de IBM la BIOS (Basic Input/Output System)?. En la parte baja de la RAM. En la memoria secundaria. En la parte alta de la ROM. En la memoria caché.

¿Qué función cumple la BIOS en un sistema como el PC de IBM?. Ejecuta el sistema operativo completo. Gestiona procesos en segundo plano. Ofrece funciones básicas de entrada/salida y control de dispositivos. Gestiona la paginación de memoria.

¿Qué parte del sistema operativo se ubica en la RAM en el PC de IBM?. La BIOS. El gestor de memoria virtual. Parte del sistema operativo. El sistema de archivos.

¿Qué es una dirección absoluta de memoria?. Una dirección lógica que depende del proceso. Una dirección relativa al segmento actual. Una dirección física específica en la memoria. Una dirección asignada por el compilador.

¿Qué riesgo existe si el usuario escribe programas con direcciones absolutas?. Mejora la compatibilidad entre sistemas. El programa se vuelve portátil entre arquitecturas. El programa solo funcionará si el sistema tiene exactamente la misma organización de memoria. El programa se ejecutará más rápido sin importar la arquitectura.

¿Qué ventaja ofrece escribir programas con direcciones absolutas en algunos sistemas antiguos como el PC de IBM?. Seguridad de ejecución. Compatibilidad con todos los dispositivos. Mayor control sobre el hardware. Independencia del sistema operativo.

¿Qué caracteriza a una dirección relativa de memoria?. Es una dirección absoluta usada por el sistema operativo. Es una dirección respecto a una base o comienzo del programa en memoria. Es una dirección generada por hardware directamente. Es una dirección asignada por el usuario manualmente.

¿Por qué los compiladores no generan direcciones absolutas de memoria?. Porque solo trabajan con archivos fuente. Porque la dirección exacta de carga del proceso no se conoce en tiempo de compilación. Porque las direcciones absolutas son más fáciles de generar por el intérprete. Porque la memoria RAM no lo permite.

¿Qué suposición se hace al generar direcciones relativas en un programa?. Que el sistema operativo está ubicado en ROM. Que el programa va a ejecutarse directamente desde el disco. Que el programa comienza en la dirección 0 de la memoria. Que el programa no usará variables.

¿Qué entidad se encarga de traducir el código fuente del usuario a direcciones relativas en memoria?. El sistema operativo. El cargador. El compilador. El programador.

¿Cuál es una ventaja del uso de direcciones relativas frente a absolutas?. Permiten una ejecución más rápida del programa. Hacen que el programa sea independiente del lugar donde se cargue. Obligan al usuario a conocer la memoria física. Permiten modificar directamente el hardware.

¿Qué sucede con las direcciones relativas en tiempo de carga o ejecución?. Se convierten automáticamente en absolutas mediante el uso de una dirección base. Son ignoradas por el hardware. Se almacenan en disco como direcciones reales. Se traducen directamente por el compilador.

¿Qué característica distingue a los sistemas operativos de monoprogramación más básicos en términos de protección de memoria?. Disponen de segmentación avanzada. Emplean paginación para proteger el sistema operativo. No implementan mecanismos de protección de memoria. Permiten multitarea con aislamiento de procesos.

¿Qué puede suceder si un proceso de usuario modifica posiciones de memoria del sistema operativo en un sistema sin protección?. Se mejora el rendimiento del sistema. Se produce una ejecución más eficiente del sistema operativo. Se pueden generar errores al ejecutarse la zona afectada del sistema operativo. Se evita el uso de memoria virtual.

¿Por qué los sistemas monoprogramados no requieren protección entre procesos?. Porque no tienen memoria física. Porque no existen procesos en segundo plano. Porque solo hay un proceso de usuario en memoria. Porque todos los procesos se ejecutan en paralelo.

¿Qué tipo de computadoras suelen utilizar sistemas monousuario y monoprogramación?. Supercomputadoras. Servidores en la nube. Microcomputadoras o computadoras personales básicas. Sistemas multiprocesador modernos.

¿Cuál es la principal consecuencia de no disponer de protección de memoria en un sistema operativo?. Mayor eficiencia del sistema. Riesgo de corrupción o fallo del sistema operativo por parte del usuario. Acceso directo al sistema de archivos. Aislamiento entre procesos.

¿Qué solución implementan los sistemas modernos para evitar que el usuario modifique zonas del sistema operativo?. Usan memorias estáticas. Eliminan el acceso a disco. Emplean mecanismos de protección por hardware y software. Ejecutan el SO desde la caché.

¿Qué función cumple el registro de límite integrado en la CPU en cuanto a protección de memoria?. Indicar la cantidad máxima de memoria disponible. Almacenar el número total de procesos activos. Contener la dirección a partir de la cual se encuentra el sistema operativo. Controlar la velocidad de acceso a memoria.

¿Qué verifica el hardware en tiempo de ejecución respecto al registro de límite?. Que las direcciones estén en la memoria secundaria. Que las direcciones generadas no superen el valor del registro de límite. Que las instrucciones estén compiladas correctamente. Que la memoria no esté fragmentada.

¿Qué ocurre si un proceso de usuario genera una dirección mayor al valor del registro de límite?. El proceso se pausa temporalmente. Se reinicia la CPU automáticamente. Se produce una interrupción que suele terminar el proceso. El acceso se redirige a memoria virtual.

¿Qué ventaja principal aporta el uso del registro de límite en sistemas monoprogramados con protección?. Mejora la paginación. Permite ejecutar varios procesos a la vez. Protege el sistema operativo de modificaciones por parte del usuario. Reduce el tamaño del sistema operativo.

¿Qué tipo de mecanismo es el registro de límite para la protección de memoria?. Mecanismo de software implementado por el compilador. Mecanismo de hardware integrado en la CPU. Estrategia de virtualización por parte del sistema operativo. Protocolo de acceso a memoria secundaria.

¿Qué ocurre si el acceso a memoria por parte del proceso está dentro del rango permitido por el registro de límite?. Se interrumpe el proceso. El acceso se realiza con normalidad. El proceso se bloquea hasta que libere memoria. El sistema operativo solicita confirmación.

¿Cuál es el objetivo principal de la multiprogramación en relación con la memoria?. Reducir el tamaño de los procesos. Aumentar la velocidad del procesador. Compartir la memoria entre varios procesos para mejorar la utilización del sistema. Evitar el uso de memoria secundaria.

¿Qué nueva tarea de gestión aparece en sistemas multiprogramados que no está presente en sistemas monoprogramados?. Compilación de procesos en paralelo. Recuento y control de zonas de memoria ocupadas y libres. Limitación de acceso al disco duro. Traducción de instrucciones a código máquina.

¿Qué ocurre cuando un nuevo proceso necesita entrar en memoria en un sistema multiprogramado?. Se crea una nueva partición fija. Se espera a que finalicen todos los procesos. Se le asigna una zona libre previamente registrada. El proceso se cancela por falta de espacio.

¿Por qué se complica la gestión de memoria en un sistema multiprogramado respecto a uno monoprogramado?. Porque se usan más compiladores. Porque hay que almacenar programas en ROM. Porque se deben manejar múltiples procesos en memoria simultáneamente. Porque se bloquean todas las instrucciones de usuario.

¿Cuál es una condición necesaria para que un proceso pueda ejecutarse en un sistema multiprogramado?. Debe estar ubicado en el disco duro. Debe ser el proceso más corto. Debe estar cargado en la memoria principal. Debe tener más prioridad que los demás.

¿Por qué no se puede conocer la dirección física de un programa en el momento de su escritura?. Porque aún no se conoce el lenguaje de programación usado. Porque el programa debe estar en disco primero. Porque no se sabe en qué zona de memoria se cargará en tiempo de ejecución. Porque se compila directamente en memoria secundaria.

¿Cuál es la función principal del sistema de traducción de direcciones?. Traducir el programa de un lenguaje a otro. Convertir direcciones lógicas en direcciones físicas. Reubicar procesos en disco. Asignar prioridades a las instrucciones del programa.

¿Qué implica que un proceso pueda cambiar varias veces de emplazamiento en memoria durante su ejecución?. El proceso pierde su estado. Es necesario volver a compilar el programa. Se requiere soporte para reubicación dinámica. Se reduce el rendimiento del disco.

¿Por qué es especialmente importante la protección de memoria en sistemas multiusuario?. Porque los usuarios pueden usar diferentes lenguajes de programación. Porque la memoria se vuelve más rápida. Porque los procesos pueden pertenecer a distintos usuarios y no deben interferirse. Porque se ejecutan menos procesos simultáneamente.

¿Qué se necesita para que un sistema pueda reubicar un proceso mientras se está ejecutando?. Que use direccionamiento absoluto. Que el programa sea de solo lectura. Que exista traducción dinámica de direcciones. Que todos los procesos pertenezcan al mismo usuario.

¿Qué característica define a la técnica de partición fija de memoria?. Crea particiones del mismo tamaño dinámicamente. Permite cargar procesos en cualquier marco libre. Divide la memoria en particiones estáticas definidas al generar el sistema. Utiliza un sistema de intercambio entre segmentos.

¿Cuál es la principal desventaja de la partición dinámica de memoria?. Genera fragmentación interna. Limita el número de procesos activos. Requiere compactación para evitar la fragmentación externa. Requiere hardware especializado.

¿Qué ventaja ofrece la técnica de paginación simple?. Permite cargar procesos solo parcialmente. Elimina la fragmentación externa. No requiere tabla de páginas. Usa segmentos en lugar de páginas.

¿Qué técnica divide a cada proceso en segmentos lógicos, como código, pila y datos?. Paginación simple. Segmentación simple. Paginación virtual. Segmentación con paginación.

¿Cuál es una ventaja de la memoria virtual paginada frente a la paginación simple?. Reduce la necesidad de una tabla de páginas. Elimina la fragmentación interna. Permite cargar solo las páginas necesarias bajo demanda. No requiere hardware adicional.

¿Qué técnica de gestión de memoria ofrece un soporte superior para protección y compartición entre procesos?. Segmentación virtual. Paginación simple. Partición fija. Paginación virtual.

¿Cuál de las siguientes técnicas requiere un alto costo de gestión debido a su complejidad?. Partición fija. Paginación simple. Segmentación virtual. Partición dinámica.

¿Qué define a la asignación contigua de memoria?. El proceso se divide en páginas antes de cargarlo. Cada proceso se ubica en marcos no consecutivos de memoria. Todo el proceso se carga en posiciones de memoria consecutivas. El sistema operativo asigna memoria mediante segmentación.

¿Cuál es la principal desventaja de las particiones fijas en la asignación contigua?. Generan fragmentación externa. Los procesos se cargan parcialmente. Requieren complejos algoritmos de traducción de direcciones. Generan fragmentación interna.

¿Qué mejora introduce la asignación con particiones dinámicas respecto a las estáticas?. Elimina la necesidad de gestión de memoria. Evita la fragmentación interna al ajustar el tamaño de la partición al proceso. Aumenta el número de procesos simultáneos al dividir cada proceso en páginas. Requiere menos espacio en disco.

¿Qué problema común tienen en general las técnicas de asignación contigua?. Alto coste de gestión del sistema operativo. Fragmentación interna o externa, dependiendo del tipo de partición. Incompatibilidad con hardware moderno. Requieren cargar los procesos parcialmente.

En la asignación con particiones fijas, ¿qué ocurre si un proceso es más grande que cualquier partición disponible?. Se lo divide en varias partes. Se almacena solo parcialmente. No se puede cargar en memoria. Se compacta la memoria para hacerlo caber.

¿Cuál es la principal característica de las particiones estáticas o fijas?. Cada proceso puede ocupar varias particiones al mismo tiempo. La memoria se divide dinámicamente según las necesidades del sistema. La memoria se divide en zonas de tamaño fijo y predefinido. Las particiones cambian automáticamente de tamaño al cargar un proceso.

¿Qué ocurre si un proceso está preparado para ejecutarse en una partición específica que ya está ocupada?. El proceso se divide para ocupar varias particiones. El proceso se asigna a la siguiente partición disponible, aunque sea de diferente tamaño. El proceso entra en espera hasta que su partición específica quede libre. El sistema elimina al proceso por conflicto de memoria.

¿Qué tipo de compilación se usaba comúnmente en sistemas con particiones fijas?. Compilación relativa con direcciones simbólicas. Compilación modular para asignación segmentada. Compilación con ensamblador absoluto para una partición específica. Compilación dinámica que adapta el código en tiempo de ejecución.

¿Cuál es una clara desventaja de las particiones fijas respecto al uso de la memoria?. No permiten reubicar procesos en memoria. Requieren sistemas operativos complejos. Provocan fragmentación externa al dividir los procesos. Obligan a usar direccionamiento virtual.

¿Por qué las particiones fijas pueden provocar pérdida de eficiencia del sistema?. Porque los procesos se duplican al cargar en varias particiones. Porque cada proceso requiere su propio sistema operativo. Porque un proceso puede quedar bloqueado si su partición está ocupada, aunque haya otras libres. Porque los procesos se almacenan parcialmente.

¿Por qué los programas se escriben utilizando direcciones relativas en lugar de absolutas?. Porque el compilador no puede generar direcciones físicas. Porque permite ejecutar el programa más rápidamente. Porque facilita que el programa se cargue en cualquier parte de la memoria. Porque evita que el programa acceda a la memoria secundaria.

Si un programa está escrito con direcciones relativas, ¿cómo se transforman estas en direcciones físicas al cargarse en memoria?. Se traducen manualmente por el programador. Se modifican usando un traductor de lenguaje de alto nivel. Se ajustan automáticamente mediante un registro de base o un mecanismo de reubicación. Se eliminan y se recalculan con cada instrucción.

¿Qué ventaja ofrece la reubicación frente al uso de direcciones absolutas en los programas?. Reduce el tiempo de ejecución del programa. Elimina por completo la fragmentación de la memoria. Permite mover los procesos en memoria durante la ejecución. Permite que los procesos compartan código.

¿Cuál es una condición necesaria para poder cargar un proceso en cualquier partición de memoria disponible?. Que el proceso use direcciones físicas. Que el proceso haya sido compilado para cada partición. Que el proceso esté escrito usando direcciones relativas. Que el sistema operativo reserve siempre la dirección cero.

¿Qué componente del sistema es responsable de transformar direcciones relativas en físicas durante la ejecución?. El planificador de procesos. El cargador del sistema operativo. El traductor de lenguaje ensamblador. El hardware mediante el registro base.

¿Qué función cumple el registro base en la gestión de memoria?. Indica el tamaño del proceso cargado. Controla el uso del procesador por parte del sistema operativo. Almacena la dirección de comienzo de la partición donde está el proceso. Contiene la dirección absoluta de todas las instrucciones del proceso.

¿Cuándo escribe el sistema operativo en el registro base la dirección correspondiente a un proceso?. Cada vez que el proceso ejecuta una instrucción. Durante la compilación del programa. Al cargar el sistema operativo. Durante el cambio de contexto o cambio de proceso.

¿Qué transformación realiza el hardware sobre las direcciones de memoria generadas por la CPU?. Las divide entre dos para optimizar el acceso. Las transforma en direcciones absolutas usando tablas. Las convierte en direcciones físicas sumando el valor del registro base. Las codifica para protegerlas.

¿Qué ventaja principal ofrece el uso del registro base respecto a otros métodos?. Permite la ejecución concurrente de instrucciones. Elimina completamente la fragmentación externa. Facilita la reubicación de procesos en distintas zonas de memoria. Aumenta la velocidad de acceso a disco.

¿Qué parte del sistema realiza la traducción de direcciones cuando se usa un registro base?. El compilador del lenguaje de programación. El sistema operativo durante el tiempo de compilación. El hardware, durante la ejecución de cada instrucción. El usuario mediante llamadas al sistema.

¿Qué función desempeña el enlazador (linker) en el proceso de reubicación de programas en memoria?. Convierte las instrucciones en lenguaje máquina directamente. Modifica los programas para que puedan ejecutarse sin importar dónde estén en memoria. Protege la memoria de accesos ilegales. Controla el planificador de procesos del sistema operativo.

¿Qué información necesita el enlazador para reasignar correctamente las direcciones de un programa?. El tamaño del sistema operativo. Una tabla con todos los procesos activos. Una lista de qué partes del programa contienen direcciones a modificar. Una copia exacta del código fuente original.

¿Qué sucede si no se indican correctamente las direcciones que deben reasignarse?. El sistema operativo rechaza el proceso. El programa se ejecuta más lento. Pueden producirse errores de ejecución al acceder a direcciones incorrectas. Se reduce el espacio ocupado en memoria.

¿Cuándo se realiza la reasignación por software en comparación con la realizada por hardware (registro base)?. Durante el tiempo de ejecución. Durante la fase de compilación. En el momento de carga del programa en memoria. Al finalizar la ejecución del programa.

¿Qué ventaja tiene el uso de un enlazador con tabla de reasignación respecto al uso exclusivo de direcciones absolutas?. Mejora la velocidad de ejecución del código. Permite compartir procesos entre varios usuarios. Facilita que el programa pueda cargarse en diferentes ubicaciones de memoria. Reduce el tamaño total del ejecutable.

¿Cuál es el propósito principal del registro base en un sistema con protección de memoria?. Indicar la cantidad de memoria total disponible para todos los procesos. Señalar el punto de inicio donde está cargado un proceso en la memoria física. Controlar el número de procesos activos. Evitar la fragmentación externa de memoria.

¿Qué función tiene el registro límite en el contexto de protección de memoria?. Indicar la prioridad del proceso. Establecer la dirección absoluta más alta que el proceso puede acceder. Medir el tiempo máximo de ejecución del proceso. Indicar el número de páginas de memoria que usa el proceso.

¿Qué operación realiza el hardware antes de acceder a la memoria en este esquema de protección?. Comprueba si el proceso está en espera. Suma el registro base a la dirección relativa y la compara con el límite. Multiplica la dirección lógica por el tamaño de página. Guarda la dirección de acceso en un buffer temporal.

¿Qué ocurre si un proceso accede a una dirección fuera del rango permitido por el registro límite?. Se reubica automáticamente en otra partición. Se suspende hasta que haya memoria disponible. Se genera una interrupción que puede provocar su eliminación. El sistema operativo redirige el acceso a la memoria secundaria.

¿Dónde se almacenan los valores del registro base y límite para cada proceso?. En el gestor de memoria secundaria. En la tabla de páginas. En el PCB (Process Control Block) del proceso. En la caché del procesador.

¿Por qué un proceso de usuario no puede ejecutar directamente las rutinas del sistema operativo en memoria?. Porque el sistema operativo no conoce el contenido del proceso. Porque la memoria del sistema operativo no está direccionada. Porque se viola la protección de memoria impuesta por el sistema operativo. Porque los procesos de usuario no tienen suficiente prioridad.

¿Cuál es el mecanismo correcto mediante el cual un proceso de usuario solicita un servicio al sistema operativo?. Realiza un acceso directo al código del S.O. Lanza una interrupción de hardware. Ejecuta una llamada al sistema (system call). Crea un hilo en modo kernel.

¿Qué evita la protección de memoria al no permitir que procesos de usuario accedan directamente al sistema operativo?. El uso ineficiente de CPU. El acceso simultáneo a memoria caché. La modificación o ejecución no autorizada del código del sistema operativo. La ejecución de código en paralelo.

¿Qué sucede si un proceso solicita una impresora que ya está siendo utilizada por otro proceso?. El sistema operativo reinicia al proceso que ocupa la impresora. El sistema operativo permite el acceso compartido. El sistema operativo deniega o pospone la petición. El proceso realiza la impresión en memoria secundaria.

¿Por qué es necesaria una llamada al sistema para que un proceso realice una operación de E/S?. Porque el hardware no puede realizar E/S sin asistencia. Porque sólo el núcleo del sistema puede acceder directamente al hardware. Porque las operaciones de E/S deben validarse en la nube. Porque los procesos no conocen las direcciones físicas de los dispositivos.

¿Qué es la fragmentación interna en sistemas de asignación de memoria contigua?. Cuando la memoria libre está dividida en pequeños bloques no contiguos. Cuando un proceso ocupa menos espacio que la partición asignada, dejando espacio inutilizado dentro de esa partición. Cuando un proceso no puede ser cargado porque la memoria está fragmentada. Cuando varias particiones tienen tamaños variables.

¿Cuál es la principal causa de la fragmentación interna en particiones estáticas?. Cambios en el tamaño del proceso durante su ejecución. La asignación de particiones con tamaño mayor que el tamaño real del proceso. La falta de protección entre procesos. La presencia de múltiples procesos en memoria.

¿Qué efecto tiene la fragmentación interna en la eficiencia de la memoria?. Mejora el rendimiento porque hay más memoria libre. No afecta el rendimiento ni el uso de memoria. Reduce la eficiencia al desperdiciar espacio dentro de las particiones asignadas. Provoca errores de ejecución en los procesos.

¿Cuál de las siguientes técnicas puede ayudar a reducir la fragmentación interna?. Asignación dinámica de memoria (particiones dinámicas). Utilizar particiones estáticas de tamaño fijo. Ejecutar un solo proceso en memoria. Aumentar el tamaño de las particiones.

¿Qué sucede cuando un proceso es más pequeño que la partición en la que se carga?. Se genera fragmentación externa. Se libera automáticamente el espacio sobrante. Se produce fragmentación interna. Se produce un error de asignación.

¿En qué consiste el método de asignación de memoria por particiones dinámicas?. Dividir la memoria en zonas de tamaño fijo y asignarlas a los procesos. Asignar a cada proceso exactamente la memoria que necesita en el momento de su carga. Asignar memoria a los procesos de forma aleatoria. Usar un espacio reservado para cada proceso sin modificarlo.

En un sistema de asignación dinámica, ¿qué sucede cuando un proceso termina?. Su espacio de memoria queda libre para ser reutilizado por otros procesos. La memoria asignada permanece ocupada hasta reiniciar el sistema. La memoria se asigna automáticamente a otro proceso específico. Se produce un error de memoria.

¿Cuál es una ventaja principal de las particiones dinámicas en comparación con las particiones estáticas?. Menor complejidad en la gestión de la memoria. Eliminación completa de la fragmentación. Mejor utilización del espacio de memoria al asignar tamaños ajustados a los procesos. Permite que los procesos accedan directamente al sistema operativo.

En un sistema de particiones dinámicas, ¿qué problema puede surgir tras múltiples asignaciones y liberaciones de memoria?. Fragmentación externa, espacios libres dispersos en memoria. Fragmentación interna, espacio desperdiciado dentro de particiones. Bloqueo del sistema operativo. Pérdida de datos de los procesos.

¿Qué problema se evita con el método de asignación por particiones dinámicas?. Fragmentación externa. Fragmentación interna. Desbordamiento de memoria. Problemas de protección de memoria.

¿Qué problema surge en las particiones dinámicas debido a la liberación y reasignación de memoria?. Fragmentación interna. Fragmentación externa. Sobrecarga del sistema operativo. Violación de la protección de memoria.

¿Por qué la fragmentación externa es un problema en sistemas con particiones dinámicas?. Porque aumenta la cantidad de procesos en memoria. Porque impide utilizar completamente la memoria disponible al quedar fragmentada en pequeños huecos. Porque genera errores en el sistema operativo. Porque los procesos pierden información al ejecutarse.

¿Cuál sería una solución común para mitigar la fragmentación externa en particiones dinámicas?. Aumentar el tamaño de la memoria física. Compactar la memoria para unir los huecos libres. Usar particiones fijas. Incrementar la protección de memoria.

¿En qué consiste la compactación de memoria?. Dividir la memoria en particiones fijas. Desplazar los procesos hacia la parte inferior de la memoria para unir huecos libres. Eliminar procesos que no están en uso. Asignar más memoria a los procesos grandes.

¿Cuál es una desventaja importante de la compactación?. Aumenta la fragmentación interna. Genera errores de protección de memoria. Consume mucho tiempo y detiene todas las actividades del sistema durante su ejecución. Reduce la capacidad total de memoria.

¿Por qué la compactación no siempre se realiza inmediatamente cuando es necesaria?. Porque no mejora el rendimiento. Porque puede causar tiempos de respuesta irregulares para usuarios interactivos y problemas en sistemas de tiempo real. Porque la memoria nunca se fragmenta realmente. Porque es incompatible con particiones fijas.

¿Cuándo se suele realizar la compactación para minimizar su impacto en el rendimiento?. Durante las horas punta de uso. Durante la ejecución de procesos críticos. Durante las horas de poco uso, como la noche. Nunca se realiza.

¿Qué problema surge si se debe compactar con mucha frecuencia?. La memoria aumenta su tamaño. Los recursos consumidos pueden no justificar las ventajas obtenidas. Los procesos no pueden ejecutarse correctamente. Se incrementa la fragmentación interna.

¿Qué función cumplen los registros base y límite en la gestión de memoria?. Gestionan la entrada y salida de datos en disco. Permiten la reasignación de direcciones y la protección de memoria de los procesos. Dividen la memoria en particiones estáticas. Aumentan la capacidad total de memoria disponible.

¿Qué ocurre si un proceso se crea con un tamaño fijo invariante?. La asignación de memoria se vuelve más compleja. La asignación de memoria se simplifica, ya que se asigna lo que se necesite. No es posible proteger la memoria. Se genera fragmentación externa.

¿Por qué es importante el esquema de registros base y límite en la reasignación?. Porque permiten modificar el tamaño de los procesos en memoria. Porque traducen las direcciones relativas generadas por el programa a direcciones físicas. Porque eliminan la necesidad de protección de memoria. Porque almacenan los datos temporales del sistema operativo.

¿Qué sucede cuando un segmento de datos de un proceso crece y hay un hueco adyacente disponible?. El proceso debe ser eliminado. El proceso puede crecer hacia el hueco adyacente. El proceso se bloquea hasta que haya más memoria libre. La memoria se compacta automáticamente.

¿Qué ocurre si un proceso necesita crecer pero está adyacente a otro proceso y no hay hueco libre suficiente?. El proceso puede crecer igualmente sin problemas. El proceso debe ser desplazado a un hueco suficientemente grande o eliminado. Se produce una fragmentación interna. El sistema operativo asigna memoria virtual inmediatamente.

¿Cuál es una causa común del crecimiento dinámico de segmentos en los procesos?. La asignación estática de memoria. La asignación dinámica, como el uso de pilas en lenguajes de programación. El uso exclusivo de memoria virtual. La división en particiones fijas.

¿Cuál es la razón para asignar memoria adicional a un proceso cuando se carga en memoria?. Para aumentar la fragmentación externa. Para evitar que el proceso pueda crecer. Para reducir el gasto asociado con el traslado de procesos cuando crecen. Para garantizar que el proceso termine rápidamente.

¿Qué ventaja tiene asignar espacio adicional a un proceso al cargarlo en memoria?. Aumenta la complejidad del sistema operativo. Disminuye la eficiencia del procesador. Reduce el número de traslados y compactaciones necesarias. Incrementa la fragmentación interna sin beneficios.

¿Qué sucede con la memoria situada entre el segmento de datos y el stack?. No se usa para ningún segmento. Solo se usa para el segmento de datos. Solo se usa para el stack. Puede usarse para cualquiera de los dos segmentos.

¿Qué puede ocurrir si el espacio entre los segmentos de crecimiento se agota?. El proceso se bloquea indefinidamente. El proceso es desplazado a otro hueco más grande o eliminado. El sistema operativo aumenta automáticamente la memoria física. No pasa nada, el proceso sigue ejecutándose sin problema.

¿Qué información se debe registrar en cada partición en un sistema de memoria con particiones estáticas?. Solo el tamaño máximo de la partición. Si está libre u ocupada, proceso que la ocupa, y sus direcciones de inicio y fin. Únicamente el identificador del proceso. La cantidad de procesos que han pasado por la partición.

¿Por qué es más sencillo llevar el registro de ocupación en particiones estáticas que en dinámicas?. Porque la memoria se asigna de forma continua. Porque las particiones no cambian de tamaño ni ubicación. Porque solo existe un proceso en memoria. Porque el sistema operativo no necesita saber qué procesos están en cada partición.

¿Qué permite el registro de ocupación de memoria en particiones estáticas?. Ejecutar múltiples procesos en una misma partición. Detectar errores en tiempo de ejecución automáticamente. Controlar qué particiones están disponibles para nuevos procesos. Evitar la fragmentación interna completamente.

¿Cuál es una característica principal de las particiones dinámicas respecto a las estáticas?. Las particiones tienen un tamaño fijo durante la ejecución. El número y tamaño de particiones permanece constante. Las particiones varían en tamaño y cantidad a lo largo del tiempo. No requieren control de ocupación de memoria.

¿Qué técnica de gestión de memoria utiliza una representación secuencial indicando bloques ocupados o libres?. Listas enlazadas. Algoritmo de compactación. Mapas de bits. Paginación.

¿Qué opción describe correctamente el uso de listas enlazadas para gestionar la memoria?. Cada entrada de la lista representa un proceso que se ha terminado. La lista guarda solo los bloques ocupados, ignorando los libres. Cada nodo representa un bloque contiguo de memoria (libre u ocupado), con tamaño y estado. Se utiliza exclusivamente en sistemas con particiones fijas.

¿Cuál es una desventaja de usar mapas de bits para gestionar memoria?. No permite saber el tamaño de las particiones. Solo puede ser usado en sistemas monoprogramados. Requiere recorrer muchos bits para encontrar un espacio contiguo libre grande. No permite compactar la memoria.

¿Cómo se divide la memoria al utilizar un mapa de bits?. En segmentos fijos de tamaño variable. En unidades de asignación de tamaño fijo. En páginas físicas dinámicas. En bloques de longitud indefinida.

¿Qué indica un bit con valor 0 en un mapa de bits de memoria?. Que el sistema operativo está utilizando esa unidad. Que la unidad está protegida. Que la unidad está libre. Que la unidad contiene código del usuario.

¿Qué problema puede surgir al usar mapas de bits con unidades de asignación muy pequeñas?. Exceso de fragmentación externa. Alto consumo de memoria para el mapa de bits. Imposibilidad de compilar programas. Falta de soporte para procesos concurrentes.

¿Qué ventaja ofrece un mapa de bits para la gestión de memoria?. Permite reducir la fragmentación interna completamente. Es el más rápido para localizar bloques grandes contiguos. Facilita identificar fácilmente bloques libres y ocupados. Requiere muy poca lógica de hardware para implementarse.

¿Qué efecto tiene elegir una unidad de asignación muy pequeña en un sistema con mapa de bits?. Reduce el desperdicio de memoria interna. Hace innecesaria la protección de memoria. Reduce el tamaño del mapa de bits. Mejora la velocidad de acceso a disco.

¿Qué desventaja tiene elegir unidades de asignación muy pequeñas?. Aumenta la fragmentación externa. Incrementa el tamaño del mapa de bits. Ocupa más espacio físico en disco. Impide usar registros base y límite.

¿Qué ocurre si se elige un tamaño de unidad de asignación demasiado grande?. El mapa de bits se vuelve ilegible. No se pueden usar procesos pequeños. Puede haber desperdicio de memoria en la última unidad asignada a un proceso. Se genera un error de protección.

¿Cuál es la relación ideal entre el tamaño de la unidad de asignación y el tamaño promedio de los procesos?. La unidad de asignación debe ser igual al tamaño máximo de proceso. Debe ser mayor al promedio para reducir fragmentación externa. Debe ser significativamente menor al tamaño promedio para minimizar el desperdicio. Debe ser cercana al tamaño promedio para equilibrar eficiencia y tamaño del mapa.

¿Qué representa cada nodo en una lista enlazada de segmentos de memoria?. Una instrucción del sistema operativo. Un mapa de bits de procesos en ejecución. Un segmento de memoria, ya sea libre o asignado. Una dirección virtual traducida.

¿Qué información contiene cada entrada de la lista enlazada en la gestión de memoria?. Solo el nombre del proceso y su prioridad. Código binario del programa. Tipo de segmento (P o H), dirección inicial, longitud y puntero al siguiente segmento. Número de registros utilizados por el proceso.

¿Qué ventaja tiene el uso de listas enlazadas sobre los mapas de bits para gestionar la memoria?. Mayor velocidad de acceso aleatorio a la memoria. Reduce el consumo de CPU para el planificador. Representación más directa y flexible de bloques contiguos. Facilita el direccionamiento absoluto.

¿Qué desventaja puede tener el uso de listas enlazadas en la gestión de memoria?. Aumenta la fragmentación interna. Exige mayor uso de registros base y límite. Su gestión requiere más operaciones de recorrido y mantenimiento. Solo es aplicable a sistemas monoprogramados.

¿Cuál es la ventaja de mantener la lista de segmentos ordenada por direcciones?. Permite usar direcciones virtuales en vez de físicas. Facilita la compactación sin intervención del sistema operativo. Permite actualizar la lista directamente cuando un proceso termina. Minimiza la fragmentación interna.

¿Cuántos vecinos puede tener normalmente un proceso en la lista de segmentos de memoria?. Uno, siempre. Ninguno. Dos, excepto si está al inicio o al final. Cuatro.

¿Qué sucede si el proceso que termina está entre dos huecos libres?. No se realiza ninguna modificación en la lista. Solo se marca como hueco, sin eliminar nodos. Se fusionan tres entradas en una sola. Se intercambia con el último proceso de la lista.

¿Por qué sería conveniente que la lista enlazada sea doblemente enlazada?. Para duplicar la memoria usada y evitar fragmentación. Para evitar el uso de punteros. Para facilitar la búsqueda de entradas anteriores y permitir fusiones. Porque es la única forma de representar huecos de memoria.

¿Cuál es el propósito de una estrategia de colocación en sistemas con particiones dinámicas?. Determinar qué procesos deben ser eliminados. Elegir el hueco más grande para un proceso nuevo. Decidir en qué hueco libre se colocará un nuevo proceso. Compactar la memoria automáticamente.

¿Qué característica tiene en común la mayoría de algoritmos de colocación?. Que requieren compactación cada vez que se asigna memoria. Que operan sobre una lista ordenada por tamaños. Que se basan en una lista de huecos ordenada por direcciones. Que asignan memoria sólo en bloques contiguos del mismo tamaño.

¿Qué suposición se hace al aplicar estrategias de colocación?. Que la memoria virtual siempre está activada. Que el tamaño del proceso es variable durante la ejecución. Que se conoce la cantidad de memoria requerida por el proceso. Que se usa segmentación y paginación combinadas.

¿Qué problema buscan resolver las estrategias de colocación?. Fragmentación interna. Elección del algoritmo de planificación de CPU. Optimización del uso del espacio libre en memoria. Control de acceso a dispositivos de E/S.

¿Qué hace el algoritmo First Fit?. Busca el hueco más grande disponible para el proceso. Elige aleatoriamente un hueco para asignar memoria. Recorre la lista de huecos hasta encontrar el primero que sea suficientemente grande. Compacta la memoria antes de cada asignación.

¿Qué ocurre si el hueco encontrado por First Fit es mayor que el tamaño del proceso?. El proceso se descarta. El sistema asigna todo el hueco al proceso. Se divide el hueco en dos partes: una para el proceso y otra para el espacio no usado. El proceso se guarda parcialmente en otro hueco.

¿Cuál es la principal ventaja del algoritmo First Fit?. Siempre encuentra el hueco más óptimo. Genera la menor fragmentación interna posible. Es rápido, porque detiene la búsqueda en cuanto encuentra un hueco válido. Maximiza el uso del espacio en disco.

¿Qué inconveniente puede presentar First Fit a largo plazo?. Tiende a dejar huecos grandes sin usar. Genera fragmentación externa en las primeras zonas de la memoria. No permite reutilizar huecos liberados. Consume mucha CPU durante la búsqueda.

¿Qué hace el algoritmo Best Fit?. Recorre la lista de huecos y selecciona el primero que sea suficientemente grande. Elige el hueco más grande de todos, aunque no se ajuste. Busca en toda la lista y selecciona el hueco más pequeño que sea suficiente para el proceso. Asigna el proceso a la primera dirección libre.

¿Cuál es el objetivo principal del algoritmo Best Fit?. Minimizar el número total de procesos en memoria. Crear huecos grandes entre procesos para facilitar la compactación. Minimizar el desperdicio de memoria tras la asignación. Aumentar el tiempo de búsqueda para optimizar recursos.

¿Cuál es la principal desventaja de Best Fit en comparación con First Fit?. No funciona con procesos grandes. Es más lento porque debe recorrer toda la lista de huecos. Genera más fragmentación interna. Solo sirve en sistemas de tiempo real.

¿Qué tipo de fragmentación tiende a generar Best Fit con el tiempo?. Interna, por sobredimensionamiento. Externa, con muchos huecos pequeños dispersos. De página, por tamaño desigual de procesos. Ninguna, porque siempre encuentra el hueco ideal.

¿Cuál es el objetivo del algoritmo Worst Fit?. Elegir el hueco más pequeño disponible. Repartir la memoria de forma equitativa entre los procesos. Escoger el hueco más grande disponible para ubicar al proceso. Evitar completamente la fragmentación externa.

¿Qué problema intenta evitar Worst Fit respecto a Best Fit?. La reasignación de registros base. La fragmentación interna en memoria virtual. La creación de huecos muy pequeños inútiles. El uso de mapas de bits ineficientes.

¿Cuál es una desventaja del algoritmo Worst Fit?. Es más rápido que First Fit, pero menos preciso. Siempre crea fragmentación interna. Puede dejar huecos grandes inutilizados si no se gestionan bien. No funciona con procesos de tamaño variable.

¿Cuál es la estrategia opuesta a Worst Fit en la asignación de memoria?. Paging. First Fit. Best Fit. Compactación.

¿De qué depende el número de procesos en estado listo en un sistema de particiones estáticas?. Del tamaño total de la memoria. Del número de particiones. Del número de procesos creados. Del tamaño de cada proceso.

En un sistema con particiones dinámicas, ¿de qué depende la cantidad de procesos que pueden estar listos?. Solo del número de particiones. Del tamaño de la memoria principal y del tamaño de los procesos. Solo del tamaño del proceso más grande. Del tiempo que cada proceso tarda en ejecutarse.

En sistemas con particiones estáticas o dinámicas, ¿cuánto tiempo permanece un proceso en una partición?. Hasta que termine su ejecución. Hasta que otra tarea lo desaloje. Solo durante el tiempo que se utiliza la CPU. Hasta que se complete su entrada/salida.

¿Por qué muchos sistemas operativos permiten ejecutar más procesos de los que caben en memoria principal?. Para reducir la velocidad de ejecución. Para aprovechar mejor la capacidad de almacenamiento de la memoria secundaria. Porque la memoria principal es más lenta que la secundaria. Para simplificar la gestión de procesos.

¿Dónde se encuentra la copia completa de cada proceso?. En la memoria principal. En el procesador. En la memoria secundaria (disco). En la CPU.

¿Qué condición debe cumplirse para que un proceso pueda ejecutarse?. Debe estar almacenado en el disco duro. Debe estar residente en la memoria principal. Debe estar en la CPU. Debe tener acceso a la memoria secundaria.

¿Por qué es beneficioso aumentar el número de procesos con instrucciones en memoria principal?. Porque reduce la velocidad de la CPU. Porque disminuye la probabilidad de que todos los procesos estén bloqueados. Porque la memoria principal es más lenta que la secundaria. Porque hace que la CPU se bloquee más frecuentemente.

¿Qué efecto tiene tener muchos procesos disponibles en memoria principal sobre la CPU?. La CPU permanecerá más tiempo inactiva. La CPU tendrá menos trabajo que hacer. La CPU estará menos tiempo inactiva, aumentando su utilización. No afecta a la CPU.

¿Qué es el “swapper” en algunos sistemas UNIX?. Un programa para mejorar la velocidad de la CPU. El planificador de nivel medio que mueve procesos entre memoria y disco. Un tipo de memoria secundaria. Un comando para reiniciar el sistema.

¿Cuándo se inicia el intercambio de memoria principal al disco (swapping out)?. Cuando hay memoria libre suficiente. Cuando el sistema necesita memoria libre y toda la memoria está ocupada. Cuando un proceso finaliza. Cuando el usuario apaga el sistema.

¿Cuál de los siguientes eventos puede desencadenar el swapping?. La llamada al sistema fork para crear un proceso hijo. Una llamada al sistema para liberar memoria. La ejecución normal sin peticiones de memoria. Ninguno de los anteriores.

¿Qué sucede si una pila crece más allá de la memoria asignada?. Se ignora el crecimiento. Puede activarse el swapping para mover procesos y liberar espacio. El sistema se apaga automáticamente. El proceso continúa sin problemas.

¿Qué significa “swapping in”?. Mover un proceso desde memoria principal a disco. Mover un proceso desde disco a memoria principal. Eliminar un proceso de la memoria. Copiar un proceso a otro disco.

¿Qué suele ser necesario para realizar un swapping in cuando la memoria está llena?. Detener todos los procesos en memoria. Sacar otro proceso de la memoria principal al disco (swapping out). Incrementar el tamaño de la memoria principal. No es necesario hacer nada.

¿Por qué puede ser necesario sacar a otro proceso a disco para poder realizar un swapping in?. Porque la memoria principal es limitada y puede no tener espacio disponible. Porque es obligatorio mantener un número fijo de procesos en disco. Para evitar que el proceso en disco se ejecute. No es necesario sacar ningún proceso en general.

¿Cuál es el tipo de proceso preferido por el intercambiador para ser sacado de memoria?. Proceso listo. Proceso bloqueado. Proceso nuevo. Proceso suspendido.

¿Qué criterio se usaba para elegir entre varios procesos bloqueados cuál sacar?. Aleatorio. Prioridad y tiempo en memoria principal. Orden alfabético. El que menos memoria usa.

¿Qué sucede si no hay procesos bloqueados en memoria para sacar?. Se detiene el sistema. Se elige un proceso listo según los mismos criterios. No se puede sacar ningún proceso. Se crea un nuevo proceso.

¿Con qué frecuencia revisa el intercambiador la lista de procesos suspendidos en disco?. Cada minuto. Cada pocos segundos. Una vez al día. Solo al iniciar el sistema.

¿Cuál es el criterio para seleccionar un proceso suspendido_listo del disco?. El que menos tiempo lleva en disco. El que lleva más tiempo en disco. El proceso más pequeño. El proceso con menor prioridad.

¿Qué define un intercambio fácil?. Cuando se puede cargar el proceso sin sacar otros procesos de memoria. Cuando se debe sacar al menos un proceso para liberar espacio. Cuando no hay memoria suficiente para ningún proceso. Cuando el proceso es muy pequeño.

¿Qué ocurre durante un intercambio difícil?. No se carga ningún proceso. Se saca uno o más procesos para liberar espacio antes de cargar el proceso deseado. El sistema se reinicia. Se ignoran los procesos en disco.

¿Qué condición hace que el intercambiador deje de ejecutar su algoritmo?. Cuando la CPU está inactiva. Cuando todos los procesos están en estado bloqueado. Cuando no hay procesos suspendido_listo en disco o la memoria ya no admite más. Cuando hay solo un proceso en la memoria.

¿Por qué no se intercambian procesos a disco inmediatamente después de ser cargados en memoria?. Porque necesitan recibir permisos del usuario. Porque el proceso debe ejecutar al menos una instrucción. Porque deben permanecer en memoria un mínimo de 2 segundos. Porque el sistema espera una señal del hardware.

¿Qué objetivo tiene el límite mínimo de tiempo en memoria antes de intercambiar un proceso al disco?. Aumentar la frecuencia de intercambio. Prevenir que se acumulen procesos en disco. Evitar cambios constantes que afecten al rendimiento. Maximizar el uso de CPU.

¿Cómo se registraba el espacio libre tanto en memoria principal como en el dispositivo de intercambio?. Usando un mapa de bits. A través de listas enlazadas de huecos. Con tablas estáticas de segmentos. Usando estructuras de tipo árbol.

¿Qué hace el algoritmo del primero en ajustarse (First Fit) al buscar espacio para un nuevo proceso?. Recorre toda la lista para encontrar el hueco más pequeño posible. Divide todos los huecos grandes y escoge uno al azar. Elige el primer hueco suficientemente grande de la lista. Escoge el hueco que se encuentra al final de la lista.

¿Qué sucede con el hueco una vez ha sido asignado al proceso?. Se mueve al final de la lista de huecos. Se marca como parcialmente disponible. Se mantiene pero se ajusta su tamaño. Se elimina de la lista de huecos.

¿Cuál es la característica principal de la asignación de memoria no contigua?. Los procesos deben estar completamente en memoria para ejecutarse. La memoria se divide en huecos contiguos de tamaño fijo. Los bloques de un proceso pueden ubicarse en diferentes partes de la memoria principal. Cada proceso se asigna a una única partición de memoria.

¿Es necesario que todo el proceso esté cargado en memoria para su ejecución en el modelo de asignación no contigua?. Sí, de lo contrario se genera un error de protección. No, sólo deben estar los bloques actualmente referenciados. Sí, por motivos de rendimiento. No, pero sólo si el proceso es menor a 4 KB.

¿Cuál es una ventaja de la asignación no contigua frente a la contigua?. Reduce el uso de memoria secundaria. Elimina la fragmentación externa por completo. Permite ejecutar más procesos concurrentemente. Evita la necesidad de planificación de procesos.

¿Cuál es el principio fundamental de la memoria virtual?. Reducir el tamaño de los programas. Asignar memoria de forma estática. Separar direcciones lógicas de direcciones físicas. Almacenar todos los procesos únicamente en la RAM.

¿Qué permite la implementación de la memoria virtual?. Que todos los procesos estén completamente en memoria antes de ejecutarse. Que un proceso utilice la memoria principal directamente sin protección. Ejecutar procesos mayores que la memoria principal disponible. Usar sólo memoria secundaria para ejecutar procesos.

¿Qué papel juega el sistema operativo en la memoria virtual?. Almacena los procesos en cache. Controla la velocidad del CPU. Traduce las direcciones lógicas en físicas. Evita que los procesos se bloqueen.

¿Cómo se llama el conjunto de direcciones que puede utilizar un proceso en ejecución?. Espacio de direcciones reales. Espacio de direcciones físicas. Espacio de direcciones virtuales. Espacio de direcciones compartidas.

En un sistema con memoria virtual, ¿qué relación suele cumplirse entre |V| y |R|?. |V| = |R|. |V| < |R|. |V| > |R|. No hay una relación definida.

¿Qué representa el símbolo |V| en el contexto de la memoria virtual?. El número de procesos en memoria. El tamaño de la memoria RAM. La cantidad de direcciones virtuales posibles para un proceso. El número de marcos de página libres.

¿Cuál es la principal ventaja de utilizar memoria virtual?. Aumentar la velocidad de acceso a la memoria. Ejecutar programas sin necesidad de disco duro. Ejecutar programas más grandes que la memoria física disponible. Eliminar por completo la fragmentación de memoria.

¿Dónde se almacenan las partes de un proceso que no están siendo referenciadas en un sistema con memoria virtual?. En caché. En la memoria secundaria (disco). En la ROM. En la pila.

¿Quién es responsable de gestionar qué partes del proceso están en memoria y cuáles en disco en un sistema con memoria virtual?. El usuario. El BIOS. El compilador. El sistema operativo.

¿Cuál es el principio que permite que la memoria virtual funcione de forma eficiente?. Fragmentación interna. Multiprogramación. Localidad de referencia. Compilación en tiempo de ejecución.

¿Qué comportamiento presentan los programas que permite que la memoria virtual funcione adecuadamente?. Requieren acceso a toda su memoria constantemente. Operan en contextos amplios y variables. Acceden principalmente a zonas pequeñas de código y datos en cada momento. Saltan aleatoriamente entre direcciones de memoria.

¿Qué estructura común en los programas refuerza la localidad de las referencias a memoria?. Llamadas al sistema. Tablas de dispersión. Bucles. Segmentos de pila.

¿Quién formuló el principio de localidad aplicado a la gestión de memoria en 1970?. Alan Turing. Peter J. Denning. John von Neumann. Donald Knuth.

Según el principio de localidad, las referencias de un programa: Se distribuyen uniformemente por todo el espacio de direcciones. Saltan aleatoriamente entre distintas zonas de memoria. Se agrupan en pequeñas zonas del espacio de direcciones. Solo se producen durante la fase de inicialización.

¿En qué tipo de programas es más válida la observación del principio de localidad?. En los que acceden a estructuras de datos dispersas. En los que realizan cálculos recursivos. En los que acceden secuencialmente a vectores. En los sistemas embebidos.

¿Cuál es una ventaja clave de usar memoria virtual en un sistema con multiprogramación?. Aumenta el tamaño máximo del proceso. Permite ejecutar más procesos concurrentemente. Evita el uso de la memoria secundaria. Reduce el uso de operaciones de E/S.

¿Qué sucede cuando un proceso necesita cargar parte de su código o datos desde el disco?. El sistema detiene todos los procesos. La CPU entra en estado de espera. Se inicia una operación de entrada/salida. Se anula el proceso.

Durante una operación de E/S para cargar datos en memoria, la CPU... Queda inactiva. Ejecuta otro proceso. Espera a que termine la E/S. Se reinicia automáticamente.

¿Por qué es necesaria la traducción de direcciones virtuales a reales?. Porque los procesos no pueden acceder directamente al disco. Porque los procesos sólo generan direcciones virtuales durante su ejecución. Porque la CPU no utiliza direcciones reales. Para aumentar el tamaño físico de la memoria.

¿Qué consecuencia tendría una traducción lenta de direcciones virtuales a reales?. El proceso se reiniciaría. El sistema operativo fallaría. El tiempo de ejecución de los procesos aumentaría. Los procesos usarían menos memoria.

¿Qué componente del sistema suele encargarse de la traducción entre direcciones virtuales y reales?. El procesador gráfico. La BIOS. La MMU (Unidad de Gestión de Memoria). El compilador.

¿Cuándo se realiza la traducción de direcciones virtuales a reales en los métodos dinámicos?. En tiempo de compilación. En tiempo de ejecución. Sólo al iniciar el proceso. Nunca se realiza traducción.

¿Qué es la contigüidad artificial en memoria virtual?. Que las direcciones virtuales y reales siempre son idénticas. Que las direcciones contiguas virtuales pueden estar dispersas en la memoria física. Que la memoria física se organiza solo en bloques contiguos. Que la memoria virtual no tiene límites.

¿Quién percibe la contigüidad artificial en los programas?. El programador, que debe ajustar sus programas. El sistema operativo únicamente. Es transparente para el programador, que trabaja con direcciones virtuales consecutivas. El hardware solo.

¿Cuál es la función principal de los mapas de traducción dinámica?. Indicar qué partes de la memoria virtual están en memoria principal y dónde se ubican. Cambiar el tamaño de la memoria virtual. Ejecutar los procesos. Eliminar procesos que no se usan.

¿Qué incertidumbre existe en la división de los bloques de memoria virtual?. Si deben ser números primos o no. Si los bloques deben ser del mismo tamaño o tamaños diferentes. Si deben ser bloques o segmentos. Ninguna, siempre son del mismo tamaño.

¿Cómo se llaman los bloques de memoria cuando todos tienen el mismo tamaño?. Segmentos. Páginas. Fragmentos. Particiones.

¿Qué nombre recibe la organización de la memoria virtual cuando los bloques tienen tamaños variables?. Paginación. Segmentación. Compacidad. Fragmentación.

¿Qué describe el esquema llamado segmentación paginada?. Segmentos y páginas que son del mismo tamaño. Segmentos que contienen páginas de tamaño fijo. Páginas que se dividen en segmentos más pequeños. Una técnica que no usa ni segmentos ni páginas.

¿Cómo se representa una dirección virtual en un sistema de correspondencia bidimensional?. Como un número entero. Como un par ordenado (b, d). Como una dirección física. Como un vector.

En la dirección virtual (b, d), ¿qué representa la 'b'?. El desplazamiento dentro del bloque. El tamaño del bloque. El número de bloque. La dirección física.

¿Qué indica el componente 'd' en la dirección virtual (b, d)?. El número total de bloques. El desplazamiento desde el inicio del bloque hasta el elemento. El número de proceso. La dirección de memoria física.

¿Qué contiene la tabla de correspondencia de bloques de un proceso?. Las direcciones físicas de todos los procesos. Una entrada por cada bloque del proceso con su dirección real. Los tamaños de los bloques. El registro de origen de la tabla.

¿Qué función tiene el registro de origen de la tabla de correspondencia de bloques?. Almacenar la dirección virtual actual. Apuntar a la dirección real donde está la tabla de correspondencia del proceso activo. Guardar el número de bloques de un proceso. Contener la dirección real del bloque 0.

¿Cuándo se actualiza el registro de origen de la tabla de correspondencia de bloques?. Al iniciar el sistema operativo. Durante el cambio de proceso (context switch). Cuando se crea un nuevo bloque de memoria. Cuando se termina un proceso.

¿Cómo se calcula la dirección real de la entrada del bloque b en la tabla de correspondencia?. Sumando el desplazamiento 'd' a la dirección base 'a'. Multiplicando 'b' por 'd'. Sumando el número de bloque 'b' a la dirección base 'a'. Restando 'b' a 'a'.

¿Qué contiene la entrada correspondiente al bloque 'b' en la tabla de correspondencia?. El tamaño del bloque 'b'. El desplazamiento dentro del bloque 'b'. La dirección real ' b' ',donde comienza el bloque 'b'. La dirección virtual 'b'.

¿Cómo se obtiene la dirección real final 'r' de la referencia?. Sumando 'b' y 'a'. Sumando la dirección real del bloque ' b' ' y el desplazamiento 'd'. Multiplicando 'b' por 'd'. Restando 'd' de ' b' '.

¿Quién se encarga de realizar la traducción de direcciones virtuales a reales en un sistema de memoria virtual?. El compilador. El sistema operativo. El programador. El hardware.

¿Por qué no es adecuado que el sistema operativo realice la traducción de direcciones?. Porque el sistema operativo no tiene acceso a la memoria virtual. Porque ralentizaría la ejecución de los procesos. Porque no tiene los permisos necesarios. Porque solo puede traducir direcciones reales.

¿Qué se requiere de las operaciones de suma involucradas en la traducción de direcciones?. Que se hagan mediante interrupciones. Que se programen en lenguaje ensamblador. Que sean más rápidas que las sumas de lenguaje máquina convencionales. Que las realice el usuario.

¿Quién es responsable de rellenar y actualizar las tablas de correspondencia de bloques?. El programador. El hardware. El compilador. El sistema operativo.

¿Qué indica el bit de presencia en una tabla de correspondencia de bloques?. Si el proceso está suspendido. Si el bloque está en la memoria secundaria. Si el bloque está presente en la memoria principal. Si el proceso es de sistema o de usuario.

¿Qué ocurre si un proceso accede a una dirección cuyo bloque no está en memoria principal?. Se detiene el proceso. Se produce una interrupción que provoca el intercambio del proceso. Se ignora la instrucción. Se borra el bloque de disco.

¿Qué sucede cuando el hardware detecta que un bloque no está en memoria principal?. El bloque es eliminado. El sistema operativo reinicia el proceso. Se produce una interrupción para cargar el bloque faltante. El sistema ignora la instrucción.

¿Qué le ocurre al proceso que intenta acceder a un bloque que no está en memoria principal?. Se detiene permanentemente. Cambia al estado bloqueado. Se convierte en un proceso de sistema. Continúa ejecutándose normalmente.

¿Dónde puede almacenarse la información sobre la ubicación de los bloques en memoria secundaria?. En el programa fuente. En el firmware del hardware. En la tabla de correspondencia de bloques. En la cola de procesos listos.

¿Cuál es la característica principal del esquema de paginación?. Asigna bloques contiguos de memoria a los procesos. Permite cargar procesos en posiciones no contiguas de la memoria. Requiere que todo el proceso esté en memoria antes de ejecutarse. Divide la memoria en segmentos de distintos tamaños.

¿Qué nombre recibe la unidad en la que se divide la memoria física en un sistema paginado?. Segmentos. Clústeres. Marcos (frames). Huecos.

¿Qué problema evita el uso de paginación en la gestión de memoria?. Fragmentación interna. Fragmentación externa. Interrupciones de hardware. Multiprogramación.

¿Cómo se denomina la parte del espacio de direcciones virtuales que se encuentra en memoria principal en un momento dado?. Páginas compartidas. Páginas inactivas. Páginas activas. Páginas fijas.

¿Cuál de las siguientes afirmaciones describe mejor la relación entre páginas virtuales y marcos físicos en un sistema paginado?. Las páginas virtuales deben ser contiguas en la memoria física. Cada proceso tiene su propio conjunto de marcos físicos. Las páginas virtuales se asignan a marcos físicos de igual tamaño. Los marcos físicos pueden tener distintos tamaños según el proceso.

¿Qué ventaja principal ofrece la paginación respecto a la asignación de memoria?. Reduce el número de procesos en memoria. Elimina la necesidad de tablas de correspondencia. Evita cargar el proceso completo en memoria. Aumenta la velocidad de ejecución.

¿Cuál es una función clave del sistema de paginación en relación con las direcciones virtuales?. Eliminar procesos que no se usan. Determinar qué marco de memoria corresponde a una página virtual. Compactar las direcciones físicas. Fragmentar los datos de un proceso.

¿Qué ocurre si una página virtual referenciada no se encuentra en la memoria principal?. El sistema ignora la referencia. El sistema reinicia el proceso. Se transfiere la página desde la memoria secundaria. Se borra la tabla de páginas del proceso.

¿Qué hace el sistema si necesita cargar una página pero la memoria principal está llena?. Se cancela la operación. Se detiene la ejecución del proceso. Se descarta una página activa y se carga la nueva. Se duplica la memoria disponible automáticamente.

¿Qué parte de la dirección virtual indica la posición exacta dentro de una página?. El número de marco. El desplazamiento (offset). La dirección base. El índice de la tabla de marcos.

¿Cuál es el propósito de la tabla de páginas en la paginación?. Ejecutar instrucciones directamente desde el disco. Traducir direcciones físicas a virtuales. Mapear números de página a marcos físicos. Dividir procesos en segmentos.

¿Qué hardware interviene normalmente en la traducción de direcciones virtuales a físicas en paginación?. El disco duro. El compilador. La unidad de control del sistema operativo. La unidad de gestión de memoria (MMU).

¿Por qué el tamaño de página en paginación suele ser una potencia de 2?. Para minimizar el uso del disco. Para facilitar la traducción de direcciones virtuales a físicas. Porque así lo determina el sistema operativo. Para reducir el número de procesos activos.

Si una dirección virtual tiene m bits y el tamaño de página es 2^n, ¿qué representan los m−n bits más significativos?. El desplazamiento dentro de la página. El número de marco. El número de página. La dirección física.

¿Cuál de las siguientes afirmaciones es correcta respecto al tamaño de página?. Siempre lo elige el usuario en tiempo de ejecución. Puede cambiar dinámicamente mientras se ejecuta el programa. Lo define el hardware y suele ser una potencia de 2. No influye en la eficiencia de la traducción de direcciones.

¿Cuál es la dirección física correspondiente a la dirección lógica 4, si la página 1 está en el marco 4 y el tamaño de página es 4 bytes?. 12. 16. 8. 20.

En un sistema con páginas de 4 bytes y 32 bytes de memoria física, ¿cuántos marcos tiene la memoria?. 4. 6. 8. 16.

Si la dirección lógica 10 se encuentra en la página 2 y esta está en el marco 3, ¿cuál es la dirección física?. 10. 12. 14. 8.

¿Qué información contiene la p-ésima entrada de una tabla de páginas?. El tamaño de la página. La dirección física de la CPU. El marco de memoria donde está la página p. El desplazamiento dentro de la página.

¿Cómo se calcula la dirección física a partir de la dirección lógica (p, d)?. Dirección física = p + d. Dirección física = (p' x Tamaño de página) + d. Dirección física = (p' + d) + Tamaño de página. Dirección física = p' - d.

¿Qué ocurre si una página no se encuentra en memoria principal?. El sistema ignora la solicitud. Se produce una interrupción para cargarla desde memoria secundaria. Se redirige automáticamente a otra página. El proceso termina inmediatamente.

¿Cuál es la fórmula general para traducir una dirección lógica a una dirección física?. f(a) = a + 1. f(p,d) = p' x tamaño página + d. f(p,d) = p + d. f(p,d) = d- p'.

¿Cómo se obtiene el número de página a partir de una dirección lógica 'a' y un tamaño de página 'Z'?. p = a + Z. p = resto de (a/Z). p = parte entera de (a/Z). p = a x Z.

¿Qué parte de la dirección lógica representa el desplazamiento dentro de la página?. El cociente de a/Z. La parte entera de a. El bit menos significativo. El resto de a/Z.

¿Quién realiza la división de la dirección lógica en número de página y desplazamiento?. El compilador. El programador. El hardware. El sistema operativo.

¿Qué realiza el hardware cuando la CPU genera una dirección lógica?. La ejecuta directamente como dirección física. Llama al sistema operativo para traducirla. La transforma en una dirección física antes de ponerla en el bus. La ignora si es incorrecta.

¿Qué técnica de gestión de memoria permite reubicar dinámicamente direcciones en tiempo de ejecución?. Segmentación. Swapping. Paginación. Compilación.

¿Por qué no necesita el hardware realizar divisiones cuando el tamaño de página es potencia de 2?. Porque la división se hace en el software. Porque se usan registros especiales. Porque puede separar los bits de manera directa. Porque las direcciones son todas iguales.

Si una página tiene tamaño 2⁴ (16 bytes), ¿cuántos bits usará el desplazamiento dentro de una dirección lógica?. 2 bits. 4 bits. 8 bits. 16 bits.

¿Qué contiene el PCB en relación con la memoria del proceso?. El número total de instrucciones del proceso. La dirección de inicio de la tabla de páginas del proceso. El número de marcos disponibles en el sistema. Una copia completa del proceso en memoria.

¿Por qué algunas páginas de un proceso pueden no estar en la memoria principal?. Porque son parte del sistema operativo. Porque el proceso aún no ha empezado. Porque normalmente hay más páginas que marcos asignados. Porque las páginas son eliminadas al ejecutarse.

¿Qué sucede cuando un proceso hace referencia a una página que no está en memoria principal?. El proceso se reinicia. El sistema operativo la trae desde la memoria secundaria. La dirección se ignora. La CPU la genera automáticamente.

¿Cuál es el papel de la tabla de páginas durante el cambio de proceso?. Elimina las direcciones del proceso anterior. Se usa para convertir direcciones físicas en virtuales. Permite continuar la ejecución del nuevo proceso con su mapa de memoria. Guarda la configuración de dispositivos de E/S.

¿Qué ocurre si un proceso intenta acceder a una página que no está en la memoria principal?. La CPU termina el proceso automáticamente. El hardware genera una interrupción de E/S. El sistema operativo reinicia el proceso. El hardware genera una interrupción por fallo de página.

¿Qué hace el sistema operativo cuando se produce un fallo de página?. Suspende el sistema. Borra la tabla de páginas del proceso. Carga la página desde el disco a la memoria principal. Asigna un nuevo proceso a la CPU.

¿Qué le sucede al proceso que causó el fallo de página?. Continúa ejecutándose normalmente. Cambia de estado a bloqueado. Termina su ejecución. Se reinicia desde la primera instrucción.

¿Qué contiene la tabla de páginas cuando una página no está en memoria principal?. Una dirección inválida. El número de proceso dueño de la página. Un indicador de acceso rápido. Información para localizar la página en disco.

¿Cuál es la función principal del bit de presencia en la tabla de páginas?. Señalar si una página está protegida contra escritura. Determinar el tamaño de cada página. Indicar si la página está en memoria principal o secundaria. Asignar prioridad al proceso.

¿Qué ocurre si el bit de presencia indica que la página no está en memoria principal?. El sistema ignora la instrucción. El hardware activa una interrupción por fallo de página. La CPU ejecuta la instrucción de todos modos. El sistema operativo detiene el proceso.

¿Qué ventaja tiene almacenar la posición de las páginas en la misma tabla de páginas en lugar de usar una tabla separada?. Mayor seguridad del sistema. Acceso más rápido y menor complejidad. Menor uso de memoria secundaria. Independencia de la CPU.

¿Qué información contiene el campo de dirección de una entrada en la tabla de páginas cuando la página no está en memoria principal?. El nombre del archivo de intercambio. La dirección virtual de la página. La ubicación de la página en memoria secundaria. El identificador del proceso propietario.

¿Qué ocurre si se produce un fallo de página y no hay marcos libres en memoria principal?. El sistema operativo reinicia el proceso. Se cancela el acceso a memoria. Se termina el proceso que causó el fallo. Se debe elegir una página para reemplazarla.

¿Qué se utiliza para decidir qué página sacar de la memoria cuando no hay marcos libres?. Una tabla de intercambio. Un algoritmo de reemplazo de página. Una interrupción de segmento. El programador lo decide manualmente.

¿Para qué se utilizan los bits adicionales en la tabla de páginas?. Para codificar el tamaño del proceso. Para registrar las direcciones virtuales de respaldo. Para ayudar al algoritmo de reemplazo de páginas. Para acelerar el proceso de compilación.

¿Qué tipo de información podrían contener los bits adicionales en la tabla de páginas?. Clave de acceso al proceso. Dirección física del proceso padre. Registro de accesos recientes o frecuencia de uso. Tamaño del disco virtual.

¿Quién se encarga normalmente de transformar direcciones virtuales en físicas?. El sistema operativo. El compilador. El hardware. El usuario del sistema.

¿En qué situación el sistema operativo debe intervenir en la transformación de direcciones?. Siempre. Cuando el proceso entra en un bucle. Cuando ocurre un fallo de página. Cuando se accede a direcciones consecutivas.

¿Qué tareas realiza el sistema operativo al producirse un fallo de página?. Reinicia la CPU. Elimina el proceso afectado. Ejecuta un algoritmo de reemplazo y actualiza la tabla. Bloquea permanentemente el acceso a memoria.

¿Por qué se necesita que la transformación de direcciones sea rápida?. Para facilitar la depuración de errores. Para no perder tiempo en la compilación. Para que el acceso a memoria no ralentice la ejecución del proceso. Para evitar la fragmentación de memoria.

¿Dónde se guarda el puntero a la tabla de páginas de un proceso?. En la memoria secundaria. En el bloque de control de proceso (PCB). En el disco duro. En un registro temporal del hardware.

¿Qué se debe cargar al despachar un proceso para que funcione la paginación?. Sólo la tabla de páginas. Sólo los registros de usuario. Los registros de usuario y el registro con la dirección de la tabla de páginas. El código completo del proceso en memoria.

¿Por qué es importante cargar el registro con la dirección de la tabla de páginas al cambiar de proceso?. Para evitar errores de compilación. Para que el hardware traduzca correctamente direcciones virtuales a físicas del proceso en ejecución. Para mejorar la velocidad del sistema operativo. Para guardar espacio en disco.

¿Qué método se utiliza para implementar la tabla de páginas en hardware?. Memoria caché. Registros especiales. Disco duro. Memoria secundaria.

¿Quién carga los registros que implementan la tabla de páginas?. El usuario. El sistema operativo, específicamente el despachador. La CPU automáticamente. El hardware de la memoria.

¿Por qué no es viable implementar tablas de páginas grandes con registros?. Porque no hay suficiente memoria. Porque es demasiado caro y el tamaño es muy grande. Porque el hardware no soporta registros. Porque el software no lo permite.

¿Qué es el PTBR?. Un registro que contiene la dirección física actual. Un registro base que apunta a la tabla de páginas en memoria principal. Un registro que almacena la dirección virtual del proceso. Un registro para guardar el tamaño de la tabla de páginas.

¿Qué sucede cuando se cambia la tabla de páginas?. Se debe reiniciar la CPU. Se cambia el contenido del registro PTBR. Se actualizan todas las páginas en memoria. Se reinicia el sistema operativo.

¿Por qué se duplica el tiempo de acceso a memoria?. Porque el hardware es más lento. Porque ahora hay que acceder primero a la tabla de páginas en memoria principal, y luego a la memoria física. Porque la CPU hace más cálculos. Porque la tabla de páginas se encuentra en disco duro.

¿Qué es la TLB?. Un registro que almacena la tabla de páginas completa. Una caché hardware especial que almacena traducciones recientes de direcciones. Una parte del disco duro que almacena páginas usadas frecuentemente. Un programa que traduce direcciones en software.

¿Cómo funciona la búsqueda en la TLB?. Se busca secuencialmente una clave en todas las entradas. Se comparan todas las claves a la vez para encontrar un acierto rápido. Se consulta primero la tabla de páginas y luego la TLB. Se usa solo si la tabla de páginas no está disponible.

¿Qué ocurre si la página no está en la TLB?. Se produce un fallo de página. Se consulta la tabla de páginas en memoria principal. Se reinicia el proceso. Se ignora y se sigue con la ejecución.

¿Por qué la TLB tiene un tamaño pequeño?. Porque el hardware es caro y complejo. Porque la memoria principal es pequeña. Porque solo se necesitan 4 entradas. Porque la tabla de páginas es demasiado grande.

¿Qué debe contener preferentemente la memoria asociativa (TLB)?. Todas las páginas del proceso. Páginas con mayor probabilidad de ser referenciadas próximamente. Páginas que nunca se han usado. Direcciones físicas del disco duro.

¿Existe un algoritmo general que garantice la selección óptima de páginas para la TLB?. Sí, siempre. No, no existe un algoritmo general. Sí, pero es muy complejo. No, porque no se necesita.

¿Qué método se usa en la práctica para cargar la TLB?. Selección aleatoria de páginas. Carga cíclica de páginas referenciadas con más frecuencia recientemente. Carga de todas las páginas al inicio del proceso. Carga solo de páginas nuevas.

¿Cómo se considera el algoritmo que carga las páginas en la TLB?. Muy complejo. Primitivo, pero eficaz. Inútil. Perfecto y definitivo.

¿Qué representa la tasa de acierto en la TLB?. El porcentaje de fallos en la tabla de páginas. El porcentaje de veces que el número de página está en la TLB. La cantidad de tiempo que tarda la memoria en responder. El tamaño de la TLB.

Si la consulta a la TLB tarda 20 ns y el acceso a memoria 100 ns, ¿cuánto tarda un acceso con acierto en TLB?. 20 ns. 100 ns. 120 ns. 220 ns.

Si se tarda 20 nanosegundos en consultar el TLB y 100 nanosegundos en acceder a memoria principal, un acceso a memoria mediante TLB será 120 nanosegundos. Si no se encuentra en memoria asociativa (20 nanosegundos), hay que acudir a la tabla de páginas (100 nanosegundos) y luego acceder al byte o palabra deseada en memoria (100 nanosegundos), por tanto, 220 nanosegundos. En caso de fallo de TLB, ¿cuánto tarda el acceso a memoria?. 20 ns. 120 ns. 220 ns. 320 ns.

¿Cómo se calcula el tiempo efectivo medio de acceso a memoria?. Promediando los tiempos de acceso con acierto y fallo, ponderados por sus probabilidades. Sumando todos los tiempos de acceso. Multiplicando la tasa de acierto por el tiempo de acceso. Usando sólo el tiempo de acceso en caso de fallo.

¿Cómo se calcula el tiempo efectivo de acceso a memoria en presencia de TLB?. Como la suma simple de tiempos con y sin fallo. Como la media ponderada de tiempos según tasa de acierto y fallo. Multiplicando el tiempo con acierto por la tasa de fallo. Usando sólo el tiempo de fallo.

Si la tasa de acierto es 80%, el tiempo con acierto 120 ns, y el tiempo con fallo 220 ns, ¿cuál es el tiempo efectivo?. 120 ns. 140 ns. 180 ns. 220 ns.

¿Qué es la tabla de marcos en la gestión de memoria?. Una lista de páginas virtuales de un proceso. Una estructura que registra el estado de cada marco de memoria física. Una tabla de direcciones virtuales. Una lista de procesos activos.

¿Qué información contiene cada entrada de la tabla de marcos?. Dirección virtual del proceso. El contenido de la página almacenada. Si el marco está libre o asignado, y si está asignado, a qué página y proceso pertenece. La cantidad total de memoria disponible.

¿Cómo es la asignación de marcos a páginas?. Muy compleja y requiere mucho tiempo. Trivial, ya que sólo se asignan marcos libres a páginas. No es necesaria en sistemas con paginación. Solo la hace el hardware.

¿Por qué suele haber fragmentación interna en la paginación?. Porque las páginas tienen tamaños variables. Porque el tamaño del proceso casi nunca es múltiplo exacto del tamaño de página. Porque los procesos no usan toda la memoria que les asignan. Porque la memoria física no está fragmentada.

¿Qué es la fragmentación interna?. Memoria desperdiciada entre bloques físicos no contiguos. Memoria desperdiciada dentro de una página asignada pero no usada. Memoria desperdiciada entre procesos. Pérdida de memoria causada por errores del sistema operativo.

¿Cuánto espacio se desperdicia en promedio por proceso debido a la fragmentación interna?. Nada, se usa toda la memoria asignada. Una página completa. La mitad de una página. Más de una página.

¿Qué debe hacer el sistema operativo cuando un proceso de usuario pasa una dirección lógica como parámetro en una llamada al sistema?. Usar la dirección lógica directamente. Traducir la dirección lógica a una dirección física. Ignorar la dirección y usar una predeterminada. Convertir la dirección física a lógica.

¿Dónde se almacena la dirección de la tabla de páginas que usa el sistema operativo para la traducción?. En la memoria secundaria. En el descriptor o bloque de control de proceso (PCB). En un registro del procesador que el usuario puede modificar. En el stack del proceso.

¿Por qué es necesaria la traducción de direcciones lógicas a físicas?. Porque los programas solo usan direcciones físicas. Porque la CPU solo entiende direcciones lógicas. Porque la memoria física puede estar fragmentada y no contigua. Porque la dirección física es más fácil de recordar.

¿Dónde se almacenan normalmente los bits de protección en un sistema de paginación?. En el registro base de páginas. En la tabla de páginas. En la memoria secundaria. En la CPU.

¿Qué indica un bit de protección en la tabla de páginas?. Si la página está presente o no. El tamaño de la página. Si la página es de solo lectura o lectura/escritura. El número de marco en memoria física.

¿Qué sucede si un proceso intenta escribir en una página marcada como de solo lectura?. La escritura se realiza normalmente. Se genera una excepción hardware (violación de memoria). El sistema operativo ignora la operación. La página se copia automáticamente a memoria secundaria.

¿Qué tipos de protección se pueden implementar en un sistema de memoria paginada extendida?. Solo lectura y lectura-escritura. Solo ejecución. Combinaciones de lectura, escritura y ejecución. Todas las anteriores.

¿Qué ocurre cuando un proceso intenta realizar un acceso no permitido según los bits de protección?. El acceso se realiza sin problema. Se genera una excepción para el sistema operativo. Se ignora el acceso ilegal. La memoria se bloquea completamente.

¿Qué ventaja ofrece disponer de bits de protección independientes para cada tipo de acceso?. Reduce el tamaño de la tabla de páginas. Permite combinaciones flexibles de permisos (lectura, escritura, ejecución). Acelera la traducción de direcciones. Elimina la necesidad de excepción por violación de memoria.

¿Qué permite la paginación en relación con programas comunes en un sistema multiusuario?. Aumentar la memoria utilizada. Compartir páginas de programas reentrantes. Evitar que múltiples usuarios ejecuten el mismo programa. Eliminar la necesidad de memoria secundaria.

¿Qué es un programa reentrante?. Un programa que puede ser modificado durante su ejecución. Un programa que no modifica su propio código y puede ser compartido. Un programa que usa memoria virtual. Un programa que ejecuta múltiples procesos simultáneos.

En el ejemplo del editor de texto para 40 usuarios, ¿qué página(s) comparte cada proceso?. Páginas de datos. Páginas de código. Ambas páginas de datos y código. Ninguna página.

¿Qué característica define al código reentrante?. Se modifica a sí mismo durante la ejecución. No cambia durante la ejecución. Es exclusivo para un solo proceso. Contiene errores frecuentes.

¿Por qué es posible que varios procesos ejecuten el mismo código reentrante al mismo tiempo?. Porque cada proceso tiene su propia copia del código. Porque el código reentrante no se modifica y puede ser compartido. Porque el sistema operativo clona el código para cada proceso. Porque el código reentrante usa memoria secundaria.

¿Qué elementos son únicos para cada proceso que ejecuta código reentrante?. El código y el PCB. El código y la memoria de datos. El PCB y la memoria de datos. Ninguno, todo es compartido.

¿Qué se comparte entre los procesos para ahorrar memoria?. El espacio de datos. El código del programa. La tabla de páginas. El PCB.

¿Qué apunta cada tabla de páginas de un proceso en este sistema?. A diferentes copias del programa. A la misma copia física del programa y a datos propios. A una copia del programa en memoria secundaria. A la memoria virtual sin diferenciación.

¿Cuál es el beneficio principal de compartir el código entre varios procesos?. Incrementa la velocidad de ejecución. Reduce el espacio de memoria total utilizado. Evita errores de programación. Facilita la depuración.

¿Qué significa que un código sea reentrante?. Que se puede modificar en tiempo de ejecución. Que nunca se debe modificar durante la ejecución. Que es más rápido que otros códigos. Que usa menos memoria.

¿Por qué las páginas compartidas deben ser inamovibles?. Para evitar que un usuario modifique el código que usan todos. Para mejorar la velocidad del sistema operativo. Para permitir que varios usuarios modifiquen el mismo código. Para evitar fragmentación interna.

¿Quién debe garantizar que el código compartido sea de solo lectura?. El hardware de la CPU. El sistema operativo. El compilador. El usuario.

¿Qué diferencia destaca la segmentación respecto a la gestión de memoria?. Que la memoria física y lógica son siempre iguales. Que la memoria lógica del usuario no coincide con la memoria física real. Que no hay traducción de direcciones. Que la memoria física es siempre mayor que la lógica.

¿Qué permite la traducción de direcciones en segmentación?. Copiar datos de un proceso a otro. Convertir direcciones lógicas en físicas. Incrementar la velocidad de la CPU. Evitar la fragmentación interna.

¿Cómo concibe el usuario normalmente la memoria?. Como una tabla lineal de palabras contiguas. Como una colección de segmentos de longitud variable. Como una única página grande de memoria. Como una memoria sin estructura.

¿Los segmentos en la memoria del usuario están necesariamente ordenados de forma contigua?. Sí, siempre están contiguos. No, pueden estar distribuidos sin orden contiguo. Siempre están en orden inverso. No existen segmentos en la memoria del usuario.

¿Cómo se referencian los diferentes módulos o elementos de datos en un programa?. Por sus direcciones físicas de memoria. Por nombres simbólicos. Por números aleatorios. No se referencian.

¿Es importante conocer la dirección física de cada módulo mientras se escribe el programa?. Sí, siempre. No, no es necesario. Solo para funciones. Solo para variables.

¿Cómo se identifican los elementos dentro de un segmento?. Por dirección absoluta. Por su desplazamiento desde el inicio del segmento. Por su tamaño. Por el nombre del archivo.

¿Qué representa el espacio de direcciones lógicas en la segmentación?. Una lista de bytes contiguos. Una colección de segmentos. Una sola tabla de páginas. Un mapa de bits.

¿Qué información contiene una dirección lógica en segmentación?. Solo un desplazamiento. Un número de página y un desplazamiento. Un nombre de segmento y un desplazamiento. Solo un número de segmento.

¿Cada segmento tiene...?. Un nombre y un tamaño fijo. Un nombre y una longitud variable. Solo un nombre. Solo una longitud fija.

¿Cómo especificaba el usuario las direcciones en el esquema paginado?. Como un par número de segmento y desplazamiento. Como una única dirección lógica, que el hardware dividía en número de página y desplazamiento. Como un nombre de segmento y un desplazamiento. Como una dirección física.

En segmentación, ¿cómo se identifican normalmente los segmentos?. Por nombres simbólicos dados por el usuario. Por direcciones físicas. Por números de segmento asignados automáticamente. Por números de página.

¿Quién crea normalmente los segmentos en un programa?. El usuario manualmente. El sistema operativo en tiempo de ejecución. El ensamblador o compilador automáticamente. La CPU.

¿Qué partes del programa puede separar en segmentos un compilador de C?. Solo el código. Código y variables globales únicamente. Código, variables globales, variables locales, pilas de hebras, bibliotecas estándar y otras bibliotecas enlazadas. Solo las variables locales.

¿Qué función tiene el cargador respecto a los segmentos?. Ejecutar el código directamente. Asignar números de segmento a los segmentos creados por el compilador. Modificar el código del programa. Crear las pilas de las hebras.

¿Para qué se crean segmentos separados para las pilas de cada hebra?. Para almacenar código ejecutable. Para almacenar parámetros y direcciones de retorno en llamadas a procedimientos. Para las variables globales. Para almacenar bibliotecas.

¿Cómo es la dirección que utiliza el usuario en segmentación?. Una dirección lineal unidimensional. Una dirección bidimensional compuesta por número de segmento y desplazamiento. Solo un número de página. Un desplazamiento único.

¿Cómo es la memoria física real?. Bidimensional. Unidimensional (secuencia lineal de palabras). Dividida en segmentos visibles para el usuario. Organizada en tablas.

¿Qué estructura convierte una dirección lógica (segmento, desplazamiento) en dirección física?. Tabla de páginas. Registro base. Tabla de segmentos. Registro de desplazamiento.

¿De qué consta una dirección lógica en segmentación?. Número de página y desplazamiento. Número de segmento y desplazamiento. Dirección física y lógica. Registro base y límite.

¿Qué contiene cada entrada de la tabla de segmentos?. Solo la base del segmento. Solo el límite del segmento. Un par base y límite. Un número de página y un desplazamiento.

¿Qué ocurre si el desplazamiento d está fuera del rango válido?. Se calcula la dirección física como base + d de todos modos. Se produce una excepción de segmentación. Se accede a una dirección inválida sin advertencia. Se ignora el desplazamiento y se usa cero.

¿Cómo se calcula la dirección física?. d - base. base + d. base × d. base / d.

¿Dónde puede estar ubicada la tabla de segmentos?. Solo en registros rápidos. Solo en memoria principal. En registros rápidos o en memoria. Solo en memoria secundaria.

¿Qué ventaja tiene mantener la tabla de segmentos en registros?. Es más barato. Permite acceso más rápido. Evita fallos de página. Aumenta la memoria disponible.

En el PDP-11/45, ¿cuántos bits se usan para el número de segmento y para el desplazamiento?. 4 bits para segmento, 12 bits para desplazamiento. 3 bits para segmento, 13 bits para desplazamiento. 8 bits para segmento, 8 bits para desplazamiento. 16 bits para segmento, 0 bits para desplazamiento.

¿Qué información contiene cada entrada de la tabla de segmentos?. Dirección base, longitud y bits de control de acceso. Solo dirección base y número de segmento. Número de página y desplazamiento. Solo bits de control de acceso.

¿Qué tipos de acceso pueden definirse en los bits de control de acceso?. Solo lectura, escritura, ejecución. Acceso denegado, sólo lectura, lectura/escritura. Acceso público y privado. Ninguno.

¿Por qué no es factible mantener la tabla de segmentos en registros cuando hay muchos segmentos?. Porque los registros no tienen suficiente capacidad. Porque es más barato tenerla en memoria. Porque los segmentos cambian muy rápido. Porque la memoria es más lenta.

¿Qué indica el registro STLR?. La dirección base de la tabla de segmentos. La longitud (cantidad) de segmentos de la tabla. El tamaño de cada segmento. El número de bits en la dirección lógica.

¿Cuál es la función del registro STBR?. Guardar el desplazamiento dentro del segmento. Apuntar al inicio de la tabla de segmentos en memoria. Controlar el acceso a la memoria física. Almacenar la longitud de la tabla.

¿Cuántas referencias a memoria requiere la traducción de una dirección lógica a física con tabla en memoria?. Una. Dos. Tres. Cuatro.

¿Cómo se reduce la lentitud causada por las dos referencias a memoria?. Usando una tabla de páginas. Utilizando registros asociativos para guardar entradas recientes. Aumentando el tamaño de la memoria principal. Usando menos segmentos.

¿Cuántos registros asociativos se suelen usar para mejorar el rendimiento?. Entre 1 y 4. Entre 8 y 16. Más de 100. Ninguno, no se usan.

¿Cuál es una ventaja importante de la segmentación relacionada con la protección?. Los segmentos tienen todos el mismo permiso. La protección se asocia a segmentos completos con sentido semántico. No se puede proteger la memoria con segmentación. Los segmentos solo sirven para compartir memoria.

¿Qué tipo de permisos pueden asignarse a un segmento de instrucciones?. Lectura/escritura. Sólo escritura. Sólo lectura o sólo ejecución. Sin ningún permiso.

¿Por qué es importante que los segmentos de instrucciones sean no automodificables?. Para mejorar la velocidad. Para evitar que el código se modifique durante su ejecución. Para permitir que los usuarios cambien el código libremente. Porque es más fácil de programar.

¿Cómo ayuda la segmentación a proteger la memoria?. Eliminando segmentos grandes. Aplicando control de acceso específico a cada segmento según su función. Dividiendo la memoria en páginas pequeñas. Ocultando la memoria al usuario.

¿Qué función realiza el hardware con los bits de protección en la tabla de segmentos?. Permite cualquier acceso a la memoria. Verifica y bloquea accesos ilegales a memoria. Modifica automáticamente los permisos. Duplica los segmentos para mayor seguridad.

¿Qué pasa si un programa intenta escribir en un segmento marcado como sólo lectura?. El hardware permite la escritura sin problemas. El hardware detecta la violación y genera una excepción. El software ignora la operación. La escritura se realiza pero se marca para revisión.

¿Cómo ayuda la segmentación a detectar errores comunes en programas?. El hardware verifica que los accesos a las tablas de segmentos sean legales y no superen límites. Los programas se ejecutan en modo seguro sin errores. Se elimina el uso de tablas de segmentos. Se duplican los datos para evitar errores.

¿Cuándo se dice que dos procesos comparten un segmento?. Cuando tienen el mismo número de segmentos. Cuando las entradas en sus tablas de segmentos apuntan a las mismas posiciones físicas. Cuando se ejecutan en paralelo. Cuando usan la misma dirección lógica.

¿A qué nivel se produce la compartición en la segmentación?. A nivel de página. A nivel de segmento. A nivel de byte. A nivel de proceso.

¿Qué se necesita para compartir una información específica en segmentación?. Definirla como página. Definirla dentro de un segmento. Guardarla en memoria secundaria. Copiarla a cada proceso.

¿Es posible compartir un programa compuesto por varios segmentos?. No, sólo se puede compartir un segmento a la vez. Sí, pueden compartirse varios segmentos simultáneamente. Sólo si todos los segmentos son de sólo lectura. No, cada programa debe tener segmentos exclusivos.

¿Por qué los segmentos de código pueden complicar la compartición?. Porque ocupan mucho espacio. Porque contienen referencias internas al segmento, como saltos. Porque sólo pueden ser de sólo lectura. Porque no se pueden compartir nunca.

¿Qué debe hacer un sistema para que varios procesos compartan un segmento de código con referencias internas?. Copiar el segmento a cada proceso. Asignar el mismo número de segmento compartido a todos los procesos. Cambiar las referencias internas en tiempo de ejecución. Evitar compartir segmentos de código.

¿Qué información contiene una dirección de transferencia típica en un segmento de código?. Una dirección física. Un número de segmento y un desplazamiento. Un puntero a la tabla de páginas. Sólo un desplazamiento.

¿Por qué los segmentos de datos de sólo lectura sin punteros pueden compartirse usando números de segmento diferentes?. Porque los números de segmento son irrelevantes para datos de sólo lectura. Porque no tienen referencias internas a números de segmento. Porque pueden cambiar el número de segmento dinámicamente. Porque no se usan en programas.

¿Cómo permite el código compartir segmentos que se refieren indirectamente a números de segmento?. Usando registros especiales que almacenan números de segmento actuales. Cambiando las direcciones en tiempo de ejecución. Copiando el código para cada proceso. No es posible compartir ese código.

¿Qué función cumplían los cuatro registros en el GE 645 con Multics?. Almacenar direcciones físicas de memoria. Contener números de segmento para el segmento actual, pila, enlace y datos. Gestionar las interrupciones del sistema. Guardar el contador de programa y registros generales.

¿Cuál es la diferencia principal entre segmentación y paginación en cuanto al tamaño de unidades de memoria?. Los segmentos tienen tamaño fijo y las páginas tamaño variable. Las páginas y segmentos tienen el mismo tamaño. Los segmentos tienen tamaño variable y las páginas tamaño fijo. No hay diferencia en tamaños.

¿Qué problema se genera al asignar memoria a segmentos de longitud variable?. Fragmentación interna únicamente. Asignación dinámica de almacenamiento, con posibles fragmentaciones externas. No hay problema, es igual que paginación. Se necesitan tablas especiales para asignar memoria.

¿Qué algoritmos son comúnmente utilizados para asignar memoria a segmentos?. Round Robin y FIFO. Mejor ajuste y primer ajuste. LRU y LFU. Algoritmos de cifrado.

¿Qué tipo de fragmentación puede ocurrir en segmentación?. Fragmentación interna. Fragmentación externa. Ninguna fragmentación. Fragmentación lógica.

¿Qué puede hacer un proceso si no hay bloques de memoria libres lo suficientemente grandes para alojar un segmento?. Seguir ejecutándose normalmente. Esperar hasta que haya huecos más grandes disponibles. Fragmentar la memoria interna. Ignorar el problema.

¿Qué técnica permite crear bloques de memoria contiguos y más grandes en segmentación?. Paginación. Compactación. Cacheo. Segmentación fija.

¿Por qué la segmentación facilita la compactación?. Porque es un esquema de asignación fija. Porque es un algoritmo de reubicación dinámica. Porque no necesita reubicación. Porque siempre usa memoria contigua.

¿De qué depende principalmente la gravedad de la fragmentación externa en segmentación?. Del número total de procesos. Del tamaño medio de segmento. De la cantidad de memoria física. Del número de tablas de segmentos.

¿Qué ocurre si cada proceso se define como un solo segmento?. Se elimina la fragmentación externa. Se incrementa la fragmentación externa (particiones dinámicas). La fragmentación interna es nula. Los procesos no pueden ejecutarse.

¿Cómo se elimina la fragmentación externa en segmentación?. Dividiendo cada palabra en su propio segmento y reubicándola por separado. Utilizando tablas de páginas. Compartiendo segmentos de código. Evitando la reubicación dinámica.

¿Qué efecto tiene un tamaño medio de segmento pequeño sobre la fragmentación externa?. La aumenta. La disminuye. No tiene efecto. Causa fragmentación interna.

¿Por qué es más probable que segmentos pequeños encajen mejor en la memoria?. Porque son más fáciles de copiar. Porque son más pequeños que el proceso completo. Porque requieren menos registros. Porque no necesitan protección.

¿Qué ventaja tiene dividir un proceso en segmentos pequeños respecto a la memoria?. Facilita la compartición de código. Mejora el rendimiento del CPU. Reduce la fragmentación externa. Simplifica el acceso al disco.

¿Qué combina la segmentación paginada?. Solo paginación. Solo segmentación. Paginación y segmentación. Segmentación y swapping.

¿Cómo está formada la dirección lógica en el sistema GE 645 con Multics?. Número de página + desplazamiento. Número de segmento (18 bits) + desplazamiento (16 bits). Número de segmento + número de página. Solo desplazamiento.

¿Por qué la tabla de segmentos no es demasiado grande en este sistema?. Porque el número de segmentos es fijo. Porque se usa un Registro de Longitud de Tabla de Segmentos para solo tener entradas necesarias. Porque los segmentos son muy pequeños. Porque no se usa tabla de segmentos.

¿Qué ventaja tiene el uso de un número variable de segmentos?. Aumenta la velocidad de la CPU. Reduce el tamaño necesario para la tabla de segmentos. Elimina la fragmentación interna. Evita la paginación.

¿Qué problema puede causar tener segmentos grandes en segmentación paginada?. Fragmentación interna. Fragmentación externa. Pérdida de registros. Sobrecarga en CPU.

¿Qué algoritmos se mencionan para asignar espacio a segmentos?. FIFO y LRU. Mejor ajuste y primer ajuste. Round Robin y FCFS. Quick fit y buddy system.

¿Cuál es una consecuencia de utilizar un algoritmo de asignación como primer o mejor ajuste en segmentos grandes?. Mayor velocidad en acceso a memoria. Búsqueda larga para encontrar espacio libre. Reducción de la fragmentación externa. Eliminación de fallos de página.

¿Qué dos tipos de desperdicio se pueden dar en esta situación?. Memoria y espacio en disco. Tiempo de CPU y tiempo de I/O. Memoria (fragmentación externa) y tiempo (búsqueda). Fragmentación interna y memoria virtual.

¿Cuál es el principal problema que resuelve la segmentación paginada?. Fragmentación interna. Fragmentación externa. Fallos de segmento. Protección de datos.

En la segmentación paginada, ¿qué contiene la entrada en la tabla de segmentos?. La dirección física del segmento. El número de páginas que tiene el segmento. La dirección base de la tabla de páginas del segmento. El número de marco directamente.

¿Cómo se transforma una dirección lógica en una dirección física en segmentación paginada?. Número de segmento → dirección física directa. Dirección lógica → tabla de marcos. Número de página → tabla de segmentos → desplazamiento. Número de segmento → tabla de páginas del segmento → número de marco → desplazamiento.

¿Cómo se divide el desplazamiento dentro de un segmento?. En página y marco. En dirección base y límite. En número de página y desplazamiento de página. En segmento y dirección absoluta.

¿Qué tipo de fragmentación aparece en la segmentación paginada?. Fragmentación externa. Fragmentación interna. Fragmentación total. No hay fragmentación.

¿Cuál es el promedio de fragmentación interna por segmento en este esquema?. Una página completa. Ninguna, ya que la paginación lo evita. Media página. Dos páginas.

¿Qué implicación tiene el uso de una tabla de páginas por cada segmento?. Reduce la sobrecarga del sistema. Disminuye la fragmentación interna. Aumenta la sobrecarga de espacio en tablas. Elimina la necesidad de traducción de direcciones.

¿Por qué no es necesario que la tabla de páginas de cada segmento tenga el tamaño máximo posible?. Porque se generan páginas compartidas. Porque cada segmento tiene longitud fija. Porque solo se necesitan entradas para las páginas realmente utilizadas. Porque el sistema operativo limita el acceso a las páginas.

¿Por qué Multics pagina la tabla de segmentos?. Para mejorar la velocidad de acceso. Porque la tabla de segmentos puede ser muy grande. Para permitir la segmentación interna. Para evitar la compartición de segmentos.

¿Qué contiene cada entrada en la tabla de segmentos en Multics?. La dirección de una palabra específica. Una instrucción del sistema operativo. Un puntero a una tabla de páginas del segmento. Un identificador de proceso.

¿Cuál es el orden correcto de traducción de direcciones en Multics?. Tabla de páginas → Tabla de segmentos → Marco de página. Segmento → Marco → Tabla de segmentos. Tabla de páginas de la tabla de segmentos → Tabla de segmentos → Tabla de páginas del segmento. Tabla de segmentos → Tabla de páginas del segmento → Tabla de páginas de la tabla de segmentos.

¿Qué beneficio principal se obtiene al paginar la tabla de segmentos?. Se elimina la fragmentación interna. Se evita tener que cargar toda la tabla de segmentos en memoria. Se reduce el número de marcos necesarios por proceso. Se evita el uso de registros asociativos.

¿Cuál es el objetivo principal de la memoria comprimida?. Aumentar la velocidad de acceso a disco. Evitar el uso de la memoria virtual tradicional. Reducir el tamaño de los archivos ejecutables. Repartir la memoria entre varios discos.

¿Qué se hace con las páginas de un proceso bloqueado en memoria comprimida?. Se eliminan. Se escriben en disco. Se comprimen en memoria. Se dividen entre otros procesos.

En un sistema con memoria comprimida, ¿qué ocurre si un nuevo proceso quiere cargarse pero no hay espacio libre suficiente?. Se aborta el proceso más antiguo. Se inicia un proceso de paginación a disco. Se comprimen las páginas de procesos inactivos. Se reinicia el sistema operativo.

¿Qué ventaja ofrece la memoria comprimida frente al uso tradicional de la memoria virtual?. Reduce el consumo energético del disco duro. Aumenta la seguridad de los procesos. Evita el retardo de lectura/escritura del disco. Elimina la necesidad de segmentación.

¿Cuál es la principal diferencia entre la solución clásica y la memoria comprimida ante falta de espacio en RAM?. La clásica comprime las páginas, la nueva las elimina. La clásica mueve páginas al disco, la nueva las comprime en RAM. La clásica divide procesos, la nueva los pausa. La clásica almacena procesos enteros, la nueva solo sus instrucciones.

¿Qué ventaja directa tiene la compresión de páginas en memoria frente al intercambio con disco?. Aumenta el tamaño virtual de la RAM. Reduce el número de procesos simultáneos. Mejora el rendimiento evitando el uso del disco. Permite usar más CPUs en paralelo.

¿Qué recurso del sistema se ve optimizado gracias a la memoria comprimida?. Solo la CPU. Solo la RAM. RAM, almacenamiento y CPU. Solo el disco.

¿Cómo mejora la eficiencia energética la memoria comprimida?. Usando CPUs más rápidas. Evitando el uso del disco para swapping. Reduciendo el número de procesos en ejecución. Deteniendo procesos inactivos.

¿Qué hace más eficiente a la memoria comprimida en comparación con la memoria virtual tradicional?. Requiere menos direcciones físicas. Utiliza discos más rápidos. Comprimir/descomprimir en RAM es más rápido que hacer I/O con el disco. Utiliza menos CPU.

¿Qué sucede cuando se deben mover páginas comprimidas al disco?. Se descomprimen antes de enviarlas al disco. Se almacenan comprimidas, ocupando menos espacio y tiempo de transferencia. Se duplican para mantener una copia. Se convierten en código ejecutable.

¿Cuál es la ventaja de mover páginas comprimidas en lugar de páginas normales al disco?. Pueden ejecutarse directamente desde el disco. No necesitan procesador para su manejo. Requieren menos espacio y son más rápidas de transferir. Se almacenan en caché.

¿Qué ocurre cuando una página comprimida vuelve a la memoria principal?. Se pierde. Se ejecuta comprimida. Se descomprime para su uso. Se convierte en segmento.

¿Por qué no se implementó antes la memoria comprimida de forma práctica?. No existía interés en mejorar la RAM. Requería discos SSD de gran capacidad. Faltaban arquitecturas multinúcleo, memorias rápidas y buenos algoritmos de compresión. Porque solo era útil en servidores.

¿Qué tasa de compresión logra el algoritmo WKdm en OSX Mavericks?. 25%. 50%. 75%. 10%.

¿Qué permite la arquitectura multinúcleo en relación con la memoria comprimida?. Ejecutar más procesos simultáneamente. Usar menos memoria en general. Paralelizar la gestión de compresión y descompresión. Ejecutar instrucciones directamente desde memoria comprimida.

¿Cómo se activa el soporte para memoria comprimida en Ubuntu 12.04 o superior?. Instalando zram-config y ejecutando free -m. Actualizando el BIOS. Habilitando el modo de suspensión. Instalando una memoria swap virtual.

¿Cuál de las siguientes es una ventaja clara de la memoria comprimida respecto a la memoria virtual?. Mayor tamaño de memoria física. Comprime y descomprime páginas más rápido que moverlas al disco. Permite usar disco como RAM directamente. No necesita algoritmos de compresión.

¿Por qué la memoria comprimida es más eficiente energéticamente que la memoria virtual?. Porque usa menos núcleos de CPU. Porque solo comprime en modo ahorro. Porque acceder a RAM consume menos energía que acceder al disco. Porque no necesita controladores.

¿Qué característica técnica permite que la memoria comprimida se ejecute en paralelo?. Acceso directo a disco. Arquitecturas multinúcleo. Compiladores avanzados. Tablas de segmentación.

¿Qué ventaja específica aporta la ejecución en paralelo de la memoria comprimida?. Mejora la segmentación. Permite más procesos virtuales. Permite comprimir y descomprimir páginas simultáneamente. Aumenta la memoria física real.

¿Cuál es el impacto principal de la memoria comprimida en el uso del disco?. Incrementa la escritura en disco. Reduce la necesidad de acceder al disco. Hace que todo el proceso se guarde en disco. No afecta al uso del disco.

¿Qué se necesita para que la memoria comprimida funcione eficientemente?. Un solo núcleo con mucha RAM. Compiladores optimizados. Algoritmos de compresión rápidos y buena arquitectura de hardware. Memoria virtual activada.

¿Cuál de los siguientes sistemas operativos introdujo primero la memoria comprimida como técnica destacada?. Windows 10. Ubuntu 8.04. Mac OSX Mavericks. MS-DOS.

¿Qué herramienta debe instalarse en Ubuntu para activar la memoria comprimida (zram)?. sudo apt-get install memcomp. sudo apt-get install compress-tools. sudo apt-get install zram-config. sudo apt-get install swap-comp.

¿Qué tipo de fragmentación reduce principalmente la memoria comprimida?. Fragmentación interna. Fragmentación externa. Fragmentación lógica. Ninguna, la aumenta.

¿Cuál es una ventaja clave de la memoria comprimida en arquitecturas multinúcleo?. Permite aumentar el tamaño de la RAM física. Obliga a usar sólo un núcleo para evitar errores. Permite comprimir y descomprimir páginas en paralelo. Sustituye automáticamente la memoria virtual.

Denunciar Test