option
Cuestiones
ayuda
daypo
buscar.php

Estudio de los Sistemas Operativos

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Estudio de los Sistemas Operativos

Descripción:
Test de repaso

Fecha de Creación: 2022/12/20

Categoría: Otros

Número Preguntas: 116

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál de las siguientes afirmaciones es VERDADERA?. En un sistema monotarea, el procesador se mantiene ocioso mientras se realizan operaciones de E/S. Un sistema operativo multitarea se basa, entre otras cosas en la concurrencia real entre el procesador y las operaciones de E/S realizadas por los controladores de los periféricos. En los sistemas de tiempo compartido, se divide el tiempo de procesamiento entre los diferentes procesos que se encuentren listos para ejecutar, asignando pequeñas porciones a cada uno de ellos. Todas las afirmaciones son VERDADERAS.

Las llamadas al sistema [system calls] sirven de interfaz entre: Los programas de usuario y el sistema operativo. El sistema operativo y las estructuras de datos internas. Las aplicaciones y el intérprete de órdenes. El intérprete de órdenes y los programas del sistema.

¿El hardware puede activar directamente al sistema operativo?. No, todos los eventos del hardware deben pasar antes por la jerarquia de memoria. No, el sistema operativo solo se activa mediante software. Sí, por ejemplo mediante una interrupción. No, solo se activa mediante llamadas al sistema.

El paso de la monoprogramación a la multiprogramación tuvo ciertas implicaciones. ¿cuál de las siguientes es FALSA?. Implica una gestión de memoria más compleja. Permite que varios dispositivos se estén utilizando en paralelo. El sistema operativo asume más funciones en general, eso implica que tendrá que ejecutarse más veces lo que conlleva que el porcentaje de uso de los recursos sea inferior (peor) que en la monoprogramación. Todas las afirmaciones son FALSAS.

¿Cuál de las siguientes afirmaciones es correcta?. Todas las afirmaciones son correctas. Los sistemas operativos con estructura monolítica son más lentos que los sistemas con estructuras micronúcleo. Los sistemas operativos con estructuras de micronúcleo puro se ejecutan en un único espacio de direcciones. Los sistemas operativos con estructura monolítica se ejecutan en un único espacio de direcciones.

Las llamadas al sistema: Son servicios del sistema operativo que no pueden ser invocados por los procesos de usuario, ya que deben ejecutarse en modo privilegiado. Son órdenes del intérprete de órdenes. Son servicios proporcionados por el intérprete de órdenes. todas las afirmaciones son FALSAS.

¿De qué manera sabe un sistema operativo que un proceso termina su ejecución?. Porque el proceso invoca una llamada al sistema específica para finalizar. Todas las afirmaciones son FALSAS. Porque transcurre un tiempo determinado sin que el proceso ejecute instrucciones. Porque el contador de programa del proceso alcanza la última instrucción de productivas de su código máquina.

¿Cuál de las siguientes afirmaciones es correcta?. Todas las afirmaciones son correctas. Los programas de usuario pueden realizar el acceso a los dispositivos de manera directa sin la intervención del sistema operativo. La gestión de procesos se encarga de ejecutar los programas de usuario. La gestión de memoria se encarga de asignar y liberar memoria principal y memoria secundaria.

¿Cuál de las siguientes afirmaciones sobre le núcleo del sistema operativo es FALSA?. Contiene las rutinas de atención a las interrupciones. Se ejecuta en modo supervisor. Se carga en la memoria principal durante el arranque del sistema. Cuando hay sobrecarga puede estar en estado suspendido.

Llega una interrupción procedente de un dispositivo de E/S mientras un proceso de usuario se está ejecutando. ¿Qué suele ocurrir justo a continaución?. Se atiende la interrupción de forma inmediata, en el modo de operación en el que se encontraba el procesador en el momento de ocurrir la operación. Se ignora la interrupción, ya que el sistema está ejecutando código en modo usuario y si se atiende aquella, podría haber problemas de seguridad. Se conmuta a modo usuario para que el proceso dialogue con la E/S de acuerdo con sus necesidades. Se conmuta a modo supervisor y se ejecuta la rutina de servicio de interrupción correspondiente.

Una característica de las instrucciones máquina privilegiadas es que: Pueden comprometer la seguridad del sistema. Solo pueden ser ejecutadas por el administrador del sistema. Permiten a los usuarios normales obtener privilegios adicionales. Son las únicas que pueden ejecutarse en modo supervisor (sistema).

¿Cuál de las siguientes afirmaciones es VERDADERA?. El sistema de tiempo real es un sistema con tiempos de respuesta óptimas. Todas las afirmaciones son FALSAS. Los sistemas de tiempo compartido son multiprogramados en los que se reparte el uso de la CPU entre los procesos existentes a intervalos regulares de tiempo. Los sistemas multiprogramados son sistemas de tiempo compartido que permiten conmutar los trabajos existentes en el sistema.

En el diseño de los sistemas operativos, ¿qué conseguimos gracias a la independencia del dispositivo?. El sistema operativo transfiere los datos desde o hacia la E/S de manera independiente a las interrupciones de los dispositivos. Que la CPU y la E/S puedan realizar sus tareas en paralelo. Más rapidez en la transferencia con los dispositivos. Una interfaz de programación uniforma en los dispositivos.

Si estando en ejecución uan tarea de usuario, se produce una interrupción hardware, se ejecutará una rutina del SO. Al terminar esta: Se volverá siempre al la tarea interrumpida. La tarea interrumpida puede haber pasado al estado bloqueado en función de que interrupción se haya producido. Mientras se está ejecutando una tarea de usuario no pueden producirse interrupciones, sólo cuando se estan ejecutando tareas del SO. Todas las respuestas anteriores son falsas.

¿Cuál de las siguientes tareas no corresponde al sistema operativo?. Garantizar la protección de las zonas de memoria utilizadas por el sistema operativo frente a los procesos de usuario. Garantizar la protección de la memoria de un proceso frente a otro proceso de usuario. Ofrecer llamadas al sistema a través de las cuales un proceso de usuario pueda ejecutar instrucciones privilegiadas (bajo estricto control). Impedir que un programa de usuario contenga instrucciones privilegiadas.

Se dice que un sistema operativo es multiprogramado cuando... Ha sido escrito por múltiples programadores. Esta constituido por múltiples programas. Además del núcleo del sistema operativo sólo puede haber en memoria un proceso de usuario. Varios procesos de usuario pueden evolucionar concurrentemente en el sistema.

Una llamada al sistema es: Una orden del intérprete de órdenes. Un programa de sistema. Una interrupción de hardware. Un servicio del sistema operativo.

¿Cuáles de las siguientes afirmaciones son FALSAS?. Las instrucciones de E/S se pueden ejecutar en modo supervisor y en modo usuario. La multiprogramación permite aprovechar las ráfagas de espera (de la E/S) de un trabajo para ejecutar las ráfagas de CPU de otro trabajo. El SO se ocupa, solamente, de la gestión de los procesos, la gestión de ficheros y de la gestión de memoria. De la protección de ficheros y de gestionar la E/S se encargan los programas de usuario. El intérprete de órdenes es la interfaz primaria entre el usuario y el SO. Se implementa como un programa que lee de su entrada estándar una orden introducida por un usuario, la analiza y la ejecuta.

Sobre las llamadas al sistema: Se ejecutan en modo usuario. Una llamada al sistema en una orden del intérprete de órdenes. Son programas de sistema. Las órdenes como ls o cd son programas que incluyen varias llamadas al sistema.

¿Cuál de las siguientes afirmaciones es correcta?. El sistema operativo coordina los componentes de la máquina, optimizando su rendimiento. Todas las afirmaciones son correctas. El sistema operativo simplifica el manejo del hardware a los programas que se ejecuten en la máquina. El sistema operativo asigna recursos a los programas que se ejecuten en la máquina.

¿Qué se entiende por "sistema operativo multiprogramador"?. Es aquel que nunca consume su tiempo de CPU. El qué reparte tiempo de CPU cuando un proceso realiza una E/S. El que puede ser utilizado por varios usuarios a la vez. El que utiliza swapping para ejecutar varios programas a la vez.

¿Cuál es el objetivo principal que persigue la multiprogramación?. Mejorar el rendimiento del sistema en términos de espacio de uso. Mejorar el rendimiento del sistema en términos de tiempo de uso. Mejorar la seguridad del sistema. Mejorar la estabilidad del sistema.

El intérprete de órdenes: Es un programa del sistema y constituye la única forma de solicitar servicios del SO. Ejecuta las órdenes indicadas por el usuario y para ello hace uso a su vez de las llamadas al sistema. Al ser un programa del sistema, no necesita realizar llamadas al sistema. Siempre forma parte del núcleo del sistema operativo.

El intérprete de órdenes o shell, en sistemas tales como Linux o Mac: No realiza llamadas al sistema porque es parte del sistema operativo. Se ejecuta en modo supervisor o en modo kernel. Se le solicitan operaciones mediante interrupciones software. Todas las afirmacioens son FALSAS.

Un sistema operativo ofrece una interfaz de usuario (mandatos del sistema operativo) y una interfaz de programación (conjunto de llamadas al sistema). ¿Cuál de las siguientes afirmaciones es cierta?. Solo la interfaz de usuario puede ser sustituida por otra sin que esto afecte al resto del sistema. Solo la interfaz de programación puede modificarse sin que esto afecte al resto del sistema. Tanto una como otra pueden modificarse o sustituirse ya que no son características del sistema operativo. Ni una ni otra pueden modificarse o sustituirse por otros ya que son características del sistema operativo.

¿Cuál de las siguientes es un objetivo esencial del sistema operativo?. Aislar al programador de la complejidad del hardware. Optimizar el código de los programas para mejorar su rendimiento. Interpretar los programas de usuario. Permitir al programador el control absoluto del sistema.

Mientras el núcleo del sistema operativo está ejecutando código que atiende una llamada al sistema, llama al sistema una interrupción de un dispositivo hardware. El núcleo atiende la interrupción. ¿En qué modo de ejecución se atiende la interrupción?. Algunas veces en modo núcleo y otras en modo usuario. En modo núcleo, ya que se va a atender una interrupción. En modo usuario ya que se está atendiendo una llamada al sistema. En el modo que designa el dispositivo que interrumpio.

¿Cuál de las siguientes afirmaciones es correcta?. El reparto de los recursos de la máquina entre los procesos que coexisten en el ordenador es una tarea del sistema operativo. La garantía de protección entre usuarios de un sistema es una tarea del sistema operativo. Todas las afirmaciones son correctas. El sistema operativo se considera una máquna extendida porque además de facilitar el uso del hardware también incrementa lños servicios.

El nivel de multiprogramación de un sistema indica: Cuantos programas diferentes se están ejecutando en el sistema en ese momento. Cuántos procesos están en estado de ejecución en ese momento. Cuántos procesos están cargados en memoria principal, aunque sea parcialmente, en ese momento. Cuántos usuarios diferentes puede haber en el sistema como máximo en un momento dado.

¿Que diferencias hay entre excepción y interrupción?. Una excepción es una interrupción software mientras que una interrupción es siempre hardware. Una excepción la provoca el usuario intencionalmente en su programa para pedirle algo al SO mientras que la interrupción se provoca sin intervención del usuario. Una excepción es una interrupción que provoca la CPU cuando no puede ejecutar una instrucción por la causa que sea, mientras que una interrupción la provocan los dispositivos o bien los programas. Todas las afirmaciones son falsas.

Las llamadas al sistema: Son servicios del sistema operativo que no pueden ser invocados por los procesos de usuario, ya que deben ejecutarse en modo privilegiado. Son órdenes del intérprete de mandatos. Son rutinas del núcleo del sistema operativo. Ninguna de las anteriores es cierta.

El principal mecanismo en el que se apoyan los sistemas operativos multiprogramados son: Las interrupciones. Todas las afirmaciones son FALSAS. Las llamadas al sistema. Los lenguajes de programación de alto nivel.

En los sistemas multihilo podemos afirmar que: Cuando se implementan los hilos a nivel de usuario se puede hacer una planificación específica para cada aplicación. Cuando se implementan los hilos a nivel de kernel no es necesario hacer un cambio de modo usuario a núcleo para crear un nuevo hilo. Los hilos a nivel de kernel o núcleo, cuando un hijo se bloquea, se bloquean todos los hilos del proceso. En un sistema con varios procesadores que implementan los hilos a nivel de usuario, se pueden ejecutar en paralelo tantos hilos de un proceso como procesadores tenga.

Sobre la implementación de los hilos a nivel de Núcleo es FALSO que: El cambio de hilo entre hilos de un mismo proceso es más rápido. Se puede aprovechar el paralelismo hardware del sistema. Los hilos se pueden planificar de forma independiente evitando que el bloqueo de uno de ellos por una E/S, bloquee el proceso por completo. Se puede aplicar un algoritmo diferente de planificación a los hilos de cada proceso.

El cambio de contexto. Modifica la entrada en la tabla del proceso desalojado. Lo realiza el scheduler. Se produce siempre que el proceso abandona la cola de proceso en espera y pasa a la cola de procesos preparados/listos. Siempre se lleva a cabo cuando ocurre una interrupción de reloj.

En un sistema operativo existe: Sólo un BCP que corresponde al proceso que está en ejecución en cada momento. Un BCP para cada uno de los procesos que están en estado Bloqueado. Un BCP por cada proceso que se crea en el sistema. Un BCP para cada uno de los procesos que están en listo o preparado.

¿Cuál de las siguientes afirmaciones es correcta?. El planificador a largo plazo elige procesos de entre los que quieren entrar al sistema. El planificador a corto plazo elige un proceso de la lista de preparados para pasar a ejecución. El planificador a medio plazo suspende y reanuda procesos para controlar la carga del sistema. Todas las afirmaciones son correctas.

Cuando un proceso está en estado Preparado: El proceso no es conocido por el sistema, no existe su BCP. Existe BCP para el proceso, que se encuentra a la espera de que se le asigne la CPU. Existe el BCP, pero el identificador del proceso es mayor que el número de procesos que puede soportar el sistema. No existe BCP pero el proceso tiene asignado un identificador.

La llamada al sistema fork(): No se pueden crear procesos con esa llamada, para crear un proceso se utiliza la shell. Crea un nuevo proceso. Crea una pareja de procesos. Crea un nuevo hilo.

Un proceso que está realizando una E/S se encuentra en estado: Listo o preparado. Suspendido. Bloqueado. En ejecución.

Cuando el procesador está en modo usuario, ¿quién comprueba que la instrucción a ejecutar NO es una de las instrucciones reservadas?. No se realiza ningún tipo de comprobación. El hardware. El sistema operativo. El compilador.

La técnica de planificación Round-Robin: Minimiza el tiempo medio de finalización. Permite reducir el tiempo de respuesta. No supone ningún gasto extra. Maximiza el rendimiento del sistema.

El planificador a medio plazo selecciona un proceso: De entre los recién llegados para pasar a la cola de preparados. De entre los suspendidos en memoria principal para pasar a la cola de preparados. De entre los suspendidos en memoria secundaria para pasar a la cola de preparados. De entre la cola de preparados para pasar a ejecución.

¿Cuál de los algoritmos de planificación de procesos supone más sobrecarga al SO?. Indica cuál de las siguientes opciones los ordena de menor a mayor sobrecarga: FIFO; Planificación con colas de retroalimentación de niveles múltiples y SRT. FIFO, SRT y Planificación con colas de niveles múltiples. SRT, SJF y Planificación con colas de niveles múltiples. Planificación con colas de niveles múltiples, SRT, FIFO.

Indicar qué acción NO se produce siempre que se realiza una llamada al sistema desde un proceso: Realizar un cambio de proceso cuando termine de ejecutarse la llamada. Guardar los registros del procesador en el BCP. Cambiar el estado de la CPU de modo usuario a supervisor. Realizar un cambio de contexto.

Determina que afirmación es FALSA: Los cambios de contexto implican una sobrecarga importante en el sistema operativo si se hacen con frecuencia. Un cambio de contexto consiste en desasignar la CPU al proceso en ejecución y asignarla a un proceso preaparado, guardando el contexto del proceso de ejecución. El BCP es una estructura de datos en la que se almacenan los atributos de un proceso. En el BCP se guarda el estado del proceso, su contador de programa entre otros. No guarda ni el UID ni el GID del usuario/grupo propietario del proceso. Estos datos se guardan en disco.

En el algoritmo de planificación de CPU, el algoritmo clásico de Colas multinivel con retroalimentación: Los procesos permanecen en la misma cola durante el timpo que dura su ejecución. Todas las colas ejecutan el mismo algoritmo de planificación, cada una con procesos diferentes. Cada cola tiene un conjunto de procesos, y cada proceso tiene su propio algoritmo de planificación. Cada cola puede ejecutar algoritmo diferentes.

¿Qué diferencia un programa de un proceso?. No hay ninguna diferencia. El programa tiene área de pila, el proceso no. El programa se encuentra en memoria principal, el proceso en disco. El proceso es dinámico, mientras que el programa es estático.

¿Cuál de las siguientes afirmaciones es correcta?. Todas las afirmaciones son VERDADERAS. Después de la ejecución de cada instrucción máquina, se ejecuta el Sistema Operativo. Cualquier instrucción que se ejecute en un procesador debe estar almacenada en memoria principal. La interrupción de reloj tiene la misma frecuencia que el reloj/hardware.

¿Qué diferencia hay entre concurrencia y paralelismo?. El paralelismo implica un hardware multiprocesador, mientras que la concurrencia se uede dar dentro de un único procesador. Son dos términos que se pueden emplear de forma intercambiable. La concurrencia es un caso particular de paralelismo. La multiprogramación sólo es posible si existe paralelismo.

El BCP contiene, al menos: El estado y el identificador del proceso. El número de fallos de página durante su ejecución. El código, los datos y la pila de un proceso. El grado de multiprogramación de un proceso.

En un sistema operativo, el planificador a largo plazo determina: El grado de multiprogramación del sistema. De entre los procesos que están esperando la CPU cuál es el siguiente proceso a ejecutar. Los mecanismos para despachar procesos. El que suspende los procesos que están bloqueados porque están esperando una operación de E/S.

En un sistema multihilo: El estado de todos los hilos de un proceso debe ser el mismo. Los hilos de un mismo proceso comparten variables globales y por tanto la comunicación entre ellos se puede realizar mediante la pila. Los cambios de contexto entre hilos de un mismo proceso son en general más costosos que los cambios de contexto entre hilos de diferentes procesos. Todas las afirmaciones son FALSAS.

¿Cuál de las siguientes afirmaciones acerca de hilos y procesos es VERDADERA?. Cada proceso tiene su BCP que es común a todos los hilos del proceso. Cada proceso tiene su propio espacio de direccionamiento, mientras que los hilos de un proceso comparten el mismo espacio de direccionamiento. Varios hilos se pueden ejecutar concurrentemente, pero no varios procesos. Todas las afirmaciones son FALSAS.

Tenemos un sistema multihilo a nivel de usuario, en ese caso podemos afirmar que: Cuando un hilo de un proceso se bloquea, se bloquean todos los hilos del proceso. Las propias funciones del núcleo pueden ser multihilo. El núcleo o kernel del sistema operativo planifica hilos. En un instante dado cada hilo puede despacharse para ejecutarse en un procesador diferente.

En un ordenador se ejecutan únicamente 2 procesos con los siguientes patrones de ejecución: - P1: 50 unidades de tiempo con el patrón siguiente: 1 de CPU, 9 de E/S, y así sucesivamente. - P2: programa sin E/S que consta de una única ráfaga de 50 unidades de tiempo de duración. Inicialmente se le da la CPU a P2, conteste a los siguiente. Si se desprecia el tiempo que tarda en ejecutarse el algoritmo de planificación y el tiempo empleado en el cambio de proceso, ¿con qué esquema de planificación, FIFO o roun robin con cuanto de 10, tardaría menos en ejecutarse los dos procesos (los dos en conjunto)?. Igual. FIFO. Round Robin. A veces FIFO y a veces Round Robin.

Se dedica un ordenador a ejecutar exclusivamente 2 procesos con los siguientes patrones de comportamiento: - P1: 88 unidades de tiempo en el orden siguiente: 1 de CPU, 21 de impresora, y así sucesivamente. - P2: programa sin E/S que consta de una sola ráfaga de 80 unidades de tiempo de duración. Los 2 procesos se crean "a la vez", siendo asignada la CPU a P1 en el instante 0. Si se utiliza el algoritmo de planificación FIFO y el tiempo empleado en realizar un cambio de proceso se supone nulo entonces: P1 termina en el instante 147 y P2 en el 81. Ninguna de las anteriores es cierta. P1 termina en el instante 88 y P2 en el 168. P1 termina en el instante 88 y P2 en el 80.

En un sistema de tiempo compartido, varios procesos se ejecutan concurrentemente. Para poder hacerlo sin que un proceso pueda acaparar indefinidamente la CPU, es necesario que haya algún dispositivo [reloj] capaz de generar interrupciones que activen el sistema operativo periodicamente. Dichos procesos deberán incluir el código necesario para avisar al sistema operativo de que ha pasado el tiempo que tenían asignado y debe concederse la CPU al siguiente. El sistema operativo interrumpirá la ejecución del programa activo cuando haya consumido el tiempo que tenia asignado, enviándole una señal. No es necesario ningún mecanismo de los propuestos, ya que todos los programas tarde o temprano, terminan por ejecutar una llamada al sistema y el sistema operativo puede aprovechar ese momento para conmutar el proceso.

En un sistema de planificación por prioridades apropiativo llega un proceso en el instante 4 con prioridad máxima. Este proceso se ejecuta durante 4s, después realiza una operación de E/S durante 7s y para acabar se ejecuta durante 5 s. ¿Cuál es el tiempo de finalización de este proceso?. 9s. 12s. 16s. Todas las afirmaciones son FALSAS.

Un sistema operativo planifica sus procesos según el algoritmo de turno rotatorio. Durante un intervalo largo de tiempo se ejecutan un número fijo de procesos. Se observa que uno de ellos está recibiendo el 5% del tiempo total de CPU, mientras que el resto tienen porcentajes de uso superiores al 15% ¿A qué se debe esta disparidad?. El tamaño del cuanto es demasiado pequeño. El proceso que recibe menos CPU se ejecuta en la cola menos prioritaria. El proceso que recibe menos CPU no agota su cuanto de CPU con más frecuencia que el resto de procesos. El sistema operativo realiza los cambios de proceso muy lentamente.

En un SO de tiempo compartido, los algoritmos de planificación que se pueden usar son: Colas de niveles múltiples y Round Robin. FIFO y Round Robin. SJF (trabajo más corto primero) y Colas de retroalimentación de niveles múltiples. En general, los algoritmos de planificación no apropiativos.

En un sistema multihilo: Por lo general, el tiempo de cambio de contexto es mayor entre hilos que entre procesos. Dos hilos de un mismo usuario comparten el mismo espacio de memoria. Un proceso tiene uno o más hilos con distintos conjuntos de registros. Un proceso puede tener varios hilos con distintos espacios de memoria.

El despachador [dispatcher] de un sistema operativo se encarga de: Realizar los cambios de contexto. Interrumpir la E/S cuando se produce una excepción. Planificar la CPU. Gestionar las prioridades entre procesos.

De las siguientes transacciones de estados de los procesos, indicar cuál es la única que es iniciada por un proceso de usuario. Ejecución a Preparado. Preparado a Ejecución. Ejecución a Bloqueado. Bloqueado a Preaprado.

De los siguientes elementos, cuál no forma parte del bloque de control de procesos ni se guarda nunca en él: Contador de programa. Identificador del proceso [PID]. Gestor de interrupciones. Datos del contexto [registros de la CPU, puntero de pila, ...].

En un ordenador personal se utiliza un algoritmo de planificación de procesos basado en prioridades, en el cual la prioridad de un proceso es inversamente proporcional al tiempo que ha disfrutado de la CPU en los últimos 10 minutos. ¿Qué clase de procesos resulta favorecida por este algoritmo?. Las aplicaciones interactivas. Los procesos intensivos en CPU. Intenta compensar por igual la atención a procesos interactivos e intensivos en CPU. Los procesos.

De toda la información que el SO almacena en el PCB de un proceso, ¿cuál es fundamental para reanudar la ejecución del mismo en el punto en el que había quedado interrumpida?. información de identificación del proceso. información de estado del procesador. información de control del proceso. Todas las afirmaciones son FALSAS.

En relación al reloj de interrupciones: Una de las tareas a realizar cada vez que se produce la interrupción es el mantenimiento de la hora del sistema. Cada vez que se produce la interrupción del reloj, se ejecuta el manejador de esa interrupción. Una de las tareas qe se debe realizar cada vez que se produce una interrupción es, en los sistemas de tiempo compartido, la comprobación de la expiración del cuanto. Todas las afirmaciones son correctas.

La suspensión de un proceso se puede producir: Cuando el proceso está en el estado "en ejecución". Desde cualquiera de los estados "en ejecución", "preparado", "bloqueado". Un proceso NO se puede suspender. Desde el estado "preparado" o desde el estado "bloqueado" de un proceso.

¿Es posible darle la CPU a un proceso en estado bloqueado?. No, pues un proceso bloqueado no está en condiciones de ejecutarse. Sí, si el proceso que ocupa la CPU lleva ya demasiado tiempo ejecutándose. Sí, si no hay ningún proceso que quiera ejecutarse para no desperdiciar la CPU. Sí, si el proceso que ocupa la CPU agota su cuanto.

En un algoritmo Round-Robin, si el cuanto de tiempo Q es muy pequeño: El algoritmo degenera en un algoritmo FCFS. El reparto de tiempo de procesador entre los procesos se vuelve injusto. Los cambios de contexto penalizan el rendimiento del sistema. Puede haber procesos que nunca reciben tiempo de CPU.

Sobre la planificación de procesos, ¿qué afirmación es FALSA?. Cuando se planifica mediante Round-Robin, un proceso puede ejecutarse 2 cuantos consecutivos. En la planificación por prioridades, un proceso puede perder la CPU sin haber realizado ninguna llamada al sistema. Cuando se planifica mediante Round-Robin, se puede producir un cambio de contexto antes del final del cuanto. Con el algoritmo de planificación SRT la llegada de un nuevo proceso al sistema provoca siempre el desalojo del proceso actualmente en ejecución.

¿Cómo se llama el componente del sistema operativo que almacena los BCP correspondientes a los procesos que están dispuestos a ejecutar instrucciones en la CPU?. Cola de preparados. Intercambiador [swapping]. Planificador de medio plazo. Planificador de largo plazo.

El uso de hilos en un sistema operativo: Agiliza los cambios de contexto pero dificulta la comunicación entre procesos. Permite la comunicación entre hilos del mismo proceso, pero penaliza los cambios de contextos entre hilo del mismo padre. Los hilos de un mismo proceso tienen el mismo estado de ejecución. Facilita la programación de aplicaciones concurrentes cooperativas y agiliza los cambios de contexto entre hilos del mismo proceso.

Las llamadas al sistema: Siempre provocan el cambio de estado del proceso que las invoca. Las pueden ejecutar tanto los procesos como los dispositivos hardware. Un proceso que esté "En ejecución" sólo puede invocar una llamada al sistema que no sea bloqueante. Un proceso que está "Preparado" no puede invocar una llamada al sistema hasta que pase al estado "En ejecución".

Sobre la gestiñon de memoria, ¿cuál de las siguientes afirmaciones es FALSA?. En un esquema de gestión de memoria con particiones variables, al igual que en segmentación y segmentación paginada, existe fragmentación externa. Para reducir la fragmentación externa en un esquema de memoria de particiones variables es necesario compactar particiones moviendo procesos en memoria principal y juntando las particiones libres. En un esquema de gestión de memoria en el que existen 4 particiones fijas, el tamaño de los procesos puede ser cómo máximo el tamaño de la memoria real. En un esquema de memoria de particiones fijas, al igual que un esquema de paginación, existe fragmentación interna.

Para poder ejecutar un programa éste debe estar: Todas las afirmaciones son falsas. Total o parcialmente cargado en Memoria Principal. Almacenado en un disco en el momento de comenzar la ejecución. Almacenado en un CD.

Se tiene un sistema de paginación con toda la tabla de páginas cargada en memoria. Si un acceso a memoria lleva 70 nanosegundos, ¿cuánto se tarda en resolver la dirección de memoria?. 140 nanosegundos. 70 nanosegundos. 105 nanosegundos. 210 nanosegundos.

Se tiene un ordenador en el que el tiempo de acceso a memoria es de 750 ns, mientras que el tiempo de acceso efectivo a memoria es de 800 ns, ¿cuál de los siguientes esquemas de gestión de la memoria se emplea en dicho ordenador?. Particiones estáticas o fijas. Paginación sin memoria asociativa. Paginación con memoria asociativa. Particiones dinámicas o variables.

En relación a las técnicas de memoria virtual: Permite aumentar el grado de multiprogramación del sistema. Con esta técnica se mueven trozos de procesos entre memoria principal y memoria secundaria. El tamaño de los procesos que podemos ejecutar está limitado por el tamaño de la memoria principal. Todas las afirmaciones son VERDADERAS.

En un sistema con paginación, el objetivo de la memoria TLB es... Ampliar el tamaño de la memoria útil usándola como memoria caché. Reducir el tiempo medio de acceso a memoria. Que los procesadores dispongan de memoria local. Poder acceder de forma asociativa o enlazada de datos.

El número de fallos de página indica: el número de veces que se hace referencia a páginas que no están en memoria principal. el número de veces que un proceso cambia de página durante su ejecución. el número de veces que se ha ejecutado el algoritmo de reemplazo de páginas. el número de marcos de página en los que se ha dividido la memoria principal.

¿Cuál de las siguientes afirmaciones es FALSA?. Tanto en segmentación como en paginación se gestiona el espacio libre mediante una lista enlazada trozos libres de memoria. El conjunto de trabajo de un programa puede variar durante la ejecución del proceso asociado a dicho programa. Es más sencillo compartir un módulo reentrante (trozo de código utilizado por varios procesos de forma simultánea) si se usa segmentación en vez de paginación. En memoria virtual, cuanto mayor es el tamaño del bloque (página o segmento) menos ocupa la tabla de traducción (de páginas o segmentos).

Sea un sistema de memoria segmentado donde la memoria principal tiene un tamaño de 10 KBytes, y el tamaño de cada posición de memoria es de 1 Byte. Si la dirección virtual ocupa 13 bits y se reparte como: s(5 bits) d(8 bits) ¿se podría aceptar un trabajo con un segmento cuyo tamaño es de 1 KByte?. Sí, ya que el tamaño de la memoria principal es mayor que el tamaño de dicho segmento. Sí, puesto que se usan 13 bits para expresar la dirección virtual, y 2 elevado a 12 es mayor que 1 KByte. No, ya que con 5 bits para designar un número del segmento no se puede direccionar 1 KByte. No, porque no se puede direccionar todas las direcciones de segmento de 1KBytes con esa dirección virtual.

¿Cuáles de las siguientes definiciones expresa correctamente una dirección virtual en un sistema segmentado/paginado?. s: número del segmento dentro del proceso. p: número de la página dentro del segmento. d: desplazamiento dentro del segmento. s: número del segmento dentro del proceso. p: número de la página dentro del proceso. d: desplazamiento dentro de la página. s: número del segmento dentro del proceso. p: número de la página dentro del segmento. d: desplazamiento dentro de la página. Un sistema segmentado paginado no es posible, es un sistema paginado segmentado.

De los siguientes esquemas de gestión de memoria, ¿cuál utiliza las estrategias de colocación primer ajuste, siguiente ajuste, mejor ajuste y peor ajuste?. Multiprogramación con particiones fijas. Segmentación. Segmentación paginada. Todos los esquemas de gestión de memoria utilizan estrategias de colocación.

¿Cuál de los siguientes algoritmos de reemplazo de páginas NO garantiza que aumentando el número de marcos disponibles para un proceso, su tasa de faltas de página disminuya?. LRU. NRU. Óptimo. FIFO.

¿Cuál de las siguientes afirmaciones es VERDADERA?. En paginación, la tabla de páginas asociada a un proceso tiene tantas entradas como el número de marcos ocupados por dicho proceso en memoria principal. Al usar memoria virtual, se puede ejecutar una instrucción de un proceso sin tener que cargar dicha instrucción en memoria principal. En segmentación, se produce un fallo de desbordamiento de segmento si d > t, siendo d el desplazamiento y t el tamaño del segmento. En paginación, la memoria principal se divide en segmento y éstos a su vez en marcos de página.

Se tiene un sistema de segmentación con toda la tabla de segmentos cargada en memoria y con un TLB de 10 nanosegundos. Si un acceso a memoria lleva 80 nanosegundos. ¿Cuánto es el tiempo de acceso medio a una dirección de memoria?. 90 nanosegundos. 110 nanosegundos. 170 nanosegundos. 160 nanosegundos.

En un sistema de memoria segmentado paginado, se aumenta el tamaño de página, manteniendo el mismo espacio físico y lógico, disminuirá... el número de entradas en la tabla de segmentos. el tamaño de cada entrada de la tabal de págians pero no el número de entradas. el número de páginas por segmento. nada, se mantiene todas las estructuras de datos de memoria sin cambios.

Sea la siguiente tabla de segmentos: Ala dirección lógica (0, 430) le corresponde la dirección física 649 y la dirección lógica (1, 10) es una referencia ilegal. A la dirección lógica (2, 500) le corresponde la dirección física 590. Ala dirección lógica (3, 430) le corresponde la dirección física 1727 y la dirección lógica (4, 112) es una referencia ilegal. No se puede calcular ninguna dirección, faltan datos.

Para detectar una dirección no válida en un sistema de memoria paginada se debe: comprobar si el desplazamiento de la dirección lógica emitida es inferior al tamaño de página almacenado en la tabla de páginas. comprobar si la página en la que se encuentra la dirección es una de las posibles entradas de la tabla de páginas. recorrer la memoria principal en busca de dicha dirección. no se puede saber si es uan dirección válida.

Suponga que se dispone de un sistema paginado con 20 marcos de página de 256 Bytes cada uno de ellos. ¿Cuál es el tamaño de la memoria principal de dicho sistema?. ¿Cuántos bits se necesitan para el desplazamiento de una dirección virtual?. Si para el número de página se usan 6 bits, ¿cuál sería el tamaño máximo de un proceso?. El tamaño de la memoria principal es de 20 KB, se necesitan 10 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 6 Kbytes. El tamaño de la memoria principal es de 10 KB, se necesitan 10 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 1,25 Kbytes. El tamaño de la memoria principal es de 5 KB, se necesitan 8 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 16 Kbytes. No se pueden hacer cálculo porque no se proporciona el tamaño de página.

Suponga que un proceso emita una dirección lógica (5, 18004) utilizando un modelo de gestión de memoria basado en segmentación paginada, con páginas de 4096 bytes. A esa dirección lógica le corresponde la dirección física. 4004. 8004. 9812. 23720.

Sobre la fragmentación de memoria principal: La fragmentación externa se elimina con paginación. La fragmentación externa se elimina con segmentación. La fragmentación externa es inevitable. La fragmentación externa se elimina con particiones variables.

Se quiere diseñar un sistema de paginación bajo demanda en el que se utiliza una política de reemplazo local con 3 marcos de página asignados para cada proceso. Para la siguiente secuencia de referencias a páginas: 1, 2, 3, 2, 1, 5, 6, 3, 2, 1, ¿qué política de reemplazo produciría un resultado más cercano a la óptima, FIFO o LRU?. LRU. FIFO. Tanto LRU como FIFO producen el mismo número de fallos. LRU produce menos fallos que el óptimo.

Con respecto a los algoritmos de asignación de memoria: “primer ajuste”, “mejor ajuste” y “peor ajuste” se puede afirmar que: Se utilizan en paginación. Su uso en particiones variables genera fragmentación externa y es necesaria la compactación. En segmentación, no tiene sentido el uso del algoritmo del peor ajuste, ya que la fragmentación interna que se produce no puede ser aprovechada por otro proceso. Se utilizan en las particiones fijas.

Sea un sistema de memoria segmentado en donde la memoria principal tiene un tamaño de 10 KBytes, y el tamaño de cada posición de memoria es de 1 Byte. Si la dirección virtual ocupa 13 bits repartidos como muestra la siguiente figura: s (5 bits) d (8 bits) ¿se podría aceptar un trabajo con un segmento cuyo tamaño es de 1KByte?. Sí, ya que el tamaño de la memoria principal es mayor que el tamaño de dicho segmento. Sí, puesto que se usan 13 bits para expresar la dirección virtual, y 2 elevado a 13 es mayor que 1 KByte. No, ya que con 5 bits para designar el número del segmento no se puede direccionar 1 Kbyte. No, porque no se puede direccionar todas las direcciones de segmento de 1KByte con esa dirección virtual.

En relación con la paginación con memoria virtual es cierto que: Un proceso cuyo tamaño sea de 20 páginas, puede provocar menos fallos de página que otro proceso cuyo tamaño sea de 10 páginas. Si ejecutamos un proceso y observamos que provoca 50 fallos de página, siempre que lo ejecutemos observaremos el mismo número de fallos de páginas. Un proceso cuyo tamaño sea de 20 páginas ocupará el doble de marcos que otro proceso cuyo tamaño sea de 10 páginas. Un proceso cuyo tamaño sea de 200 páginas provocará, como mínimo, 200 fallos de página.

Tenemos un sistema paginado donde el tamaño de la página es de 2048 posiciones (o Bytes). El tamaño que ocupa cada entrada (registro) de la tabla de páginas es de 32 bits. ¿Qué fragmentación interna, externa y de tablas se produce si se acepta un trabajo con un tamaño de 7553 Bytes?. Fragmentación interna: 639 Bytes fragmentación externa: 767 Bytes fragmentación de tablas: 96 bits. Fragmentación interna: No existe fragmentación externa: 639 Bytes fragmentación de tablas: 128 bits. Fragmentación interna: 639 Bytes fragmentación externa: No existe fragmentación de tablas: 128 bits. Todas las afirmaciones son FALSAS.

Suponga que dispone de un sistema paginado en donde la memoria principal tiene un tamaño de 5KBytes, y el tamaño de cada posición de memoria es de 1 Byte. Cada dirección virtual ocupa 14 bits, siendo los 5 primeros los usados para denotar el número de página y los restantes el desplazamiento. ¿Se puede ejecutar en dicha máquina un proceso cuyo tamaño es de 10 KBytes?. Sí, pues el tamaño del proceso es menor que el tamaño del proceso más grande que se puede ejecutar en esta máquina. No, el proceso tiene un tamaño mayor que el de la memoria principal, este proceso no se puede cargar en dicha memoria principal para ser ejecutado. Sí, puesto que al usar memoria virtual se puede ejecutar trabajos de cualquier tamaño, por ejemplo, procesos incluso de Mbytes. No, con esta dirección virtual no se puede direccionar el espacio de memoria principal.

¿Cuál de las siguientes operaciones NO es una función del Sistema de Gestión de Memoria del Sistema Operativo?. El gestor de memoria debe encargarse de conocer y gestionar los espacios libres y ocupados que existen en memoria principal. El gestor de memoria debe llevar a cabo la traducción de direcciones de un proceso. El gestor de memoria se ocupa liberar la memoria asignada a un proceso cuando éste finaliza. El gestor de memoria se ocupa de proporcionar protección entre los procesos.

Supongamos un sistema de gestión de memoria con segmentación paginada, con páginas de 1KB. Un proceso emite las siguientes direcciones lógicas: (1, 2487) y (1, 635). A continuación se muestra la tabla de páginas del segmento 1. ¿Cuáles serán las direcciones físicas correspondientes?. 8631 y 3707. 7607 y 7803. No se puede calcular sin la tabla de segmentos. 8631 y la segunda genera un fallo de página.

Sea un esquema de gestión de memoria virtual con segmentación. Para ejecutar un proceso es necesario que todos sus segmentos estén cargados en memoria principal. Divide al proceso en segmentos, almacenando en cada uno una región del proceso. Es difícil compartir o proteger las distintas regiones del proceso. Para traducir una dirección nos basta con la dirección base a partir de la cual está cargado todo el proceso y su tamaño.

¿En cuál de estas circunstancias es siempre necesario vaciar el estado actual de la TLB o memoria asociativa?. Cuando se cambia de contexto entre hilos de distintos procesos pesados. Cuando se cambia de contexto entre hilos de un mismo proceso pesado. Cuando se cambia de contexto entre hilos del núcleo. Todas las afirmaciones son VERDADERAS.

Sea un esquema de memoria basado en asignación contigua con particiones variables o dinámicas: En circunstancias normales, este esquema estará libre de fragmentación externa. En general, el tamaño máximo que puede tener un proceso está limitado por el tamaño de la memoria que deje libre el SO. El grado máximo de multiprogramación del sistema es fijo durante la ejecución del sistema. La política de asignación del peor ajuste es la que mayor fragmentación externa provocará.

De los siguientes esquema de gestión de memoria, ¿cuál utiliza las estrategias de colocación primer ajuste, siguiente ajuste, mejor ajuste y peor ajuste?. Multiprogramación con particiones fijas. Segmentación. Segmentación paginada. Todos los esquemas de gestión de memoria utilizan estas estrategias de colocación.

¿Cuál de las siguientes afirmaciones es VERDADERA?. En un esquema de particiones dinámicas es necesario realizar condensaciones de huecos. En un esquema de particiones estáticas es necesario realizar compactaciones periódicamente. Un esquema de particiones dinámicas genera fragmentación interna. Un esquema de particiones estáticas genera fragmentación externa.

Suponga que un proceso emite una dirección lógica igual a 8144 y que se utiliza paginación, con páginas de 2K palabras: A esa dirección lógica le corresponde la página 3 y el desplazamiento 2000. A esa dirección lógica le corresponde la página 4 y el desplazamiento 1038. A esa dirección lógica le corresponde la dirección física 24432. A esa dirección lógica le corresponde la página 2 y el desplazamiento 2024.

Un procesador maneja direcciones lógicas de 16 bits, direcciones físicas de 32 bits y páginas de 2 KB. ¿Cuántas páginas lógicas puede llegar a tener un proceso en este sistema?. 2^5. 2^21. 2^32. 2^16.

Se tiene una máquina con direcciones de 32 bits, con 10 bits de offset, y un proceso P4 cuyas referencias a memoria son las siguientes: 535 – 3451 – 7548 – 487 – 2087. Si el contenido de la tabla de páginas, en un determinado momento, para las entradas 0, 1, 2 es: (7, 4, 1). La dirección física de 2087 genera un fallo de página. La dirección 535 y 487 generan fallo de página. La dirección física de 7548 es 4476. La dirección física de 535 es 7703 y la dirección 7548 genera fallo de página.

En un sistema de memoria segmentado paginado, se aumenta el tamaño de página, manteniendo el mismo el espacio físico y lógico, disminuirá... el número de entradas en la tabla de segmentos. el tamaño de cada entrada de la tabla de páginas pero no el número de entradas. el número de páginas por segmento. nada, se mantienen todas las estructuras de datos de memoria sin cambios.

¿Cuál de las siguientes características de un sistema de memoria virtual?. El bit M (página modificada) para no tener que escribir las no modificadas. El bit P (página presente) para no tener que escribir las no presentes. El bit V (página valida) para no tener que leer ni escribir las no válidas. El bit R (página referenciada) para no tener que escribir las no referenciadas.

Supóngase que se dispone de un sistema paginado con 20 marcos de página de 256 Bytes cada uno de ellos. ¿Cuál es el tamaño de la memoria principal de dicho sistema?. ¿Cuántos bits se necesitan para el desplazamiento de una dirección virtual?. Si para el número de página se usan 6 bits, ¿cuál sería el tamaño máximo de un proceso?. El tamaño de la memoria principal es de 20 KBytes, se necesitan 10 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 6 KBytes. El tamaño de la memoria principal es de 10 KBytes, se necesitan 10 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 1,25 KBytes. El tamaño de la memoria principal es de 5 KBytes, se necesitan 8 bits para el desplazamiento, y el tamaño máximo de un trabajo es de 16 KBytes. No se pueden hacer cálculos porque no se proporciona el tamaño de página.

De los siguientes esquemas de gestión de memoria, ¿cuál requiere para poder ejecutar un trabajo(programa más datos) y que éste se almacene de forma completa y contigua en memoria principal?. Segmentación. Monoprogramación con overlays. Todo esquema que gestione la memoria obliga a que el trabajo se almacene de forma completa en memoria principal para poderse ejecutar. Multiprogramación con particiones variables.

Considera un sistema de paginación bajo demanda en el que un proceso que tiene asignados 4 marcos de página genera la siguiente secuencia de referencias a páginas: 4, 2, 4, 1, 6, 3, 2, 5, 6, 4, 1, 3, 5, 3. Indica que accesos producirían un fallo de página cuando se utiliza cada una de las políticas de reemplazo local FIFO, LRU y óptima. LRU es la que produce más fallos de página que son 11. Se producen el mismo número de fallos, que son 7. FIFO es la que produce más fallos de página que son 11. La política óptima NO produce ningún fallo de página.

Denunciar Test