option
Cuestiones
ayuda
daypo
buscar.php

Sistemas Operativos UCO

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Sistemas Operativos UCO

Descripción:
Asignatura de Sistemas Operativos de la UCO 2º Curso

Fecha de Creación: 2023/01/23

Categoría: Informática

Número Preguntas: 99

Valoración:(4)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Qué tipo de diseño tiene el sistema operativo Linux?. De máquinas virtuales. Monolítico. Jerárquicos (por capas). Cliente-servidor.

¿Si un sistema operativo se diseña como una máquina multinivel o máquina virtual en capas?. Hace que la implementación de cada capa sea independiente, a consta de una depuración más compleja ya que cada nivel oculta al superior la existencia de sus estructuras de datos y operaciones. Hace que el esfuerzo de mantenimiento y ampliación sea mayor, al depender de una capa de la inmediatamente superior o inferior. Hace que los implementadores tengan más libertad para cambiar el funcionamiento interno del sistema, siendo más mantenible y ampliable.

Un controlador de dispositivo o módulo de E/S tiene como misión principal: Evitar el aumento del número de interrupciones que provoca la E/S. Disminuir el tiempo de respuesta de los periféricos usando parte de la capacidad de cómputo de la CPU. Evitar tiempos ociosos en la CPU y almacenar temporalmente los datos debido a las diferentes velocidades de los dispositivos con los que se comunica.

De manera general un controlador, como procesador de propósito especial: Ejecuta instrucciones correspondientes a procesos de usuario mediante el acceso directo a la memoria principal. Ejecuta un conjunto limitado de instrucciones, no ejecuta procesos de usuario. Ejecuta procesos de usuario, al igual que la CPU.

Teniendo en cuenta el sistema de Entrada-Salida, seleccione la secuencia de comunicación correcta en una operación de lectura de un periférico externo. CPU-Driver-Controladora-Periférico. CPU-Controladora-Driver-Periférico. CPU-Controladora-Periférico-Driver.

Por regla general, una interrupción: Puede suceder en cualquier punto de ejecución de un programa de usuario, es imprevisible. Sucede solamente cuando termina la rodaja de tiempo asignada a un proceso. Aparece únicamente cuando finaliza la última instrucción del proceso que actualmente esté en ejecución.

¿A qué tipo de interrupción asociaría una mala referencia a memoria o una división por cero?. A una interrupción de E/S. A una interrupción por temporizador. A una interrupción de programa.

Las rutinas del servicio de interrupción o ISR: Se ejecutan directamente por parte del módulo E/S, el cual apunta al índice concreto del vector de interrupciones que aloja a la ISR. Se ejecutan por parte del programa de usuario, el cual inspecciona el vector de interrupciones e invoca a la rutina ISR correcta según el tipo de interrupción. Se ejecuta una vez que el software manejador de interrupciones determina el tipo de interrupción a tratar.

¿Qué contiene una entrada de la tabla de vectores de interrupción? P. El nombre de la rutina de tratamiento. La dirección de la rutina de tratamiento. El número de la interrupción. El nombre de la tarea del sistema operativo que trata la interrupción.

En la E/S programada: La CPU permanece en espera activa si el controlador de E/S no está listo al sondear su estado. La CPU no permanece en espera activa si el controlador de E/S no está listo al sondear su estado. La CPU no permanece en espera activa al existir las interrupciones.

Selecciona la respuesta más idónea. En una operación de lectura mediante E/S dirigida por interrupciones: El contexto del proceso actual se salva cada vez que se pasa un bloque de datos a memoria principal. El contexto del proceso actual se salva cuando el último bloque de datos ya se ha pasado a memoria principal. No es necesario salvar el contexto se salvar el contexto del proceso actual, ya que el procesador está sondeando continuamente el estado del módulo de E/S.

¿Qué código se ejecuta con las interrupciones inhibidas?. Ninguna, ya que podrían perderse interrupciones. Todo el código del sistema operativo. Ciertas partes críticas del código del sistema operativo. El código de los procesos del administrador del sistema que tenga prioridad máxima.

Seleccione la respuesta más adecuada. Suponga un sistema POSIX con interrupciones por prioridades, donde se produce una interrupción por E/S en disco duro que el sistema operativo comienza a tratar, pero esta es interrumpida por otra de mayor prioridad. P. El sistema operativo terminará la interrupción por E/S que estaba tratando, ya que esta había comenzado a ejecutarse, y posteriormente tratará la de mayor prioridad. El sistema operativo interrumpirá la interrupción por E/S que estaba tratando, para dar paso al tratamiento de la interrupción de mayor prioridad, desechando la primera al terminar. El sistema operativo interrumpirá la interrupción por E/S que estaba tratando, para dar paso al tratamiento de la interrupción de mayor prioridad, recuperando la primera al terminar.

Suponga un sistema POSIX con interrupciones por prioridades. Suponga que se produce una interrupción por E/S en disco duro, pero que está interrumpida continuamente por otra de mayor prioridad. De esta manera el disco duro nunca se podría utilizar. ¿Qué modificarías para solucionar esto?. El planificador del dispositivo de E/S. Las llamadas al sistema de E/S. El dispatcher del planificador.

¿Cuál de las siguientes combinaciones no es factible?. Spooling en un sistema monousuario. Procedimiento por lotes con multiprogramación. Tiempo compartido sin multiprogramación. Multiprogramación en un sistema monousuario.

Se entiende a multiprocesamiento como: La ejecución simultánea de más de un proceso a la vez en un sistema. La multiplexación de procesos en sistemas uniprocesador o multiprocesador. La ejecución paralela de varios procesos en un sistema uniprocesador mononúcleo.

En un sistema de multiprocesamiento o SMP: A cada procesador se le asigna una tarea por parte de un procesador principal que controla al resto. Cada procesador usa su propia memoria principal y sus propios módulos de E/S no compartidos. La disponibilidad aumenta con respecto a los sistemas asimétricos.

La capacidad de cómputo de un sistema multiprocesador mejora con la adición de más procesadores, de forma que el aumentar su número. Aumenta la capacidad de cómputo en N, siendo N el número de procesadores añadidos. Aumenta su capacidad de cómputo en un valor <N, siendo N el número de procesadores añadidos. Ninguna de las anteriores.

Selecciona la respuesta más idónea. La existencia del modo núcleo (kernel) del sistema operativo. Asegura que un error que se produzca en un programa de usuario solo genere problemas en el programa que estuviera ejecutando a ese nivel. Asegura al usuario que si un error se produce en un programa de aplicación este pueda depurar la zona del núcleo que ha dado lugar a dicho error. Asegura que las interrupciones que se produzcan por parte de un módulo E/S se puedan modificar desde un programa de aplicación a nivel de usuario.

¿Qué caracteriza más a un sistema operativo?. Intérpretes de mandatos. Llamadas al sistema. Mandatos. Bibliotecas de programación.

Las llamadas al sistema: Son rutinas nativas del núcleo del sistema operativo que actúan de interfaz entre el usuario y los servicios y recursos que gestiona el sistema. Estas rutinas se invocan indirectamente desde rutinas o funciones de biblioteca. Son rutinas nativas en la capa de aplicación del sistema operativo que actúan entre el usuario y los servicios y recursos que gestiona el sistema. Estas rutinas se invocan indirectamente desde rutinas o funciones de biblioteca. Ninguna de las anteriores.

¿Qué es falso acerca de una llamada al sistema?. Se implementa con un trap. Su interfaz ofrece como una rutina de biblioteca. Produce un cambio a modo supervisor. Produce siempre un cambio de contexto.

En sistemas operativos se conoce el término trap como: Una rutina de interrupción especial que permite el cambio entre modo usuario y modo núcleo y la comprobación correcta de los parámetros pasados a llamadas al sistema. El momento en que un proceso que está ejecutando en la CPU se saca de esta para dar paso a otro proceso de la lista de listos. Al mecanismo de salvado y cambio de contexto de un proceso.

En un hipotético sistema con arquitectura x86 de 32 bits y un kernel de Linux versión 2.6, si tuviera que añadir una nueva llamada al sistema, entre otras cosas haría lo siguiente: Añadiría la nueva llamada en cualquiera de las posiciones disponibles en la tabla de llamadas al sistema del fichero include/asm-i386/traps.c. No es posible añadir nuevas llamadas al sistema, ya que estaríamos modificando el núcleo y corrompiendo la gestión de los recursos del sistema. Añadiría la nueva llamada a partir del último identificador de llamada que se encontrase en el fichero include/asm-i386/unistd.h, de forma que pudiera mantener la compatibilidad con otras versiones del núcleo.

Uno de los métodos que se podría emplear para pasar al núcleo los parámetros de la invocación de una llamada nativa al sistema en modo usuario (wrapper) consiste en: P. Pasar los parámetros a una serie de registros de la CPU accesibles en modo núcleo. Pasar los parámetros a la pila del núcleo. Pasar los parámetros a una serie de registros de la CPU accesibles en modo usuario.

En un hipotético sistema con arquitectura x86 de 32 bits y un kernel de Linux de versión 2.6, en la función de tipo trap para la invocación de llamadas al sistema: En modo núcleo se realiza una carga en el registro eax donde se pone el identificador de la llamada nativa a invocar y posteriormente se invoca a system_call(). En modo usuario se invoca a system_call(), pasándose a modo núcleo y cargándose posteriormente el registro eax, donde se pone el identificador de la llamada nativa a invocar. En modo usuario se realiza una carga en el registro eax donde se pone el identificador de la llamada nativa a invocar, posteriormente se pasa a modo núcleo y se invoca a system_call().

En un sistema POSIX, el bloque de control de procesos del sistema operativo guarda: La zona de código ejecutable de los procesos que existen en el sistema, de forma que el sistema operativo pueda multiplexar entre ellos sin dejar ociosa la CPU. La pila de cada uno de los procesos que hay en el sistema, proporcionando al sistema operativo un control total de los procesos. El conjunto de datos por los cuales el sistema operativo es capaz de supervisar y controlar los procesos que hay en el sistema.

Dado que el BCP o Bloque de Control de Procesos permite almacenar el contexto de un proceso: Una instrucción se puede detener en la fase de búsqueda o en la fase de ejecución. Una interrupción se puede detener al terminar la fase de comprobación de interrupciones. Ninguna de las anteriores es correcta.

Una de las razones por las que se guarda el contexto de un proceso que actualmente está en ejecución cuando se va a tratar una interrupción es: Porque la rutina de tratamiento de interrupciones podría utilizar registros del procesador que contienen información del proceso actual. En una interrupción no se guarda el contexto del proceso actual, esta operación solo se realiza en los cambios de contexto por interrupción de ciclo de reloj. En una interrupción no se guarda el contexto del proceso actual, esta operación solo se realiza en los cambios de contexto por interrupción de ciclo de reloj.

Seleccione la respuesta más idónea: El BCP o bloque de control de procesos permite al sistema operativo dar soporte a la tabla de procesos y registro de activación que forma la imagen del proceso que se está ejecutando. El BCP o bloque de control de procesos permite al sistema operativo dar soporte a múltiples procesos y proporcionar multiprogramación. Ninguna de las anteriores.

Seleccione la respuesta correcta: El conjunto de código, pila, montículo, registros de activación y BCP de un proceso conforman su imagen, que debe estar cargada en memoria principal para poder ejecutarse. El conjunto de código, datos, pila, montículo y BCP de un proceso conforman su imagen, que debe estar cargada en memoria principal para poder ejecutarse. El conjunto de registros de activación y BCP de un proceso conforman su imagen la cual no necesita estar cargada en memoria principal para poder ejecutarse.

Durante la invocación de una función en la ejecución de un proceso, en la pila asociada a dicho proceso se almacena lo siguiente: La función que llama coloca los valores de los parámetros. La función llamada coloca el valor devuelto. La función que llama coloca las variables locales.

Dada la imagen de un proceso ¿Dónde se sitúan los registros de activación?. En el BCP. En la pila. En la parte colocada por la función llamada.

Un proceso en estado de bloqueo: Siempre espera por la ocurrencia de un evento. Siempre espera por la conclusión de una actividad de E/S. Reside en la cola de preparados en espera de entre nuevamente en la CPU. Reside en la cola procesos de baja prioridad.

Cuando un proceso se encuentra en estado Saliente: El proceso es elegible para su ejecución al pasar de nuevo a estado Listo. El proceso no es elegible de nuevo para su ejecución y no está cargado en RAM. El proceso es elegible para su ejecución, siempre que la parte de su imagen que corresponde al BCP se encuentre en RAM y pase a estado Listo.

Seleccione la opción más apropiada en relación a cuándo un proceso puede pasar de estado Ejecutando a estado Listo: Un proceso A está ejecutando a un determinado nivel de prioridad, y un proceso B que se encuentra en estado Bloqueado tiene un nivel de prioridad mayor. El sistema operativo advierte que se produce el evento por el cual el proceso B estaba esperando. Esto puede interrumpir el proceso A y poner en ejecución al proceso B, pasando A de estado Ejecutando a estado Listo. Parte de la imagen de un proceso que está en estado Ejecutando pasa a memoria secundaria, por lo que se interrumpe su ejecución y pasa a estado Listo. Un proceso A está en estado Ejecutando y realiza una invocación de Entrada-Salida, lo que lo lleva a estado Listo hasta que se complete dicha operación.

En un sistema basado en POSIX, suspender un proceso implica expulsarlo del espacio de memoria principal. Esto implica que: Solo el hilo principal en todos los hilos asociados al proceso pasa a estado suspendido. Los hilos asociados a este proceso no pasan a estado suspendido, continuando con su ejecución. Todos los hilos de este proceso pasan a estado suspendido.

En un sistema multihilo: Un proceso pesado puede tener varios hilos con distintos espacios de memoria. Un proceso pesado tiene 1 o más hilos con distintos conjuntos de registros. Por lo general, el tiempo de cambio de contexto es mayor entre hilos que entre procesos pesados. Por lo general, el tiempo de cambio de contexto es mayor entre hilos que entre procesos pesados.

En un sistema multihilo: Los hilos de un mismo proceso pesado comparten el mismo código. Los hilos de distintos procesos pesados comparten la misma pila. Los hilos de un mismo proceso pesado comparten el mismo contador de programa. Todas son falsas.

En un sistema basado en POSIX, si hay un proceso con varios hilos, ¿Cuál es la zona que se usa para datos que puedan ser accedidos por todos los hilos de ese proceso?. El montículo del proceso principal. La pila del proceso principal. Ninguna de las anteriores.

En un sistema basado en POSIX, si hay un proceso con varios hilos, ¿Cuál es la zona que se usa para datos que puedan ser accedidos por todos los hilos de ese proceso?. El montículo del proceso principal. La pila del proceso principal. Ninguna de las anteriores.

El modelo multihilo “muchos a uno” se utiliza principalmente en: Sistemas que no soporten multiprocesamiento o en aplicaciones muy concretas. Sistemas que soporten multiprocesamiento, aprovechando así la existencia de varios núcleos. Sistemas que no bloquean a un proceso entero si un hilo de ese proceso se bloquea.

En los hilos a nivel de usuario. Los cambios de hilo se producen en el espacio de direcciones del usuario, pudiéndose usar en cualquier sistema operativo, soporte o no hilos. Los cambios de hilo se producen en el espacio de direcciones de núcleo y se ejecutan en el espacio de direcciones de usuario. El bloqueo de un hilo no afecta a los demás hilos. Ninguna de las anteriores.

En el arranque de servicios de la versión Systemd: Los servicios dejan sus eventos en el sistema de registros situado en /var/log/. Los servicios dejan sus eventos en el sistema de registros journal, que reemplaza o convive con el sistema /var/log/. Los servicios no dejan eventos en registros /var/log/ o journal al no tener interacción directa con el usuario, se indican en las unidades de tipo target.

Si en un sistema hay varios procesos que actúan sobre los recursos compartidos, pero lo hacen de manera secuencial (multiplexándose), es decir, solo hay un proceso a la vez que esté utilizando dichos recursos, entonces: Es posible que se den condiciones de carrera que puedan provocar que los recursos compartidos se corrompan. No se pueden dar condiciones de carrera que puedan provocar que los recursos compartidos se corrompan. Es posible que se den condiciones de carrera que puedan provocar que los recursos compartidos se corrompan, pero solo si a nivel de aplicación se ejecutan hilos en paralelo.

El problema de la sección crítica aparece porque: Existen sistemas de memoria compartida aparte de los de paso de mensajes. La espera es insuficiente para resolver la exclusión mutua de procesos concurrentes. La ejecución de porciones de código del sistema operativo accediendo a tablas protegidas ha de ejecutarse en exclusión mutua. Varios procesos concurrentes pueden acceder a un mismo conjunto de datos.

Una solución correcta al problema de la sección crítica: A) Debe garantizar la exclusión mutua. B) Debe garantizar que un proceso no interesado en entrar en sección crítica no impida a otro procesos interesados entrar en ella. C) a y b son ciertas. D) a cierta y b lo sería solo cuando se desea obtener una mayor velocidad en al gestión de la entrada en sección crítica.

El problema de la sección crítica queda resuelto automáticamente con: Regiones críticas simples. Regiones críticas condicionales. Monitores. Todas son ciertas.

Para resolver el problema de exclusión mutua, puede emplearse una variable global turno con el identificador del proceso que tiene derecho a entrar en la sección crítica. Cada vez que un proceso sale de su sección crítica, cambia el valor de turno al identificador de otro proceso. Esta solución: Correcta. No cumple la propiedad de exclusión mutua. No cumple la propiedad de progreso. No cumple la propiedad de independencia de la arquitectura.

Los semáforos con respecto a las implementaciones hardware test&set: Resuelven el problema de la inanición provocado por el acceso a memoria de test&set, ya que los semáforos no usan mecanismos de señalización para procesos que estén esperando a entrar en una sección crítica compartida. Resuelven el problema de la espera activa y de la arbitrariedad de acceso a la sección crítica. Resuelve el problema de la aplicación de dichas instrucciones hardware a nivel de multiprocesador, ya que estas instrucciones solo pueden utilizarse en sistemas uniprocesador. Ninguna de las anteriores.

En un semáforo general con una cola FIFO: Ante varios procesos bloqueados en espera de entrar en la sección crítica, el proceso que entrará en ella a continuación depende de la política del planificador al extraerlo de la cola FIFO y ponerlo en la lista de listos. Ningún proceso puede acceder a la sección crítica antes que otro proceso que haya intentado llegar primero mientras está ocupado. Ninguna de las anteriores.

¿Cuál es la ventaja fundamental de los semáforos con respecto a soluciones software clásicas como los algoritmos de Dekker, Peterson y las instrucciones hardware test&set?. Que los semáforos se pueden utilizar con procesos y con hilos y el resto de técnicas solo con procesos. Que el uso correcto de los semáforos evita la espera activa. Que los semáforos consiguen paralelismo real incluso en los sistemas uniprocesador.

Los semáforos fuertes: Hacen que se pueda producir inanición ya que dan prioridad a los procesos más importantes. Evitan inanición porque dan acceso al proceso en cola con mayor prioridad. Evitan inanición porque no tienen en cuenta la prioridad de los procesos que puede haber en su cola.

Los semáforos fuertes con respecto a las implementaciones hardware test&set: Resuelven el problema de la espera activa y de la arbitrariedad de acceso a la sección crítica. Resuelven el problema de la aplicación de dichas instrucciones hardware a nivel de multiprocesador, ya que estas instrucciones solo pueden utilizarse en sistemas uniprocesador. Resuelven el problema de la inanición provocando por el acceso a memoria de test&set gracias a que los semáforos no usan mecanismos de señalización para procesos que estén esperando a entrar en una sección crítica compartida.

Las regiones críticas pueden resolver más problemas de sincronización que los semáforos: Verdadero. Falso.

Un semáforo tiene actualmente el valor 2. Si se ejecuta una operación wait o P sobre él, ¿Qué sucederá?. El proceso que ejecuta la operación se bloquea hasta que otro ejecute una operación signal o V. Tras hacer la operación, el proceso continuará adelante sin bloquearse. El proceso continuará adelante sin bloquearse, y si previamente existían procesos bloqueados a causa del semáforo, se desbloqueará uno de ellos. Un semáforo jamás podrá tener valor dos, si su valor inicial es cero y se ha operado correctamente con él.

Los semáforos: Eliminan el problema del interbloqueo. Son más potentes que las regiones críticas condicionales. Tienen 2 operaciones públicas (wait y signal). Todas son ciertas.

Se ejecutan consecutivamente 2 operaciones wait sobre un semáforo. ¿Es esto posible?. Sí. Sí, siempre que hayan sido procesos diferentes. No. No, si las ha realizado un solo proceso.

Cuando un proceso en ejecución tenga asignada satisfactoriamente una función callback () asociada a una señal y la reciba, entre otras cosas, ¿Que piensa que cambiará? P. El limite de rodaja de tiempo del proceso. El estado del proceso que pasará a bloqueado hasta que se reciba la señal. La parte del BCP asociada al contador del programa de dicho proceso.

Seleccione la respuesta correcta respecto al envío de señales POSIX entre dos procesos a nivel de usuario: Un proceso puede enviar una señal al otro proceso a través del espacio de usuario mediante la llamada nativa al sistema kill(). Un proceso puede enviar una señal al otro proceso al pasar a modo núcleo, a través de la pertinente llamada nativa invocada indirectamente. Un proceso puede enviar una señal al otro proceso a través del espacio de usuario mediante la llamada nativa al sistema kill() sin pasar a modo núcleo. Ninguna de las anteriores.

El planificador a largo plazo: Controla el grado de multiprocesamiento. Ninguna de las anteriores. Controla el grado de multiprogramación. Controla el límite de rodaja de tiempo por proceso.

Escoja la respuesta que ordene de mayor a menor frecuencia de ejecución el uso de los planificadores: Planificador a largo plazo, planificador a medio plazo y planificador a corto plazo,. Planificador a largo plazo, planificador a corto plazo y planificador a medio plazo. Planificador a corto plazo, planificador a medio plazo y planificador a largo plazo. Ninguna de las anteriores.

Seleccione la respuesta más idónea. Suponga un sistema que utilice swapping, donde acaba de entrar un proceso prioritario que necesita mucha cantidad de memoria principal para poder cargar su imagen. El sistema operativo dejará el proceso en estado Nuevo hasta que se elimine la imagen debido a su finalización normal de otros procesos que están ocupando memoria principal. El sistema operativo optará por pasar uno o varios procesos en estado Bloqueado/Suspendido. El sistema eliminará varios procesos (incluyendo su BCP) hasta dejar la suficiente memoria principal como para cargar la imagen del proceso prioritario.

La política de planificación primero en llegar, primero en ser servido (FCFS): Es una política no expulsiva que generalmente funciona mejor con procesos largos y favorece a los procesos limitados por el procesador frente a los procesos limitados por E/S. Es una política expulsiva que no discrimina entre los procesos largos y cortos y que favorece a los procesos limitados por E/S frente a los procesos limitados por el procesador. Es una política no expulsiva que generalmente funciona mejor con procesos cortos y favorece a los procesos limitados por el E/S frente a los procesos limitados por procesador. Ninguna de las anteriores.

¿Cuál de estas políticas no puede ser expulsiva por definición?. FCFS. SJF. Round-Robin. Multicola con realimentación.

Sobre la planificación de procesos: Todos los métodos basados en prioridades tienen riesgo de inanición. Métodos multicola están concebidos para planificar sistemas multiprocesadores. El algoritmo FCFS perjudica a los procesos intensivos en CPU. Ninguna de las anteriores.

En la planificación con turno rotatorio: Un valor de rodaja o quantum pequeña hace que se favorezca a los procesos limitados por la E/S. Un valor de rodaja o quantum pequeña puede dar lugar a sobrecargas de procesamiento debido al uso continuado de funciones de planificación y activación. Un valor de rodaja o quantum pequeña degenera en la planificación primero en llegar, primero en ser servido (FCFS), ya que provocará inanición a los procesos largos.

La política de planificación Round-Robin está indicada: Para que el tiempo de respuesta esté acotado. Para sistema en tiempo real. Para incrementar rendimiento de CPU. Para mantener mezcla equilibrada de procesos según sus características.

Sobre la técnica de planificación Round-Robin: Si el quantum de tiempo tiende a infinito, la técnica degenera en un SJF. Permite implementar sistemas de tiempo compartido. A medida que el quantum de tiempo se hace más pequeño, se reduce el tiempo de respuesta. Es más equitativa que los métodos expulsivos.

El algoritmo de planificación de colas de prioridades multinivel retroalimentada: Tiene el problema de que un proceso con baja prioridad puede llegar a inanición si hay procesos con mayor prioridad listos para ejecutarse. Asigna a cada proceso entrante la misma cola. Asigna una cola a un proceso entrante dependiendo del tipo de proceso que sea. Ninguna de las anteriores.

El esquema de planificación de colas multinivel retroalimentado con quantum q=1 presenta el siguiente problema: Si un proceso no ha cumplido su rodaja de tiempo comienza con una nueva en la cola de mayor prioridad. Los procesos más cortos podrían entrar en una grave inanición si están entrando nuevos procesos frecuentemente en el sistema. El tiempo de estancia para los procesos más largos se puede alargar de manera alarmante.

Seleccione la respuesta correcta con respecto al algoritmo de planificación SPN (Shortest Process Next): Es una política expulsiva que necesita conocer el tiempo restante de cada proceso y posibilita la inanición de procesos largos. Es una política que necesita saber el tiempo de servicio de cada proceso y posibilita la inanición de procesos cortos. Es una política que necesita conocer el tiempo de servicio de cada proceso y posibilita la inanición de procesos largos.

En un sistema operativo que planifica procesos según un algoritmo SJF expulsivo, la llegada de un proceso nuevo al sistema: Provoca desalojo del proceso actualmente en ejecución. Obliga al nuevo proceso a esperar un tiempo en cola de preparados. Puede hacer que el proceso actualmente en ejecución abandone la CPU de incremento. Puede provocar que ingrese en la CPU un proceso en espera diferente al nuevo proceso.

Un planificador de procesos SJF: Minimiza el tiempo de espera máximo de un proceso. Exige el conocimiento de la duración en CPU de los procesos. Reparte uniformemente el tiempo de un proceso. Todas son ciertas.

Una política SJF de planificación de procesos: Reduce al mínimo el tiempo de respuesta medio. Reduce al mínimo el tiempo de espera medio. Es preferible al Round-Robin en un sistema interactivo. Presenta riesgo de interbloqueo de procesos menos favorecidos.

Ante dos o más procesos que pueden entrar en CPU y que tengan un mismo tiempo restante, la política SRT (Shortest Remaining Time) aplica un orden FIFO, es decir, se le da prioridad al proceso que más tiempo lleve en cola. Verdadero. Falso, en ese caso se le da prioridad al proceso más actual con respecto a su estancia en el sistema. Falso, la política SRT no se base en el menor tiempo restante, sino en el tiempo que ha estado el proceso en CPU.

El problema principal que representan las políticas de planificación Shortest Process Next-SPN y Shortest Remaining Time-SRT es: No se puede implantar en sistemas en los que no se conoce a priori el tiempo de CPU que requieren los procesos situados en la lista de Listos según su tipo, o en sistemas en los que no se puede hacer una predicción cercana a la real. No se puede implantar en sistemas en los que el modo de decisión es no expulsivo. Es que producen inanición en procesos cortos en sistemas en los que la mayoría de procesos son de ese tipo.

En un modelo de comunicación Cliente-Servidor, si se usa una primitiva tipo send() bloqueante: El emisor de la primitiva se queda en estado bloqueado en espera de un mensaje de confirmación, reanudándose su ejecución tras la recepción del mismo. El emisor de la primitiva continua su ejecución, realizando una copia del mensaje enviado en el núcleo del sistema, evitando así problemas de modificación del mensaje. El emisor de la primitiva se queda bloqueado y realiza una copia del mensaje enviado al núcleo del sistema. Tras realizar la copia continua con su ejecución.

¿Cuántas llamadas al sistema estándares posee UNIX?. 16. 32. 64. 128.

El manejo de interrupciones en UNIX se soporta por: Subsistema de control de procesos. Subsistema de ficheros. Subsistemas de E/S. Módulo de control del hardware.

¿Cómo indica UNIX a un programa C el tipo de error que se ha producido en una llamada al sistema?. Con uno de los parámetros de la llamada. Con una señal. Con un valor negativo en el resultado de la función de llamada al sistema. Con un valor negativo en el resultado de la función al sistema y una variable global.

¿Qué característica es común entre UNIX monolítica y uno basado en micronúcleo?. La interfaz a las aplicaciones de los servicios del sistema. La modularidad de su estructura. La forma de implementar los servicios del sistema. El mecanismo de interacción entre las partes del sistema.

¿Qué es falso acerca de UNIX?. Sistema operativa de tiempo real. Sistema operativo de tiempo compartido. Sistema operativo con multiprogramación. Sistema operativo interactivo.

UNIX utiliza una política de planificación de procesos basada en: Primero en llegar, primero en ser servido. Primero el más corto sin apropiación. Primero el más corto con apropiación. Round-Robin.

En la planificación de procesos UNIX, las prioridades pueden cambiar, cuando los procesos: Se ejecuta en modo usuario. Se ejecutan en modo sistema. En los 2 anteriores. Nunca pueden cambiar.

¿Cuál de las siguientes técnicas hardware tiene mayor influencia en la construcción de un sistema operativo?. Microprogramación del procesador. Caché de la memoria principal. DMA. RISC.

¿Cuántas instrucciones de las siguientes deben ejecutarse exclusivamente en modo núcleo?. Inhibir todas las interrupciones. Escribir en los registros de control de un controlador de DMA. Leer el estado de un controlador de periférico. Provocar un trap o interrupción software. Escribir en el reloj de la computadora. Escribir en los registros de la MMU.

¿Cuál de los siguientes mecanismos hardware no es un requisito para construir un sistema operativo multiprogramado con protección entre usuarios?. Memoria virtual. Protección de memoria. Instrucciones de E/S que solo pueden ejecutarse en modo núcleo. 2 modos de operación: núcleo y usuario.

¿Qué es mejor para un sistema con varios terminales?. Un sistema operativo por lotes sin spooling. Un sistema operativo con spooling. Un sistema en tiempo real. Un sistema multiusuario.

Para soslayar la amplía variedad de periféricos, la mejor solución consiste en: Obligar a sincronizar los periféricos con la E/S por medio de interrupciones y manejadores de dispositivos en el núcleo. Ofrecer periféricos virtuales universales dentro del sistema operativo. Adquirir siempre periféricos con idénticas especificaciones. Crear bibliotecas de funciones en los lenguajes de programación, que traten a los dispositivos de una forma estándar.

Un manejador de dispositivo: Se ciñe a una interfaz a una interfaz de uso impuesta por el diseñador del sistema operativo. Accede al hardware de E/S indirectamente, ya que se ejecuta en modo usuario. Si es de bloques, utiliza una caché para optimizar los accesos a la E/S. Ofrece sus servicios en forma de llamadas al sistema.

El empleo de búferes en las operaciones de salida a periféricos: Aumenta la velocidad de los periféricos. Aumenta la velocidad de transferencia de datos. Permite solapar actividad de CPU en las de E/S. Obliga al proceso a esperar cuando el búfer está vacío.

Una finalidad de la administración de la E/S en un sistema operativo es: Ocultar detalles de la misma al usuario. Crear estándares de dispositivos físicos. Prohibir el uso simultáneo de los periféricos. Usar búferes para optimizar transferencias de datos.

El núcleo puede desalojar un proceso de memoria principal al ejecutar: Llamada al sistema open. Llamada al sistema exec. Llamada al sistema wait. Llamada al sistema fork.

Las variables de tipo condición aparecen en: Semáforos. Regiones críticas en general. Regiones críticas condicionales. Monitores.

En general, una buena planificación de peticiones a disco pretende: Disminuir el tiempo medio de atención a las peticiones. Maximizar la velocidad de la cabeza de lectura/escritura. Primar a las peticiones de procesos interactivos. Favorecer al spooler de disco.

En un sistema informático, los procesos recién creados entran en una cola de espera. Entran en la cola de preparados cuando se ve que la utilización de la CPU cae por debajo del 20%. Este sistema: Usa plan expulsivo. Usa plan a largo plazo. Aplica envejecimiento de procesos. Aplica multicola de 2 núcleos con realimentación.

En un sistema POSIX donde se utilice el swapping un proceso podría pasar de un estado bloqueado a un estado bloqueado/suspendido: Si se determina que el evento que ha ocurrido no lo va a llevar al estado listo. Si se determina que el proceso en actualmente ejecución requiere más memoria principal de la que se dispone. Ninguna de las anteriores.

En la planificación de un sistema POSIX que emplea una política Round Robin multinivel, el cálculo de la prioridad de un proceso sirve principalmente para: Saber en qué cola alojarlo. Saber cuánto tiempo de ejecución le resta en su próximo acceso a CPU. Saber en qué grupo de procesos colocarlo.

Denunciar Test