Procesos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 25

Introducción y Definiciones sobre Procesos

El concepto central de cualquier Sistema Operativo es el de proceso: una


abstracción de un programa en ejecución también llamada tarea.
No hay un acuerdo universal sobre una definición de proceso, pero sí algunas
definiciones aceptadas:

 Un programa que se está ejecutando.


 Una actividad asincrónica.
 El emplazamiento del control de un procedimiento que está siendo
ejecutado.
 Aquello que se manifiesta por la existencia en el Sistema Operativo de un
bloque de control de proceso.
 Aquella entidad a la cual son asignados los procesadores.
 La unidad despachable.

En sistemas de multiprogramación la cpu alterna de programa en programa, en un


esquema de seudo paralelismo , es decir que la cpu ejecuta en cierto instante un
solo programa, intercambiando muy rápidamente entre uno y otro.
El paralelismo real de hardware se da en las siguientes situaciones:

 En ejecución de instrucciones de programa con más de un procesador de


instrucciones en uso simultáneamente.
 Con la superposición de ejecución de instrucciones de programa con la
ejecución de una o más operaciones de entrada / salida.

El modelo de procesos posee las siguientes características:

 Todo el software ejecutable, inclusive el Sistema Operativo, se organiza en


varios procesos secuenciales o procesos.
 Un proceso incluye al programa en ejecución y a los valores activos del
contador, registros y variables del mismo.
 Conceptualmente cada proceso tiene su propia cpu virtual.
 Si la cpu alterna entre los procesos, la velocidad a la que ejecuta un
proceso no será uniforme, por lo que es necesario aclarar lo siguiente:
o Que los procesos no deben programarse con hipótesis implícitas
acerca del tiempo.
o Que normalmente la mayoría de los procesos no son afectados por
la multiprogramación subyacente de la cpu o las velocidades
relativas de procesos distintos.
 Un proceso es una actividad de un cierto tipo, que tiene un programa,
entrada, salida y estado.
 Un solo procesador puede ser compartido entre varios procesos con cierto
“algoritmo de planificación” , el cual determina cuándo detener el trabajo en
un proceso y dar servicio a otro distinto

En cuanto a las jerarquías de procesos es necesario señalar que los Sistemas


Operativos deben disponer de una forma de crear y destruir procesos cuando se
requiera durante la operación, teniendo además presente que los procesos
pueden generar procesos hijos mediante llamadas al Sistema Operativo, pudiendo
darse ejecución en paralelo.
Respecto de los estados del proceso deben efectuarse las siguientes
consideraciones:
 Cada proceso es una entidad independiente pero frecuentemente debe
interactuar con otros procesos
 Los procesos pueden bloquearse en su ejecución porque:
 Desde el punto de vista lógico no puede continuar porque espera datos que
aún no están disponibles.
 El Sistema Operativo asignó la cpu a otro proceso.
 Los estados que puede tener un proceso son:
 En ejecución: utiliza la cpu en el instante dado.
 Listo: ejecutable, se detiene en forma temporal para que se ejecute otro
proceso.
 Bloqueado: no se puede ejecutar debido a la ocurrencia de algún evento
externo.
 Son posibles cuatro transiciones entre estos estados.

Estados de Procesos

Durante su existencia un proceso pasa por una serie de estados discretos, siendo
varias las circunstancias que pueden hacer que el mismo cambie de estado.
Debido a ello se puede establecer una “Lista de Listos” para los procesos “listos” y
una “Lista de Bloqueados” para los “bloqueados”.

La “Lista de Listos” se mantiene en orden prioritario y la “Lista de Bloqueados”


está desordenada, ya que los procesos se desbloquean en el orden en que tienen
lugar los eventos que están esperando.
Al admitirse un trabajo en el sistema se crea un proceso equivalente y es insertado
en la última parte de la “Lista de Listos”.
La asignación de la cpu al primer proceso de la “Lista de Listos” se denomina
“Despacho”, que es ejecutado por una entidad del Sistema Operativo llamada
“Despachador”.

El “Bloqueo” es la única transición de estado iniciada por el propio proceso del


usuario, puesto que las otras transiciones son iniciadas por entidades ajenas al
proceso.

La manifestación de un proceso en un Sistema Operativo es un “Bloque de Control


de Proceso” (PCB) con información que incluye:

 Estado actual del proceso.


 Identificación única del proceso.
 Prioridad del proceso.
 Apuntadores para localizar la memoria del proceso.
 Apuntadores para asignar recursos.
 Área para preservar registros.

Cuando el Sistema Operativo cambia la atención de la cpu entre los procesos,


utiliza las áreas de preservación del PCB para mantener la información que
necesita para reiniciar el proceso cuando consiga de nuevo la cpu.
Los sistemas que administran los procesos deben poder crear, destruir,
suspender, reanudar, cambiar la prioridad, bloquear, despertar y despachar un
proceso.
La “creación” de un proceso significa:

 Dar nombre al proceso.


 Insertar un proceso en la lista del sistema de procesos conocidos.
 Determinar la prioridad inicial del proceso.
 Crear el bloque de control del proceso.
 Asignar los recursos iniciales del proceso.

Un proceso puede “crear un nuevo proceso”, en cuyo caso el proceso creador se


denomina “proceso padre” y el proceso creado “proceso hijo” y se obtiene una
“estructura jerárquica de procesos”.

La “destrucción” de un proceso implica:

 Borrarlo del sistema.


 Devolver sus recursos al sistema.
 Purgarlo de todas las listas o tablas del sistema.
 Borrar su bloque de control de procesos.

Un proceso “suspendido” no puede proseguir hasta que otro proceso lo reanude.


Reanudar (reactivar) un proceso implica reiniciarlo en el punto donde fue
suspendido.

La “destrucción” de un proceso puede o no significar la destrucción de los


procesos hijos, según el Sistema Operativo. Generalmente se denomina “Tabla de
Procesos” al conjunto de información de control sobre los distintos procesos.
Procesamiento de Interrupciones.
Una “interrupción” es un evento que altera la secuencia en que el procesador
ejecuta las instrucciones; es un hecho generado por el hardware del computador
Cuando ocurre una interrupción, el Sistema Operativo:

 Obtiene el control.
 Salva el estado del proceso interrumpido, generalmente en su bloque de
control de procesos.
 Analiza la interrupción.
 Transfiere el control a la rutina apropiada para la manipulación de la
interrupción.

Una interrupción puede ser iniciada por un proceso en estado de ejecución o por
un evento que puede o no estar relacionado con un proceso en ejecución.
Generalmente las interrupciones se pueden clasificar por tipos según el siguiente
detalle:

“SVC (llamada al supervisor)”: es una petición generada por el usuario para un


servicio particular del sistema, por ejemplo, realización de Entrada / Salida u
obtención de más memoria.

“Entrada / Salida”: son iniciadas por el hardware de Entrada / Salida, indicando a


la cpu que ha cambiado el estado de un canal o dispositivo, por ejemplo,
finalización de Entrada / Salida u ocurrencia de un error.

“Externas”: son causadas por distintos eventos, por ejemplo, expiración de un


cuanto en un reloj de interrupción o recepción de una señal de otro procesador en
un sistema multiprocesador.

“De reinicio”: ocurren al presionar la “tecla de reinicio” o cuando llega una


instrucción de reinicio de otro procesador en un sistema multiprocesador.
“De verificación de programa”: son causadas por errores producidos durante la
ejecución de procesos, por ejemplo:

 Un intento de dividir por cero.


 Un intento de un proceso de usuario de ejecutar una instrucción
privilegiada.
 Un intento de ejecutar un código de operación inválido.

“De verificación de máquina”: son ocasionadas por un mal funcionamiento del


hardware.

El Núcleo del Sistema Operativo

El “núcleo” del Sistema Operativo controla todas las operaciones que implican
procesos y representa solo una pequeña porción del código de todo el Sistema
Operativo pero es de amplio uso.

El proceso de interrupciones se incluye en el núcleo ya que debe ser rápido


(especialmente en sistemas multiusuario), para optimizar el uso de los recursos
del sistema y proveer tiempos de respuesta aceptables a los usuarios interactivos.

El núcleo inhabilita las interrupciones mientras responde a una interrupción. Las


interrupciones son habilitadas de nuevo después de completar el proceso de una
interrupción.

El núcleo del Sistema Operativo generalmente realiza las siguientes funciones:

 Manipulación de interrupciones.
 Creación y destrucción de procesos.
 Cambio de estados de procesos.
 Despacho.
 Suspensión y reanudación de procesos.
 Sincronización de procesos.
 Comunicación entre procesos.
 Manipulación de bloques de control de proceso.
 Soporte de las actividades de Entrada / Salida.
 Soporte de la asignación y desasignación de almacenamiento.
 Soporte del sistema de archivos.
 Soporte de un mecanismo de llamada / regreso al procedimiento.
 Soporte de ciertas funciones contables (estadísticas) del sistema.

Planificación de Procesos

Cuando más de un proceso es ejecutable desde el punto de vista lógico, el


Sistema Operativo debe decidir cuál de ellos debe ejecutarse en primer término.
El Planificador es la porción del Sistema Operativo que decide y el Algoritmo de
Planificación es el utilizado.

Los principales “criterios” respecto de un buen algoritmo de planificación son la


equidad, la eficacia, el tiempo de respuesta, el tiempo de regreso y el rendimiento.

Criterio Descripción

Garantizar que cada proceso obtiene su


Equidad
proporción justa de la cpu

Mantener ocupada la cpu el ciento por ciento


Eficacia
del tiempo

Tiempo Minimizar el tiempo de respuesta para los


de usuarios interactivos
respuesta

Tiempo Minimizar el tiempo que deben esperar los


de usuarios por lotes (batch) para obtener sus
regreso resultados

Algunas de estas metas son contradictorias, por ejemplo, minimizar el tiempo de


respuesta para los usuarios interactivos significaría no ejecutar las tareas batch.

Cada proceso es único e impredecible, es decir que pueden requerir


intensivamente operaciones de Entrada / Salida o intensivamente cpu; el
planificador del Sistema Operativo no tiene la certeza de cuánto tiempo
transcurrirá hasta que un proceso se bloquee, ya sea por una operación de
Entrada / Salida o por otra razón .

Para evitar que un proceso se apropie de la cpu un tiempo excesivo, los equipos
poseen un dispositivo que provoca una interrupción en forma periódica, por
ejemplo 60 hz, o sea sesenta veces por segundo.

En cada interrupción del reloj el Sistema Operativo decide si el proceso que se


está ejecutando continúa o si el proceso agotó su tiempo de cpu y debe
suspenderse y ceder la cpu a otro proceso.

Los principales conceptos relacionados con Planificación del Procesador son los
siguiente:

Planificación apropiativa: es la estrategia de permitir que procesos ejecutables


(desde el punto de vista lógico) sean suspendidos temporalmente.

Planificación no apropiativa: es la estrategia de permitir la ejecución de un proceso


hasta terminar.
Planificación del procesador: determinar cuándo deben asignarse los
procesadores y a qué procesos, lo cual es responsabilidad del Sistema Operativo.
Sin embargo, existen algunos puntos que no necesariamente son muy
convenientes sobre todo en la forma de tomar los procesos así como de los
recursos que ellos mismos necesitan para su ejecución:

Condiciones de Carrera o Competencia: La condición de carrera (race


condition) ocurre cuando dos o más procesos accesan un recurso compartido sin
control, de manera que el resultado combinado de este acceso depende del orden
de llegada. Suponga, por ejemplo, que dos clientes de un banco realizan cada uno
una operación en cajeros diferentes al mismo tiempo.

El usuario A quiere hacer un depósito. El B un retiro. El usuario A comienza la


transacción y lee su saldo que es 1000. En ese momento pierde su turno de
ejecución (y su saldo queda como 1000) y el usuario B inicia el retiro: lee el saldo
que es 1000, retira 200 y almacena el nuevo saldo que es 800 y termina. El turno
de ejecución regresa al usuario A el cual hace su depósito de 100, quedando
saldo = saldo + 100 = 1000 + 100 = 1100. Como se ve, el retiro se perdió y eso le
encanta al usuario A y B, pero al banquero no le convino esta transacción. El error
pudo ser al revés, quedando el saldo final en 800.

Postergación o Aplazamiento Indefinido(a): Esto se mencionó en el apartado


anterior y consiste en el hecho de que uno o varios procesos nunca reciban el
suficiente tiempo de ejecución para terminar su tarea. Por ejemplo, que un
proceso ocupe un recurso y lo marque como 'ocupado' y que termine sin marcarlo
como 'desocupado'. Si algún otro proceso pide ese recurso, lo verá 'ocupado' y
esperará indefinidamente a que se 'desocupe'.

Condición de Espera Circular: Esto ocurre cuando dos o más procesos forman
una cadena de espera que los involucra a todos. Por ejemplo, suponga que el
proceso A tiene asignado el recurso 'cinta' y el proceso B tiene asignado el recurso
'disco'. En ese momento al proceso A se le ocurre pedir el recurso 'disco' y al
proceso B el recurso 'cinta'. Ahi se forma una espera circular entre esos dos
procesos que se puede evitar quitándole a la fuerza un recurso a cualquiera de los
dos procesos.

Condición de No Apropiación: Esta condición no resulta precisamente de la


concurrencia, pero juega un papel importante en este ambiente. Esta condición
especifica que si un proceso tiene asignado un recurso, dicho recurso no puede
arrebatársele por ningún motivo, y estará disponible hasta que el proceso lo
'suelte' por su voluntad.

Condición de Espera Ocupada: Esta condición consiste en que un proceso pide


un recurso que ya está asignado a otro proceso y la condición de no apropiación
se debe cumplir. Entonces el proceso estará gastando el resto de su time slice
checando si el recurso fue liberado. Es decir, desperdicia su tiempo de ejecución
en esperar. La solución más común a este problema consiste en que el sistema
operativo se dé cuenta de esta situación y mande a una cola de espera al proceso,
otorgándole inmediatamente el turno de ejecución a otro proceso.

Condición de Exclusión Mutua: Cuando un proceso usa un recurso del sistema


realiza una serie de operaciones sobre el recurso y después lo deja de usar. A la
sección de código que usa ese recurso se le llama 'región crítica'. La condición de
exclusión mutua establece que solamente se permite a un proceso estar dentro de
la misma región crítica. Esto es, que en cualquier momento solamente un proceso
puede usar un recurso a la vez. Para lograr la exclusión mutua se ideo también el
concepto de 'región crítica'. Para logar la exclusión mutua generalmente se usan
algunas técnicas para lograr entrar a la región crítica: semáforos, monitores, el
algoritmo de Dekker y Peterson, los 'candados'. Para ver una descripción de estos
algoritmos consulte [Deitel93] [Tan92].
Condición de Ocupar y Esperar un Recurso: Consiste en que un proceso pide
un recurso y se le asigna. Antes de soltarlo, pide otro recurso que otro proceso ya
tiene asignado.

Niveles de Planificación del Procesador


Se consideran tres niveles importantes de planificación, los que se detallan a
continuación:

Planificación de alto nivel:

También se denomina Planificación de trabajos.


Determina a qué trabajos se les va a permitir competir activamente por los
recursos del sistema, lo cual se denomina Planificación de admisión.

Planificación de nivel intermedio:

Determina a qué procesos se les puede permitir competir por la cpu.


Responde a fluctuaciones a corto plazo en la carga del sistema y efectúa
“suspensiones” y “activaciones” (“reanudaciones”) de procesos.
Debe ayudar a alcanzar ciertas metas en el rendimiento total del sistema.

Planificación de bajo nivel:

Determina a qué proceso listo se le asigna la cpu cuando esta queda disponible y
asigna la cpu al mismo, es decir que “despacha” la cpu al proceso.

La efectúa el Despachador del Sistema Operativo, el que opera muchas veces


por segundo y reside siempre en el almacenamiento primario.
Los distintos Sistemas Operativos utilizan varias Políticas de Planificación, que
se instrumentan mediante Mecanismos de Planificación.

Objetivos de la Planificación

Los objetivos de la planificación del procesador son los siguientes e involucran a


los conceptos detallados seguidamente:

Ser justa:
Todos los procesos son tratados de igual manera.
Ningún proceso es postergado indefinidamente.

Maximizar la capacidad de ejecución:


Maximizar el número de procesos servidos por unidad de tiempo.
Maximizar el número de usuarios interactivos que reciban unos tiempos de
respuesta aceptables:
En un máximo de unos segundos.

Ser predecible:
Un trabajo dado debe ejecutarse aproximadamente en la misma cantidad de
tiempo independientemente de la carga del sistema.

Minimizar la sobrecarga:
No suele considerarse un objetivo muy importante.

Equilibrar el uso de recursos:


Favorecer a los procesos que utilizarán recursos infrautilizados.

Equilibrar respuesta y utilización:


La mejor manera de garantizar buenos tiempos de respuesta es disponer de los
recursos suficientes cuando se necesitan, pero la utilización total de recursos
podrá ser pobre.

Evitar la postergación indefinida:


Se utiliza la estrategia del “envejecimiento” .
Mientras un proceso espera por un recurso su prioridad debe aumentar, así la
prioridad llegará a ser tan alta que el proceso recibirá el recurso esperado.

Asegurar la prioridad:
Los mecanismos de planificación deben favorecer a los procesos con prioridades
más altas.

Dar preferencia a los procesos que mantienen recursos claves:


Un proceso de baja prioridad podría mantener un recurso clave, que puede ser
requerido por un proceso de más alta prioridad. Si el recurso es no apropiativo, el
mecanismo de planificación debe otorgar al proceso un tratamiento mejor del que
le correspondería normalmente, puesto que es necesario liberar rápidamente el
recurso clave.

Dar mejor tratamiento a los procesos que muestren un “comportamiento


deseable”:
Un ejemplo de comportamiento deseable es una tasa baja de paginación.

Degradarse suavemente con cargas pesadas:


Un mecanismo de planificación no debe colapsar con el peso de una exigente
carga del sistema. Se debe evitar una carga excesiva mediante las siguientes
acciones:
 No permitiendo que se creen nuevos procesos cuando la carga ya es
pesada.
 Dando servicio a la carga más pesada al proporcionar un nivel
moderadamente reducido de servicio a todos los procesos.

Criterios de Planificación

Para realizar los objetivos de la planificación, un mecanismo de planificación debe


considerar lo siguiente:

 La limitación de un proceso a las operaciones de Entrada / Salida: cuando


un proceso consigue la cpu, ¿la utiliza solo brevemente antes de generar
una petición de Entrada / Salida?.

 La limitación de un proceso a la cpu: cuando un proceso obtiene la cpu,


¿tiende a usarla hasta que expira su tiempo?.
 Si un proceso es por lote (batch) o interactivo: los usuarios interactivos
deben recibir inmediato servicio para garantizar buenos tiempos de
respuesta.
 ¿Qué urgencia tiene una respuesta rápida?: por ejemplo, un proceso de
tiempo real de un sistema de control que supervise una refinería de
combustible requiere una respuesta rápida, más rápida que la respuesta
requerida por un proceso en lotes (batch) que deberá entregarse al día
siguiente.

 La prioridad de un proceso: a mayor prioridad mejor tratamiento.


 Frecuentemente un proceso genera fallos (carencias) de página:
o Probablemente los procesos que generan pocos fallos de página
hayan acumulado sus “conjuntos de trabajo” en el almacenamiento
principal.
o Los procesos que experimentan gran cantidad de fallos de página
aún no han establecido sus conjuntos de trabajo.
o Un criterio indica favorecer a los procesos que han establecido sus
conjuntos de trabajo.
o Otro criterio indica favorecer a los procesos con una tasa alta de
fallos de página ya que rápidamente generarán una petición de
Entrada / Salida.
 Frecuentemente un proceso ha sido apropiado por otro de más alta
prioridad, lo cual significa lo siguiente:
o A menudo los procesos apropiados deben recibir un tratamiento
menos favorable.
o Cada vez que el Sistema Operativo asume la sobrecarga para hacer
ejecutar este proceso, el corto tiempo de ejecución antes de la
apropiación no justifica la sobrecarga de hacer ejecutar al proceso en
primer lugar.
 ¿Cuánto tiempo de ejecución real ha recibido el proceso?: un criterio
considera que debe ser favorecido un proceso que ha recibido muy poco
tiempo de cpu.
 ¿Cuánto tiempo adicional va a necesitar el proceso para terminar?: los
tiempos promedio de espera pueden reducirse priorizando los procesos que
requieren de un tiempo de ejecución mínimo para su terminación, pero
pocas veces es posible conocer la cantidad de tiempo adicional que cada
proceso necesita para terminar.

Condiciones de Carrera o Competencia: La condición de carrera (race


condition) ocurre cuando dos o más procesos accesan un recurso compartido sin
control, de manera que el resultado combinado de este acceso depende del orden
de llegada. Suponga, por ejemplo, que dos clientes de un banco realizan cada uno
una operación en cajeros diferentes al mismo tiempo.

El usuario A quiere hacer un depósito. El B un retiro. El usuario A comienza la


transacción y lee su saldo que es 1000. En ese momento pierde su turno de
ejecución (y su saldo queda como 1000) y el usuario B inicia el retiro: lee el saldo
que es 1000, retira 200 y almacena el nuevo saldo que es 800 y termina. El turno
de ejecución regresa al usuario A el cual hace su depósito de 100, quedando
saldo = saldo + 100 = 1000 + 100 = 1100. Como se ve, el retiro se perdió y eso le
encanta al usuario A y B, pero al banquero no le convino esta transacción. El error
pudo ser al revés, quedando el saldo final en 800.

Temporizador de Intervalos o Reloj de Interrupción

El proceso al cual está asignada la cpu se dice que está en ejecución y puede ser
un proceso de Sistema Operativo o de usuario.
El Sistema Operativo dispone de mecanismos para quitarle la cpu a un proceso de
usuario para evitar que monopolice el sistema.
El Sistema Operativo posee un “reloj de interrupción” o “temporizador de
intervalos” para generar una interrupción, en algún tiempo futuro específico o
después de un transcurso de tiempo en el futuro; la cpu es entonces despachada
hacia el siguiente proceso [7, Deitel].
Un proceso retiene el control de la cpu hasta que ocurra alguna de las siguientes
situaciones:

 La libera voluntariamente.
 El reloj la interrumpe.
 Alguna otra interrupción atrae la atención de la cpu.
 Si el reloj interrumpe un proceso de usuario, la interrupción causa la
ejecución del Sistema Operativo, el que decide cuál será el proceso que
obtendrá la cpu.
 El reloj de interrupción ayuda a garantizar tiempos de respuesta razonables
a usuarios interactivos, ya que evita que el sistema se “cuelgue” a un solo
usuario en un ciclo infinito y permite que los procesos respondan a “eventos
dependientes del tiempo”.

Asimismo, los procesos que necesitan una ejecución periódica dependen del reloj
de interrupción
Prioridades

Las prioridades pueden ser de distinto tipo

Tipos de prioridades

Asignadas
automáticamente por el
sistema

Asignadas desde el
exterior

Dinámicas

Estáticas

Asignadas racionalmente

Asignadas
arbitrariamente

En el caso de prioridades asignadas arbitrariamente, un mecanismo del sistema


necesita distinguir entre procesos sin importarle cuál es el más importante.
Las principales características de las prioridades estáticas son las siguientes:
 No cambian.
 Los mecanismos de implementación son sencillos.
 Implican una sobrecarga relativamente baja.
 No responden a cambios en el ambiente (contexto) que harían deseable
ajustar alguna prioridad.

Las principales características de las prioridades dinámicas son las siguientes:


Responden al cambio. La prioridad inicial asignada a un proceso puede durar poco
tiempo, luego se la reajusta a un mejor valor.
Los mecanismos de implementación son más complicados que para prioridades
estáticas.

Implican una sobrecarga mayor que para esquemas estáticos.


Respecto de las prioridades adquiridas, se hace referencia al tratamiento
especial que en situaciones excepcionales requiere un cierto proceso, lo que
puede significar restar recursos a los demás procesos.

Tipos de Planificación

Planificación a Plazo Fijo

Ciertos trabajos se planifican para ser terminados en un tiempo específico o plazo


fijo. Es una planificación compleja debido a los siguientes factores:
 El usuario debe suministrar anticipadamente una lista precisa de recursos
necesarios para el proceso, pero generalmente no se dispone de dicha
información.
 La ejecución del trabajo de plazo fijo no debe producir una grave
degradación del servicio a otros usuarios.
 El sistema debe planificar cuidadosamente sus necesidades de recursos
hasta el plazo fijo, lo que se puede complicar con las demandas de
recursos de nuevos procesos que ingresen al sistema.
 La concurrencia de varios procesos de plazo fijo (activos a la vez) puede
requerir métodos sofisticados de optimización.
 La administración intensiva de recursos puede generar una considerable
sobrecarga adicional.
Planificación Garantizada

Se establecen compromisos de desempeño con el proceso del usuario, por


ejemplo, si existen “n” procesos en el sistema, el proceso del usuario recibirá
cerca del “1 / n” de la potencia de la cpu.

El sistema debe tener un registro del tiempo de cpu que cada proceso ha tenido
desde su entrada al sistema y del tiempo transcurrido desde esa entrada. Con los
datos anteriores y el registro de procesos en curso de ejecución, el sistema calcula
y determina qué procesos están más alejados por defecto de la relación “1 / n”
prometida y prioriza los procesos que han recibido menos cpu de la prometida.

Planificación del Primero en Entrar Primero en Salir (FIFO)

Es muy simple, los procesos se despachan de acuerdo con su tiempo de llegada a


la cola de listos. Una vez que el proceso obtiene la cpu, se ejecuta hasta terminar,
ya que es una disciplina “no apropiativa”.

Puede ocasionar que procesos largos hagan esperar a procesos cortos y que
procesos no importantes hagan esperar a procesos importantes.
Es más predecible que otros esquemas. No puede garantizar buenos tiempos de
respuesta interactivos. Suele utilizarse integrado a otros esquemas, por ejemplo,
de la siguiente manera:

 Los procesos se despachan con algún esquema de prioridad.


 Los procesos con igual prioridad se despachan “FIFO”.

Planificación de Asignación en Rueda (RR: Round Robin)


Los procesos se despachan en “FIFO” y disponen de una cantidad limitada de
tiempo de cpu, llamada “división de tiempo” o “cuanto”.
Si un proceso no termina antes de expirar su tiempo de cpu ocurren las siguientes
acciones:

a) La cpu es apropiada.
b) La cpu es otorgada al siguiente proceso en espera.
c) El proceso apropiado es situado al final de la lista de listos.
d) Es efectiva en ambientes de tiempo compartido.

La sobrecarga de la apropiación se mantiene baja mediante mecanismos


eficientes de intercambio de contexto y con suficiente memoria principal para los
procesos.

Tamaño del Cuanto o Quantum

La determinación del tamaño del cuanto es decisiva para la operación efectiva de


un sistema computacional [7, Deitel].

Las interrogantes son: ¿cuanto pequeño o grande?, ¿cuanto fijo o variable? y


¿cuanto igual para todos los procesos de usuarios o determinado por separado
para cada uno de ellos?.
Si el cuanto se hace muy grande, cada proceso recibe todo el tiempo necesario
para llegar a su terminación, por lo cual la asignación en rueda (“RR”) degenera en
“FIFO”.

Si el cuanto se hace muy pequeño, la sobrecarga del intercambio de contexto se


convierte en un factor dominante y el rendimiento del sistema se degrada, puesto
que la mayor parte del tiempo de cpu se invierte en el intercambio del procesador
(cambio de contexto) y los procesos de usuario disponen de muy poco tiempo de
cpu.
El cuanto debe ser lo suficientemente grande como para permitir que la gran
mayoría de las peticiones interactivas requieran de menos tiempo que la duración
del cuanto, es decir que el tiempo transcurrido desde el otorgamiento de la cpu a
un proceso hasta que genera una petición de Entrada / Salida debe ser menor que
el cuanto establecido, de esta forma, ocurrida la petición la cpu pasa a otro
proceso y como el cuanto es mayor que el tiempo transcurrido hasta la petición de
Entrada / Salida, los procesos trabajan al máximo de velocidad, se minimiza la
sobrecarga de apropiación y se maximiza la utilización de la Entrada / Salida.

El cuanto óptimo varía de un sistema a otro y con la carga, siendo un valor de


referencia 100 mseg (cien milisegundos).

Planificación del Trabajo Más Corto Primero (SJF)

Es una disciplina no apropiativa y por lo tanto no recomendable en ambientes de


tiempo compartido.

 El proceso en espera con el menor tiempo estimado de ejecución hasta su


terminación es el siguiente en ejecutarse.
 Los tiempos promedio de espera son menores que con “FIFO”.
 Los tiempos de espera son menos predecibles que en “FIFO”.
 Favorece a los procesos cortos en detrimento de los largos.
 Tiende a reducir el número de procesos en espera y el número de procesos
que esperan detrás de procesos largos.
 Requiere un conocimiento preciso del tiempo de ejecución de un proceso,
lo que generalmente se desconoce.
 Se pueden estimar los tiempos en base a series de valores anteriores.

Planificación del Tiempo Restante Más Corto (SRT)


 Es la contraparte apropiativa del SJF.
 Es útil en sistemas de tiempo compartido.
 El proceso con el tiempo estimado de ejecución menor para …nalizar es el
siguiente en ser ejecutado.
 Un proceso en ejecución puede ser apropiado por un nuevo proceso con un
tiempo estimado de ejecución menor.
 Tiene mayor sobrecarga que la planificación SJF.
 Debe mantener un registro del tiempo de servicio transcurrido del proceso
en ejecución, lo que aumenta la sobrecarga.
 Los trabajos largos tienen un promedio y una varianza de los tiempos de
espera aún mayor que en SJF.
 La apropiación de un proceso a punto de terminar por otro de menor
duración recién llegado podría significar un mayor tiempo de cambio de
contexto (administración del procesador) que el tiempo de finalización del
primero.
 Al diseñarse los Sistemas Operativos se debe considerar cuidadosamente
la sobrecarga de los mecanismos de administración de recursos
comparándola con los beneficios esperados.

Planificación por Prioridad

Considera factores externos al proceso [23, Tanenbaum]. Las ideas centrales son
que cada proceso tiene asociada una prioridad y que el proceso ejecutable con
máxima prioridad es el que tiene el permiso de ejecución.

Los procesos de alta prioridad podrían ejecutar indefinidamente, ya que el


planificador del sistema puede disminuir la prioridad del proceso en ejecución en
cada interrupción del reloj.

Las prioridades también pueden ser asignadas dinámicamente por el sistema para
lograr ciertas metas relacionadas con el procesador o la Entrada / Salida.
Los procesos limitados por la Entrada / Salida (requerimientos intensivos de
Entrada / Salida) ocupan mucho de su tiempo en espera de operaciones de
Entrada / Salida, por lo tanto:

 Deben tener prioridad para usar la cpu y efectuar la siguiente petición de


Entrada / Salida, ya que se ejecutará (la operación de Entrada / Salida) en
paralelo con otro proceso que utilice la cpu.
 Si deben esperar mucho tiempo a la cpu estarán ocupando memoria por un
tiempo innecesario.

Un algoritmo sencillo consiste en establecer que la prioridad sea “1 / f”, donde “f”
es la fracción del último cuanto utilizado por el proceso. Un proceso que utilice 2
mseg (dos milisegundos) de su cuanto de 100 mseg (cien milisegundos) tendrá
prioridad 50.
Un proceso que se ejecutó 50 mseg antes del bloqueo tendrá prioridad 2.
Un proceso que utilizó todo el cuanto tendrá prioridad 1.

Frecuentemente los procesos se agrupan en “Clases de Prioridad”, en cuyo caso


se utiliza la Planificación con Prioridades entre las clases y con Round Robin (RR)
dentro de cada clase. Si las prioridades no se reajustan en algún momento, los
procesos de las clases de prioridad mínima podrían demorarse indefinidamente.

También podría gustarte